La Commission européenne a présenté ce 28 septembre une proposition de directive sur la responsabilité en matière d’intelligence artificielle. L’objectif est de “donner aux personnes des instruments de recours en cas de dommages causés par l’IA, de sorte qu’ils bénéficient du même niveau de protection que celui offert pour les technologies traditionnelles», a expliqué Vera Jourová, vice-présidente chargée des valeurs et de la transparence.
Des législations obsolètes
La plupart des législations nationales actuelles ne permettent pas de traiter les demandes en réparation pour les dommages subis par des produits ou des services correspondants d’un système d’apprentissage automatique, regrette l’exécutif bruxellois. En effet, le régime de la responsabilité pour faute nécessite que la victime prouve le dommage (matériel, corporel ou moral), la faute et le lien de causalité. Or, le manque de transparence des algorithmes et les difficultés d’accès à l’information sont deux obstacles majeurs pour les victimes souhaitant obtenir satisfaction devant les tribunaux. D’où la nécessité d’adapter les règles pour l’ensemble des États membres.
Les exemples dans lesquels un système équipé d’IA peut causer un dommage sont nombreux : un drone qui s’écrase sur un véhicule ou le toit d’une maison, un algorithme de recrutement qui discrimine un candidat… En pratique, les cas portés en justice ne sont pas encore très nombreux car il s’agit de jeunes contentieux.
Une définition large de l’IA
Pour ce qui est de la définition de l’IA, le texte renvoyé à la proposition de règlement sur l’IA présenté en avril 2021. Il s’agit “d’un logiciel (…) capable, pour un ensemble donné d’objectifs définis par l’homme, de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent“. Cette définition a le mérite d’être assez large pour englober de nombreuses situations. En revanche, elle n’est pas très claire car tous les algorithmes ne sont pas de l’intelligence artificielle.
Le texte précise également d’emblée qu’il ne traite pas des règles relatives à la responsabilité pénale. Schématiquement, la responsabilité civile permet de réparer un préjudice pour des dommages causés par un tiers. La responsabilité pénale oblige l’auteur ou le complice de répondre d’une commission d’infraction (comportement interdit par la loi).
Autre précision importante : la future directive s’appliquera à tous les systèmes d’IA, qu’ils soient ou non à “haut risque”. Cependant la proposition de règlement différencie bien les systèmes en fonction de leur risque. Si peu de restrictions s’appliquent aux systèmes dont l’usage n’est pas susceptible d’entraîner des risques significatifs, une régulation plus stricte est mise en place pour les systèmes dont l’usage présente un haut risque, telle que la reconnaissance faciale .
Une présomption de causalité
Dans les détails, cette proposition a introduit deux principes majeurs. Le premier porte sur la charge de la preuve, c’est-à-dire l’obligation faite à une personne d’apporter la preuve qu’une proposition avancée est vraie ou fausse. Le texte introduit une présomption réfragable de causalité : les juridictions nationales présument”le lien de causalité entre la faute du défendeur et le résultat produit par le système d’IA ou l’incapacité de celui-ci à [en produire un]“. Charge au défendeur de prouver que ce lien n’existe pas.
La Commission avoir expliqué choisi d’instaurer une présomption réfragable – c’est-à-dire qu’il est possible de contredire ou de réfuter par la production d’une preuve contraire – pour éviter »d’exposer les fournisseurs, les opérateurs et les utilisateurs (…) à des risques plus élevés en matière de responsabilité“. Dans le cas contraire, le risque d’entraîner l’innovation dans ce secteur.
Un meilleur accès aux informations
Le deuxième principe vise à aider les victimes à accéder aux éléments de preuve pertinents leur permettant de prouver la faute et le dommage. Elles pourraient ainsi demander à la juridiction d’ordonner la divulgation d’informations concernant les systèmes d’IA dits à “haut risque” (biométrie, reconnaissance faciale…). Des garanties sont invoquées pour préserver le secret des affaires. Avant de définir définitivement, la proposition doit encore être adoptée par le Parlement européen et le Conseil.