Intelligence artificielle

Faut-il une responsabilité juridique pour les robots ?

intelligence artificielle
Faut-il élaborer une responsabilité juridique pour les robots ? La Commission européenne travaille actuellement sur le projet d'un nouveau droit pour les robots, mais plus de 200 membres de la société civile s'opposent à la création d'une « personnalité électronique ». Une lettre ouverte vient d'être publiée pour tenter de dissuader la Commission européenne d’une telle attribution.
Photo : « Quel cadre moral adopter dans un avenir automatisé ? »  ©Matthew Wiebe
 
Pour les 220 signataires de la lettre ouverte « le statut juridique d'un robot ne peut pas dériver du modèle de la personne morale, puisqu'elle implique l'existence de personnes physiques derrière elle pour la représenter et la diriger ». Les experts, chercheurs, doctorants, professeurs de toute l’Europe ont adressé une lettre ouverte à la Commission européenne pour que soit fixé un cadre juridique innovant et fiable sur le développement tant de l’intelligence artificielle que de la robotique. Comme le Parlement, la Commission européenne estime qu'il est nécessaire de définir une série de règles, notamment en matière de responsabilité, de transparence, et d'obligation de rendre des comptes, sans pour autant brider la recherche, le développement et l'innovation dans le domaine de la robotique.
 
La lettre :
 
« Nous, experts en Intelligence Artificielle et Robotique, leaders industriels, juristes, éthiciens, et professionnels de la santé, affirmons que la création de règles de droit européennes pour la robotique et l’intelligence artificielle est pertinente pour garantir un haut niveau de sécurité aux citoyens de l’Union européenne tout en favorisant l’innovation.
 
À mesure que les interactions entre l’homme et le robot deviennent de plus en plus répandues, l’Union Européenne doit offrir le cadre approprié pour renforcer les valeurs de la démocratie et de l’Union européenne. En effet, le cadre juridique de l’intelligence artificielle et de la robotique doit être exploré non seulement par des aspects économiques et juridiques, mais aussi par ses impacts sociétaux, psychologiques et éthiques. Dans ce contexte, nous sommes préoccupés par la Résolution du Parlement Européen sur les règles de droit civil sur la Robotique et par sa recommandation à la Commission européenne dans son paragraphe 59 f) :
“La création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers”.
 
Nous défendons que :
1. L’impact économique, juridique, sociétal et éthique de l’IA et de la robotique doit être considéré sans hâte ni parti pris. Le bénéfice pour toute l’Humanité devrait présider au cadre juridique posé par l’Union Européenne.
2. La création d’un statut juridique de “personne électroniques” pour les robots “autonomes”, “imprévisibles” et “auto-apprenants” est justifiée par l’affirmation erronée que la responsabilité de dommages causés serait impossible à prouver.
 
D’un point de vue technique, cette déclaration offre de nombreux biais basés sur une surévaluation des capacités réelles des robots les plus avancés, une compréhension superficielle des capacités d’imprévisibilité et d’auto-apprentissage et, probablement, une perception des robots déformée par la science-fiction et quelques communiqués de presse à sensation.
 
D’un point de vue éthique et juridique, créer une personnalité juridique pour un robot est inapproprié quel que soit le statut légal envisagé :
a. Un statut juridique pour un robot ne peut pas découler du modèle de la personne physique, puisque le robot aurait alors des droits humains, tels que le droit à la dignité, le droit à son intégrité, le droit à la rémunération ou le droit à la citoyenneté, s’affrontant ainsi directement avec les droits de l’Homme. Cela serait en totale contradiction avec la Charte des Droits fondamentaux de l’Union européenne et la Convention de sauvegarde des droits de l’Homme et des libertés fondamentales.
b. Le statut juridique d’un robot ne peut pas dériver du modèle de la personne morale, puisqu’elle implique l’existence de personnes physiques derrière elle pour la représenter et la diriger. Et ce n’est pas le cas pour un robot.
c. Le statut légal d’un robot ne peut pas dériver du modèle anglo-saxon du Trust aussi appelé Fiducie ou Treuhand en Allemagne. En effet, ce régime est extrêmement complexe, il exige des compétences très spécialisées et ne résoudrait pas la question de la responsabilité. Plus important encore, cela impliquerait toujours l’existence d’un être humain en dernier recours – le fiduciaire – responsable de la gestion du robot accordé avec un Trust ou une Fiducie.
 
En conséquence, nous déclarons que :
– L’Union européenne doit encourager le développement de l’industrie de l’Intelligence Artificielle et de la Robotique pour limiter les risques sur la santé et assurer la sécurité des êtres humains. La protection des utilisateurs de robots et des tiers doit être au cœur de toutes les dispositions légales de l’UE.
– L’Union européenne doit créer un cadre applicable pour le développement de l’IA et la robotique innovant et fiable dans l’objectif de créer de grandes avancées pour les peuples européens et le marché commun."
Liste complète des signataires : http://www.robotics-openletter.eu/
 
Pour Cédric Villani, l’intelligence artificielle nous oblige à nous demander « dans quelle société nous voulons vivre ». En effet, les enjeux, les risques et les dérives potentielles de l’intelligence artificielle méritent une véritable vigilance … Elon Musk, lui-même, considère que « l’intelligence artificielle est un risque existentiel fondamental pour la civilisation humaine » et qu’elle appelle des décisions publiques. Bill Gates réclame également que les pouvoirs publics se saisissent sans attendre de ces questions. Le Parlement européen a adopté en février 2017 une résolution concernant les « règles de droit civil sur la robotique » afin de demander à la Commission européenne, aux États membres mais également la communauté internationale au travers de l’ONU, de se doter d’outils juridiques adaptés. Et les états généraux de la bioéthique qui se terminent dans quelques jours suffiront-ils à prévenir des dangers de l’IA ? 
Le jour où des systèmes d'IA capables d'une prise de décision 100% autonome existeront, il faudra que l'on soit bien armé juridiquement pour pouvoir les intégrer à notre quotidien...
 
 
Pour aller plus loin :
 
« Droit de la robotique : vers de nouvelles humanités ? » : Publication Edition Dalloz, tirée de l’intervention d’Alain Bensoussan au colloque Vers de nouvelles humanités qui s’est déroulé à la Cité des sciences et de l’industrie le 24 mars 2017.
 

Quelque chose à ajouter ? Dites-le en commentaire.

 

Articles en relation
Quel avenir pour l'IA ?

L’intelligence artificielle est d’ores et déjà présente dans notre quotidien depuis de nombreuses années. Elle devient pour beaucoup, la solution magique à tous les problèmes. Est-ce raisonnable ? Est-ce...

La fable du piratage des implants mnésiques

Doit-on avoir peur des implants mnésiques ? Une étude récente, dont UP’ s’est fait l’écho, fait état de cyber attaques possibles sur notre mémoire. Jean-Gabriel Ganascia, chercheur en intelligence...

Décoder l'info - Comment décrypter les fake news ?

Décoder l'info - Comment décrypter les fake news ? de Caroline Faillet - Editions Bréal, 16 Octobre 2018 - 120 Pages   Trop d'infos tuent-elles l'info ? Dans une société de l'infobésité, le paradoxe est...

L'intelligence artificielle ou l'enjeu du siècle

L'intelligence artificielle ou l'enjeu du siècle : Anatomie d’un antihumanisme radical, d'Eric  Sadin - Edition L'Echappée (Collection Pour en finir avec), 19 octobre 2018 - 296 Pages   C’est...