« La création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers. »
Traduction, cette recommandation suggère de tenir pour responsables les robots autonomes, notamment au cas où ces machines portent atteinte à la sécurité des gens ou bien endommagent des biens.
Les parties derrière cette proposition, notamment des constructeurs, prétendent que ce changement relève du bon sens. Un statut juridique ne va pas octroyer aux robots le droit de se marier ou bien de bénéficier des mêmes droits que des humains. Loin de là, elle va mettre à pied d’égalité l’IA avec les sociétés, qui elles bénéficient déjà du statut de « personne morale », et sont traitées comme tel dans les tribunaux du monde entier.
Mais ces arguments ne convainquent pas les opposants à cette proposition. Dans une lettre adressée à la Commission européenne, 156 experts en intelligence artificielle de 14 pays européens, des informaticiens, des professeurs de droit et des PDG ont mis en alerte Bruxelles sur le danger de mettre en application cette proposition. Selon eux, attribuer un statut juridique aux robots serait « inapproprié » et pose des problèmes « légaux et éthiques ».
Du côté des autorités législatives, Mady Delvaux, vice-présidente de la Commission judiciaire du Parlement européen et députée socialiste luxembourgeoise, a dit que bien qu’elle n'est pas sûre si le fait d’attribuer une personnalité juridique est une bonne idée, elle est de plus en plus convaincue que la législation actuelle est limitée et se montre incapable de traiter les problèmes complexes qui concernent la responsabilité des machines autonomes. Pour cette raison, elle pense que toutes les options doivent être explorées.
Une position que rejettent catégoriquement les experts en IA dans leur pétition et pour qui cette proposition relève quasiment de l'hérésie.
« En adoptant le statut juridique, nous allons supprimer la responsabilité des constructeurs, » s’alerte Nathalie Navejans, professeure de droit à l'Université d'Artois, à Arras, à l'initiative de la tribune.
Noel Sharkey, professeur d’intelligence artificielle et de robotique à l’université de Sheffield est lui aussi d’accord que pour les constructeurs, cette proposition constitue un moyen de se dédouaner de la responsabilité des actions de leurs machines et des dommages qu’elles pourraient causer.
Des robots qui seraient dotés d’une intelligence similaire à celles des humains et capable de prendre des décisions sont encore loin d’exister. Aujourd’hui, les robots font mieux que les humains dans certaines tâches spécifiques, voire des applications restreintes, comme la reconnaissance d’images, ou encore jouer au jeu de Go.
Mais ces applications bien qu’elles soient avancées restent limitées à un seul domaine. Jouer à Go, ou bien catégoriser des images constituent tout ce que peuvent faire ces machines, contrairement aux humains qui peuvent à la fois comprendre le langage, apprendre à jouer à une variété de jeux et reconnaître des images.
En dépit de cette réalité, les rapports exagérés des médias sur les avancées dans la robotique ont infiltré le débat public. En conséquence, les législateurs pourraient être poussés à adopter des régulations prématurées, alertent les signataires de la lettre.
En gros, les experts accusent les partisans de cette proposition de surestimer intentionnellement les capacités d’intelligence artificielle pour duper un public facilement impressionnable : « D'un point de vue technique, ce projet présente de nombreux biais basés sur une surévaluation des capacités réelles des robots les plus avancés, une compréhension superficielle de leur imprévisibilité et de leurs capacités d'autoapprentissage et une perception du robot déformée par la science-fiction ainsi que par les annonces récentes d'une presse sensationnaliste », estiment-ils.
Le robot humanoïde Sophia
Selon certains chercheurs, aucun robot n’a réussi à faire véhiculer des notions aussi erronées sur la robotique que le robot Sophia : un robot humanoïde qui a fait sa première apparition en mars 2016, puis s’est vu octroyer la citoyenneté saoudienne, un titre des Nations Unies et a inauguré La Conférence de Sécurité à Munich cette année.
« Je ne suis pas contre l’idée d’un robot pour le spectacle, » a dit Sharkey, qui a cosigné la lettre et a aussi cofondé la Fondation de la Robotique Responsable. « Mais quand ils commencent à l’entraîner à l’ONU et à donner aux nations une fausse idée sur ce que peut faire la robotique et l’état de l’IA actuellement, c’est très, très dangereux. »
Il a ajouté : « C’est très dangereux pour les législateurs également. Ils voient ça et le croient, car ils ne sont pas des ingénieurs et il n’y a aucune raison pour qu’ils n’y croient pas. »
Octroyer une personnalité juridique à des robots pose d’autres problèmes d’un point de vue éthique et juridique : par exemple, le robot pourrait alors se prétendre à des droits humains, tels que le droit à la dignité, le droit à son intégrité, le droit à la rémunération ou le droit à la citoyenneté.
Les experts insistent aussi que ce statut juridique des robots ne peut pas être comparé au modèle de la personne morale, car contrairement à une société, un robot n’a pas de personne physique derrière lui pour le représenter et le diriger.
Dans leur lettre, les 156 experts en IA avancent que les lois civiles actuelles de l’UE sont suffisantes pour adresser les questions de responsabilité.
Delvaux a pour sa part dit que l’idée d’une personnalité électronique ne consiste pas à donner aux robots des droits humains, mais de s’assurer qu’un robot est et restera une machine avec un humain aux commandes. Le projet est toujours en discussion à Bruxelles : « Peut-être qu'à la fin, on arrivera à la conclusion que ce n'est pas une si bonne idée », a déclaré Delvaux.
Source : Politico - Le Figaro
Et vous ?
Que pensez-vous de cette recommandation du Parlement européen ?
Êtes-vous d'accord que les constructeurs essaient tant bien que mal de se dédouaner de la responsabilité des actions de leurs machines ?
Pensez-vous qu'il y a eu une surévaluation de l'état de développement actuel de l'IA ?
Voir aussi :
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre, s'adressant à Google et aux entreprises de l'IA
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone