Presque personne ne peut contester aujourd’hui le fait que l’intelligence artificielle peut présenter de nombreux avantages pour la société. Toutefois, comme toutes les technologies de rupture ou perturbatrices, l’IA apporte son lot de risques. Ces dernières années, l’Europe a donc lancé des initiatives pour essayer d’anticiper les dangers liés à l’IA et mettre en place un cadre juridique, qui servirait de référence pour les mesures à prendre et définir les responsabilités notamment en cas d’incidents liés à l’intelligence artificielle.
Le Parlement européen a adopté un rapport sur la mise en place de règles de droit civil relatives à la robotique et l’intelligence artificielle. Dans ce rapport, le Parlement suggère que pour répondre à la question de responsabilité en cas d’accident provoqué par un robot ou une IA, il faudrait définir un statut juridique pour les robots intelligents. Ce statut devrait leur faire bénéficier de droits comme un « salaire », mais également les soumettre à des devoirs.
Le rapport tient compte du fait que plus les robots et IA sont intelligents et autonomes, plus il est difficile pour le concepteur ou le propriétaire de prévoir son comportement. Il peut donc se produire des incidents pour lesquels on ne peut engager la responsabilité du concepteur ou du propriétaire. Le groupe de travail suggère donc « la création d'une personnalité juridique spécifique aux robots », laquelle impliquerait que les robots pourraient être tenus pour civilement responsables des dommages qu’ils causeraient. Cela permettra en effet de considérer les robots autonomes les plus sophistiqués « comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers ». Il est important de préciser que le rapport considère comme une personne électronique « tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers ». Il s’agira ensuite de mettre en place un « régime d'assurance obligatoire en vertu duquel, les fabricants ou les propriétaires de robots seraient tenus de contracter une police d'assurance couvrant les dommages potentiels causés par les robots ».
En tant que représentant de la société civile européenne, le CESE (comité économique et social européen) a également élaboré un rapport sur l’intelligence artificielle. Il s’agit d’un avis d’initiative pour lancer un « débat éclairé et équilibré, en évitant les écueils des scénarios de catastrophe ou de la relativisation à outrance ». Cet avis a été adopté en section spécialisée le 4 mai, puis en session plénière le 31 mai, avec 159 voix pour, 3 contre et 14 abstentions.
Dans son rapport, le CESE s’oppose formellement à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA, comme le suggère le rapport adopté par le Parlement européen. Son rapporteur Catelijne MULLER explique cela par deux principales raisons : d’abord, le « risque moral inacceptable » inhérent à une telle démarche. « Si cette proposition se concrétise, les effets correctifs préventifs découlant du droit de la responsabilité civile disparaîtront dès lors que le fabricant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA) ». Le fait que les fabricants soient dégagés de cette responsabilité augmente en effet les risques de construire des robots et IA qui ne sont pas suffisamment testés pour s’assurer que leurs conceptions répondent effectivement aux normes de sécurité. Autrement dit, sachant qu’ils ne seraient pas tenus pour responsables en cas d’incidents, les fabricants pourraient prendre plus de risques.
Le CESE craint, en outre, « le risque d’utilisation impropre et d’abus d’une telle forme juridique existe. » Il s’agit ici des propriétaires ou utilisateurs de robots intelligents ou IA. Vont-ils utiliser l’IA correctement et selon ce qu’a prévu le fabricant s’ils savent qu’ils ne seront pas tenus civilement pour responsables en cas d’incidents ? Les incidents dus à une mauvaise utilisation ne seront-ils pas systématiquement imputés à l’IA ou au robot intelligent par son propriétaire ? Voici les inquiétudes soulevées par le CESE.
Dans son rapport, le CESE pointe onze domaines dans lesquels l’IA soulève des enjeux de société, à savoir l’éthique ; la sécurité ; la vie privée ; la transparence et l’obligation de rendre des comptes ; le travail ; l’éducation et les compétences ; l’inégalité et l’inclusion ; la législation et la réglementation ; la gouvernance et la démocratie ; la guerre ; la super-intelligence. Le CESE formule également un certain nombre de recommandations.
Dans le domaine de la gouvernance et la démocratie par exemple, le CESE se dit préoccupé par les indications selon lesquelles des systèmes d’IA auraient été utilisés pour influencer les comportements (de vote) des citoyens. Des algorithmes intelligents auraient permis de prévoir les préférences et le comportement des gens et de les orienter. Le CESE estime qu’il s’agit d’une menace pour une démocratie ouverte et équitable. « Dans le contexte actuel de polarisation et de démantèlement des institutions internationales, ce type de technologie de propagande précise et puissante pourrait rapidement perturber encore davantage notre société », dit-il. « C’est l’une des raisons pour lesquelles il est nécessaire de développer des normes pour la transparence et la contrôlabilité des algorithmes (intelligents) », a-t-il ajouté. Sur les autres points, le CESE rejoint de nombreuses propositions faites pour encadrer l’IA et son impact social.
Source : Télécharger le rapport du CESE sur l’intelligence artificielle
Et vous ?
Que pensez-vous de la mise en place d’une personnalité juridique pour les robots et IA ?
Partagez-vous l'avis du CESE ?
UE : le CESE s'oppose à la mise en place d'une personnalité juridique pour les robots ou IA
Craignant un risque moral des fabricants et utilisateurs
UE : le CESE s'oppose à la mise en place d'une personnalité juridique pour les robots ou IA
Craignant un risque moral des fabricants et utilisateurs
Le , par Michael Guilloux
Une erreur dans cette actualité ? Signalez-nous-la !