IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UE envisage de faciliter les poursuites contre les fabricants de drones et les systèmes d'IA,
Les personnes qui subissent des dommages pourront facilement intenter une action en justice

Le , par Bruno

4PARTAGES

3  0 
Les particuliers et les entreprises qui subissent des dommages causés par des drones, des robots et d'autres produits ou services dotés d'un logiciel d'intelligence artificielle pourront plus facilement intenter une action en justice en vue d'obtenir une indemnisation en vertu d'un projet de réglementation européenne.

La directive sur la responsabilité en matière d'IA, que la Commission européenne annoncera mercredi, vise à lutter contre la prolifération croissante des produits et services dotés d'IA et contre la mosaïque de règles nationales en vigueur dans les 27 pays de l'Union européenne. Dans la mesure où une intelligence artificielle, même titulaire d'une personnalité juridique, ne peut réellement interagir sans être détenue par une personne physique ou morale, la charge de la preuve devrait alors incomber à la gardienne soupçonnée de la chose.


Les victimes peuvent demander réparation en cas d'atteinte à leur vie, à leurs biens, à leur santé et à leur vie privée en raison de la faute ou de l'omission d'un fournisseur, d'un développeur ou d'un utilisateur de technologies d'IA, ou si elles ont été victimes de discrimination dans le cadre d'un processus de recrutement utilisant l'IA, selon le projet de règles.

La vocation première de la technologie de l’intelligence artificielle est de se substituer à l’humain dans l’accomplissement de tâches diverses. Cette substitution est notamment justifiée par des performances supérieures qui peuvent s’entendre aussi bien d’un point de vue économique que sécuritaire. Cependant, en se limitant à un rôle de remplaçant de l’homme (que ce soit au travers de l’usage d’un véhicule terrestre à moteur ou non), les risques découlant de l’activité de l’intelligence artificielle peuvent

apparaître comme quantitativement proches (voire moindres du fait de la suppression de l’erreur humaine) et ainsi justifier que les solutions juridiques applicables à l’homme dans une situation donnée soient les mêmes que celles qui devraient être appliquées à une intelligence artificielle dans une situation similaire. Les règles visent à alléger la charge de la preuve pour les victimes en introduisant une « présomption de causalité », ce qui signifie que les victimes n'ont qu'à démontrer que le non-respect de certaines exigences par un fabricant ou un utilisateur a causé le préjudice, puis à établir un lien avec la technologie d'IA dans leur action en justice.

En matière de responsabilité du fait des choses, ni l’éthique ni des libertés fondamentales ne semblent justifier une subjectivisation. L’autonomie d’un logiciel ou d’un robot intelligent crée une forme d’indépendance. Leur fait est alors clairement distinct du fait personnel de la personne physique ou morale. Raisonner sur la responsabilité du fait des choses permet de plus de ne pas subordonner l’indemnisation de la victime à la preuve d’une faute commise par ces dernières.

Ainsi, c’est le simple rôle causal de la chose dans la survenance du dommage qui importe. Les spécificités de l’intelligence artificielle qui peuvent être synthétisées en une capacité d’apprentissage, de raisonnement et de décision autonome ne semblent pas avoir d’incidence dès lors que la faute personnelle de l’agent artificiel intelligent n’est pas requise.

En vertu d'un « droit d'accès aux preuves », les victimes peuvent désormais demander à un tribunal d'ordonner aux entreprises et aux fournisseurs de fournir des informations sur les systèmes d'IA à haut risque, afin qu'elles puissent identifier la personne responsable et découvrir ce qui a mal tourné. Le 28 septembre, l'exécutif européen mettra également à jour la directive sur la responsabilité du fait des produits, qui définit le champ d'application de la responsabilité des fabricants pour les produits défectueux, qu'il s'agisse de technologies intelligentes, de machines ou de produits pharmaceutiques.

Les modifications proposées permettront aux utilisateurs d'intenter une action en justice pour obtenir un dédommagement lorsque des mises à jour logicielles rendent leurs produits intelligents dangereux ou lorsque les fabricants ne parviennent pas à combler les lacunes en matière de cybersécurité. Les utilisateurs de produits non européens non sécurisés pourront poursuivre le représentant du fabricant dans l'UE pour obtenir une indemnisation. La directive sur la responsabilité en matière d'IA devra recevoir le feu vert des pays et des législateurs de l'UE avant d'avoir force de loi.

Dans un article publié le 14 avril, nous indiquions que le scandale néerlandais devrait être un avertissement pour l'Europe sur les risques liés à l'utilisation des algorithmes. L'administration fiscale néerlandaise a ruiné des milliers de vies après avoir utilisé un algorithme pour repérer des soupçons de fraude aux prestations sociales et les critiques disent que rien n'empêche que cela se reproduise.

En effet, l'autorité néerlandaise chargée des données personnelles (Autoriteit Persoonsgegevens, AP) a infligé une amende de 3,7 millions d'euros à l'administration fiscale et douanière en raison du traitement illégal de données à caractère personnel dans le système de notification des fraudes (FSV) pendant des années.

Au cours de son enquête sur le FSV, l'AP a découvert une longue liste de violations de la loi sur la protection de la vie privée, le Règlement général sur la protection des données (RGPD). Il s'agissait d'une liste noire sur laquelle l'administration fiscale et douanière gardait la trace des signaux de fraude. Cela a souvent eu des conséquences importantes pour les personnes qui figuraient à tort sur la liste.

Toujours en avril, l'Union européenne a dévoilé des règles strictes visant à faire de l'Europe le centre mondial de l'intelligence artificielle (IA) digne de confiance. La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les États membres garantira la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans toute l'UE.

Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres. Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'intelligence artificielle, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

Présenté lors d'un point de presse à Bruxelles, le projet de règles fixerait des limites à l'utilisation de l'intelligence artificielle dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'intelligence artificielle par les forces de l'ordre et les systèmes judiciaires ; des domaines considérés comme « à haut risque », car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.

Et vous ?

L’intelligence artificielle invite-t-elle à se positionner à l’encontre de la tendance jurisprudentielle ?

Que pensez-vous de cette initiative de l'UE visant à faciliter les poursuites contre les fabricants de drones et les systèmes d'IA ?

Voir aussi :

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires

Les USA "ne sont pas prêts à se défendre ou à rivaliser à l'ère de l'IA", déclare un groupe d'experts présidé par Eric Schmidt, il avertit que l'IA ne restera pas dans le cadre de la science-fiction

France : un décret autorise l'utilisation de caméras intelligentes pour mesurer le taux de port de masque dans les transports, dans le cadre de la lutte contre le coronavirus

Une erreur dans cette actualité ? Signalez-nous-la !