IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA
Les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

Le , par Stéphane le calme

1PARTAGES

9  1 
Les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré jeudi où ils ont convenu d'un projet de loi plus strict. Les commissions du Parlement européen chargées de la question ont approuvé jeudi des modifications au projet de règles visant à encadrer l’intelligence artificielle générative, comme ChatGPT, et ont proposé une interdiction de la surveillance faciale, rapprochant ainsi l’UE de la fixation de règles phares pour l’IA, ouvrant la voie à l'adoption en plénière à la mi-juin.

La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Proposé par la Commission européenne il y a deux ans, il vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.

Une question de classification

L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

Les applications d’IA considérées comme inacceptables sont celles qui portent atteinte à la dignité humaine, comme la manipulation du comportement humain ou l’exploitation des vulnérabilités. Ces applications seront interdites dans l’UE.

Les applications d’IA considérées comme à risque élevé sont celles qui peuvent avoir un impact important sur la vie ou les droits des personnes, comme la reconnaissance faciale, les systèmes de recrutement ou les notes de crédit. Ces applications seront soumises à des exigences strictes en matière de qualité des données, de documentation, de transparence, de supervision humaine et de robustesse.

Les applications d’IA considérées comme à risque limité sont celles qui peuvent induire en erreur les utilisateurs ou les exposer à un choix limité, comme les chatbots ou les filtres vidéo. Ces applications devront être clairement signalées comme étant basées sur l’IA.

Les applications d’IA considérées comme à risque minimal sont celles qui présentent un faible potentiel de préjudice pour les personnes ou la société, comme les jeux vidéo ou les filtres anti-spam. Ces applications seront exemptées de toute obligation spécifique.

Selon le compromis trouvé par les députés européens, le texte sera soumis au vote de l’ensemble du Parlement le mois prochain, après quoi les législateurs finaliseront les détails avec les pays de l’UE et la Commission européenne. Les députés européens ont convenu d’interdire l’utilisation de la reconnaissance faciale dans les espaces publics, les outils de police prédictive et d’imposer de nouvelles mesures de transparence aux applications d’IA générative comme ChatGPT.


IA à usage général

La version originale de la loi sur l'IA n'incluait pas les systèmes sans objectif spécifique dans son champ d'application. Le succès rapide de ChatGPT et d'autres grands modèles de langage a poussé les législateurs européens à se demander comment réglementer au mieux ce type d'IA. Le résultat a été une approche à plusieurs niveaux.

Le livre de règles de l'IA ne couvrira pas les systèmes d'IA à usage général par défaut. L'essentiel des obligations incombera aux opérateurs économiques qui intègrent ces systèmes dans une application considérée à haut risque.

Cependant, les fournisseurs d'IA à usage général devraient soutenir la conformité des opérateurs en aval en fournissant toutes les informations et la documentation pertinentes sur le modèle d'IA.

Des exigences plus strictes sont proposées pour les modèles de base, de puissants systèmes d'IA à usage général comme Stable Diffusion qui peuvent alimenter d'autres applications d'IA. Les obligations portent sur la gestion des risques, la gouvernance des données et le niveau de robustesse du modèle de fondation, à valider par des experts indépendants.

Le niveau supérieur concerne les modèles d'IA génératifs comme ChatGPT, qui devraient divulguer chaque fois qu'un texte est généré par l'IA et fournir un résumé détaillé des données de formation couvertes par la loi sur le droit d'auteur.

Catégorisation à haut risque

Le règlement introduit un régime plus strict pour les applications d'IA à haut risque. Initialement, le risque élevé a été déterminé sur la base d'une liste de domaines critiques et de cas d'utilisation figurant à l'annexe III (voire texte original de la proposition de loi en source).

Cependant, les députés ont supprimé cet automatisme, ajoutant comme couche supplémentaire que pour être classé comme à haut risque, un système d'IA devrait également présenter un risque important de nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes.

Si les systèmes d'IA relèvent de l'annexe III, mais que les fournisseurs estiment qu'il n'y a pas de risque significatif, ils devront en informer l'autorité compétente, qui disposera de trois mois pour s'y opposer. Les fournisseurs pourront lancer leur solution d'IA entre-temps, mais les erreurs de classification seront passibles de sanctions.

L'annexe III a également été considérablement modifiée, ce qui rend la formulation plus précise dans les domaines des infrastructures critiques, de l'éducation, de l'emploi et de l'accès aux services essentiels. Les domaines de l'application de la loi, du contrôle des migrations et de l'administration de la justice ont été élargis.

Les systèmes de recommandation des plateformes de médias sociaux désignées comme de très grandes plateformes en ligne en vertu de la loi sur les services numériques ont été ajoutés.


Obligations à haut risque

Le texte du Parlement européen a rendu les obligations des fournisseurs d'IA à haut risque beaucoup plus prescriptives, notamment en matière de gestion des risques, de gouvernance des données, de documentation technique et de tenue de registres.

Une toute nouvelle exigence a été introduite pour les utilisateurs de solutions d'IA à haut risque de procéder à une évaluation de l'impact sur les droits fondamentaux en tenant compte d'aspects tels que l'impact négatif potentiel sur les groupes marginalisés et l'environnement.

Gouvernance et application

Parmi les législateurs de l'UE, il y a eu un consensus pour assurer un élément de centralisation de l'architecture d'exécution, en particulier pour les affaires transfrontalières. Le co-rapporteur Dragoș Tudorache a proposé la création d'un bureau de l'IA, un nouvel organe qui serait un peu en deçà d'une agence de l'UE.

Au cours des négociations, les tâches de l'Office de l'IA ont été considérablement réduites en raison du manque de marge de manœuvre sur le budget de l'UE. Ainsi, l'Office de l'IA s'est limitée à un rôle de soutien, tel que la fourniture d'orientations et la coordination d'enquêtes conjointes.

En revanche, la Commission a été chargée de régler les différends entre les autorités nationales sur les systèmes d'IA dangereux.

Les élus se montrent plutôt satisfaits... pour le moment

Dragos Tudorache, l’un des parlementaires chargés de rédiger les lois, a déclaré : « C’est un accord délicat. Mais c’est un package qui, je pense, donne quelque chose à tous ceux qui ont participé à ces négociations ». Et de continuer en disant « Nos sociétés attendent que nous fassions quelque chose de déterminé sur l’intelligence artificielle et l’impact qu’elle a sur leur vie. Il suffit d’allumer la télévision… ces deux ou trois derniers mois, et vous voyez chaque jour à quel point cela devient important pour les citoyens ».

Svenja Hahn, députée allemande, a déclaré que les négociations avaient obligé les députés conservateurs et de gauche à se rencontrer à mi-chemin. « Nous avons réussi à trouver un compromis qui permettrait de réglementer l’IA de manière proportionnée, de protéger les droits civils et de stimuler l’innovation et l’économie », a-t-elle dit.

« Ce vote est une étape importante dans la réglementation de l'IA et un signal clair du Parlement que les droits fondamentaux devraient en être la pierre angulaire », a déclaré l'eurodéputé des Verts Kim van Sparrentak. « L'IA doit être au service des personnes, de la société et de l'environnement, et non l'inverse ».

Le projet de loi sera soumis à un vote en plénière du Parlement européen en juin avant que les termes définitifs ne soient convenus lors de pourparlers en « trilogue » impliquant des représentants du Parlement européen, du Conseil de l'Union européenne et de la Commission européenne. Une fois les conditions finalisées et le projet de loi devenu loi, il y aurait une période de grâce d'environ deux ans pour permettre aux parties concernées de se conformer à la réglementation.

« Le Parlement européen doit entrer dans le trilogue avec la position la plus ferme possible pour protéger les droits de toutes les personnes à l'intérieur et à l'entrée de l'UE », a déclaré Caterina Rodelli, analyste des politiques européennes à l'organisation à but non lucratif Access Now.

Sources : Commission européenne, site dédié

Et vous ?

Quelle lecture en faites-vous ?

Voir aussi :

Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 11/05/2023 à 17:15
Concernant les droits fondamentaux et la dignité humaine, rien dans cette loi ne parle de l'accès au travail en concurrence avec l'IA. Je crois qu'il s'agit d'une des principales préoccupations du peuple que l'accès à l'emploi, ou sa conservation, et la peur du grand remplacement. Peut-être un revenu universel en Europe ?
3  0 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/05/2023 à 14:17
Citation Envoyé par Anselme45 Voir le message


C'est digne des meilleurs humoristes du monde...

L'UE qui est incapable d'imposer des règles à l'ensemble de ses 27 pays membres se propose... d'établir des normes mondiales???

C'est une vraie farce!

Que l'UE commence par établir qui a le droit à une chaise quand l'UE va visiter le sultan de Turquie Erdogan...
Bien vu, il faut veiller à normaliser le nombre de pieds de la dite chaise...
3  0 
Avatar de Prox_13
Membre éclairé https://www.developpez.com
Le 25/05/2023 à 12:05
Citation Envoyé par Stéphane le calme Voir le message
Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
3  0 
Avatar de Prox_13
Membre éclairé https://www.developpez.com
Le 25/05/2023 à 16:10
Citation Envoyé par walfrat Voir le message
Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout
C'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?
3  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/05/2023 à 15:00
Le lobbying, ça fonctionne très bien en Europe : Sam Altman déclare qu'open ai ne quittera pas l'Europe.
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/06/2023 à 14:57
Je trouve qu'elle annonce une solution incomplète au problème.
Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
...
La vérification fait partie de leur travail normalement.
3  1 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0