
Toutefois, il n’y a pas que de belles histoires de vies meilleures qui s’attachent aux technologies soutenues par l’intelligence artificielle. En effet, si ces technologies peuvent être utilisées pour améliorer nos vies, elles peuvent dans de mauvaises mains être utilisées pour les détruire. Très tôt déjà en 2015, Bill Gates par exemple manifestait son inquiétude à ce sujet et déclarait que « ;je suis du côté de ceux qui se sentent préoccupés au sujet de l’intelligence artificielle… Dans quelques décennies, les avancées dans le domaine de l’intelligence artificielle seront telles que cela deviendra un problème ;». Avant lui, ce fut Elon Musk, le PDG de Tesla et SpaceX, qui recommandait que nous soyons « ;super prudents avec l’intelligence artificielle ;». Face à ces inquiétudes légitimes, plusieurs grands noms de l’industrie technologique, notamment Stephen Hawking, Elon Musk, Steve Wozniak pour ne citer que ceux-là ont signé une lettre ouverte afin d’attirer l’attention du monde sur le fait que la « ;course aux armements militaires IA est une mauvaise idée, et doit être empêchée par une interdiction des armes offensives autonomes au-delà de tout contrôle humain significatif ;».
Partageant les mêmes inquiétudes au sujet des risques d’utilisation de l’IA à de mauvais escients, Sundar Pichai, le président directeur général d’Alphabet et de Google, vient de s’exprimer sur la nécessité de réglementer cette technologie. Pour lui, des entreprises comme Google « ;ne peuvent pas simplement construire de nouvelles technologies prometteuses et laisser les forces du marché décider comment elles seront utilisées ;». « ;Cela est trop important pour ne pas le faire. Il nous incombe également de veiller à ce que la technologie soit exploitée pour le bien et accessible à tous ;», souligne-t-il dans son discours. Selon le PDG de Google, il ne fait aucun doute dans son esprit que l’intelligence artificielle doit être réglementée. « ;La seule question est de savoir comment l’aborder ;».
Déjà en interne, Google a publié ses propres règles d’IA pour aider à guider le développement éthique et l’utilisation de cette technologie. Ainsi, selon ces règles, il existe des domaines dans lesquels l’entreprise ne concevra ni ne déploiera l’IA. Il s’agit par exemple de la surveillance de masse ou de la violation des droits de l’homme. À l’instar de son entreprise, le PDG ajoute que « ;toute entreprise développant de nouveaux outils d’IA devrait également adopter des principes directeurs et des processus d’examen rigoureux ;». L’UE et les États-Unis commencent à élaborer des propositions réglementaires. Mais pour que le domaine de l’intelligence artificielle soit aussi réglementé que celui des armes biologiques, il est essentiel qu’au niveau international un accord soit défini sur les valeurs fondamentales, avance Pichai.
Il n’est pas nécessaire de partir de zéro, précise le PDG de Google. Pour lui, « ;les règles existantes telles que le règlement général européen sur la protection des données peuvent servir de base solide. De bons cadres réglementaires tiendront compte de la sécurité, de l’explicabilité, de l’équité et de la responsabilité pour garantir que nous développons les bons outils de la bonne manière. <
Bien que la proposition de Pichai soit partagée par beaucoup d’organisations et individus, certaines personnes pensent qu’elle ne servirait que les intérêts de Google en créant d’énormes barrières à l’entrée pour empêcher les nouvelles entreprises d’émerger. D’autres personnes par contre pensent que ce souhait de réglementer l’IA n’aurait d’autres objectifs que de chercher à contrer de manière proactive les réglementations potentiellement dommageables qui pourraient être émises par le Congrès américain ou l’UE. Selon vous, la position de Pichai de réglementer l’IA cacherait-elle autre chose que la simple volonté d’utiliser l’IA uniquement pour le bien de l’humanité ;?
Source : Financial Times, The Independent
Et vous ?


Voir aussi




