« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.
Ce n’est pas la première fois que le patron de Tesla fait des prédictions alarmantes sur le potentiel de l’intelligence artificielle, mais sa vision pessimiste probablement motivée par le caractère incertain de l’avenir et peut être aussi la trop grande confiance en soi des concepteurs de cette technologie interpelle constamment sur la nécessité d’une surveillance et d’une réglementation étroites de l’IA. Devrait-on lui en tenir rigueur ?
Elon Musk préconise la mise en place d’un organisme public capable de vérifier que tout le monde développe l’IA en toute sécurité : « Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires, et personne ne suggérerait qu’on permette à n’importe qui de fabriquer des ogives nucléaires s’il le souhaite. Ce serait insensé », a-t-il martelé.
Son point de vue radical tranche avec la position plus modérée d’un autre philanthrope de renom issu de l’industrie technologique, Bill Gates, qui a récemment déclaré lors du 18e Symposium sur l’IA centré sur l’homme qui se tenait à l’Université de Stanford que l’intelligence artificielle est comme l’énergie nucléaire : une technologie « à la fois porteuse d’espoir et dangereuse ».
D’après le cofondateur de Microsoft, le pouvoir de l’intelligence artificielle est « tellement incroyable qu'elle entrainera une mutation profonde de la société » : certaines voies seront bonnes et d’autres mauvaises. Ce dernier reste néanmoins persuadé que l’application la plus effrayante de l’intelligence artificielle concerne la guerre, notamment les systèmes d’armement.
D’autres entités remarquables comme le fondateur de Facebook, Mark Zuckerberg, ou le professeur de Harvard Steven Pinker se sont déjà montrées plus critiques sur cette question à l’égard des propos d’Elon Musk jugés « plutôt irresponsables », selon certains, et de la « psychose orientée contre l’IA » qu’il entretiendrait au travers de son discours alarmiste.
Le patron de Tesla semble cependant résolu à ne pas se voiler la face et n’hésite pas à traiter ceux qui minimisent ou ignorent ses avertissements « d’imbéciles ». Lors du SXSW, il a déclaré : « le plus gros problème que je vois avec les soi-disant experts en IA est qu’ils pensent en savoir plus qu’ils ne savent et se croient plus intelligents qu’ils ne le sont réellement ». Selon Elon Musk, ce phénomène « a tendance à toucher les gens intelligents. Ils se définissent par leur intelligence et ils n’aiment pas l’idée qu’une machine puisse être beaucoup plus intelligente, alors ils réfutent cette idée - qui est fondamentalement défectueuse ».
S’appuyant sur le cas d’AlphaGo Zero, l’IA de DeepMind, qui a surclassé les joueurs humains au jeu de Go, Musk se dit, plus que jamais, conscient du potentiel évolutif incroyable de l’IA et de sa faculté à surpasser rapidement l’humain. Il craint que le développement de l’IA surpasse notre capacité à la gérer de manière sûre. À ce propos, il a confié : « Nous devons trouver un moyen de faire en sorte que l’avènement de la super intelligence numérique soit en symbiose avec l’humanité. Je pense que c’est la plus grande crise existentielle à laquelle nous sommes confrontés et la plus urgente ».
Dans son analyse des dangers de l’intelligence artificielle, Elon Musk établit une distinction entre les applications spécifiques à l’intelligence des machines comme les voitures autonomes et l’intelligence des machines en général. Le patron de SpaceX souhaite que tout soit mis en œuvre afin de s’assurer que, si un jour l’humanité décide collectivement que la création d’une super-intelligence numérique est la bonne décision à prendre, nous procédions en restant très très vigilants.
« Je ne suis pas vraiment inquiet à propos des projets à court terme ». Une IA mineure ne représente pas un risque particulier. Elle entrainera probablement une dislocation, des pertes d’emplois, une sophistication de l’armement et ce genre de choses, mais elle ne représente pas un risque fondamental contrairement à la super intelligence numérique, a expliqué Elon Musk.
Source : CNBC
Et vous ?
Que pensez-vous des points de vue exprimés dans cet article ?
La comparaison de l'IA avec l'arme atomique vous parait-elle judicieuse ? Pourquoi ?
Diriez-vous que le point de vue de Musk dans ce débat est plutôt alarmiste ou réaliste ?
Quel est votre avis sur les dangers liés à la création d’une d’une super-intelligence numérique ?
Voir aussi
L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques