Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ?
Les avis sur la question sont plutôt mitigés

Le , par Bill Fassinou

190PARTAGES

14  0 
Rappelons que la loi de Moore est un terme informatique qui a pris naissance vers 1970. La version simplifiée de cette loi indique que la vitesse du processeur ou la puissance de traitement globale des ordinateurs doublera tous les deux ans. Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique.

Est-il possible que l’intelligence artificielle arrive un jour à s’auto-améliorer d’elle-même ?

À cette question, les avis sont partagés. Il existe ceux qui pensent que la singularité dont parle Ray Kurzweil serait une évidence et ceux pour qui la loi de Moore est la limite qu’il serait difficile voire impossible à franchir pour l’intelligence artificielle. Ray Kurzweil était le développeur principal de la première reconnaissance optique de caractères à polices multiples et auteur de plusieurs livres dont “The Singularity is Near (ou Humanité 2.0 en français)”. Il a également fondé, développé et vendu des entreprises d’intelligence artificielle. Il est aujourd’hui évident et il ne fait aucun doute que l’intelligence artificielle prend une place grandissante dans notre vie. Notre vie a changé et la technologie notamment l’intelligence artificielle a modifié beaucoup de nos comportements. Les grandes, entreprises, les grandes puissances mondiales et beaucoup d’autres start-ups dans le monde investissent de plus en plus dans l’IA ainsi que l’apprentissage automatique.

Selon Kurzweil, la convergence et le développement exponentiel des nouvelles technologies conduisent à l'émergence d'un monde complètement transformé. L'homme et les réseaux technologiques s'interpénétreront et se renforceront réciproquement d'une façon qui reculera sans limites prévisibles les frontières de la vie intelligente. Il réutilise le mot “singularité”, popularisé par Vernor Vinge, parce que rien de ce qui était admis jusqu'alors ne demeurera valide et parce qu'en contrepartie tout ce qui était considéré comme impossible deviendra possible. Notre intelligence jusqu'alors confinée dans ses supports biologiques, le cerveau, deviendra progressivement non-biologique et des milliards de fois plus puissante qu'elle ne l'est aujourd'hui. D’après son explication, dans ce monde nouveau, les distinctions entre l'humain et la machine, entre le réel et la réalité virtuelle, s'estomperont progressivement. Les personnes pourront adopter des corps différents et multiplier les versions de leurs esprits.


Ce faisant, les humains pourront contrôler le vieillissement et la maladie, éliminer la pollution, résoudre les problèmes de la pauvreté et de la faim dans le monde. De plus, cette révolution immense, selon Ray Kurzweil, pourrait se produire dans les 10 à 50 prochaines années, c'est-à-dire très prochainement à l'échelle de l'histoire humaine. L’IA d’aujourd’hui se développe très rapidement. Les langages de programmation, tels que Python (en tête du classement), le C++ ou le Java, s’améliorent de plus en plus pour permettre de réaliser plus de choses afin de booster son développement. Les grandes firmes telles que Nvidia peaufinent au jour le jour leur intelligence artificielle. Les batailles pour posséder la meilleure intelligence artificielle s'intensifient au niveau des grandes puissances. Le Royaume-Uni, les USA ou la Chine en font déjà des applications militaires. Parallèlement, certains experts pensent même qu’une intelligence artificielle de niveau de l'homme pourrait voir le jour d’ici les dix prochaines années.

Devrions-nous avoir peur qu’un jour, l’IA commence à s’améliorer ou à « se reproduire » d'elle-même ?

Kurzweil affirme qu’au cours des vingt-cinq prochaines années, nous réaliserons plus de progrès techniques que pendant le vingtième siècle, notamment grâce à l’intelligence artificielle. « Aujourd'hui, il est évident que la vie change, et que la technologie affecte la nature de la société. Mais ce que l’on ne comprend pas tout à fait, c’est que le rythme du changement s’accélère et que les 20 dernières années ne sont pas un bon guide pour les 20 prochaines années. Nous doublons le taux de changement de paradigme, le taux de progrès, chaque décennie. En réalité, cela correspondra aux progrès accomplis au cours du XXe siècle, car nous avons accéléré le développement jusqu’à maintenant. Le 20e siècle a été comme 25 ans de changement au rythme actuel. Au cours des 25 prochaines années, nous accomplirons quatre fois plus de progrès qu’au XXe siècle. Et nous ferons 20 000 ans de progrès au XXIe siècle, ce qui représente presque mille fois plus de changements techniques que nous n’avons vus au XXe siècle », écrit-il pour expliquer sa théorie.

Kurzweil a-t-il raison de dire que la technologie de l’homme deviendra plus intelligente que lui-même ?

Pour Eric Hallow (capitaine dans la United States Air Force et membre associé du Centre pour l’intelligence naturelle et artificielle Walter Bradley) et son clan, l’IA n’atteindra pas cette proportion et, même si cela venait à être envisageable, il n’en demeure pas moins qu’elle sera vite arrêtée par les limitations actuelles de la loi de Moore. Selon Hallow, la limite de la loi de Moore mettra rapidement fin à l'expansion de l’intelligence artificielle. Parmi les techniciens de différentes sociétés informatiques, le terme n’est pas très populaire, mais la règle est toujours acceptée. Pour enfreindre davantage la loi, il a été précisé que le nombre de transistors sur un processeur abordable doublerait tous les deux ans (ce qui est essentiellement la même chose que précédemment), mais le terme “plus de transistors” est plus précis.


la loi de Moore s'applique-t-elle au nombre de transistors ou à la puissance de calcul du processeur ?

Citation Envoyé par Gordon Earle Moore
Si vous examinez la vitesse des processeurs des années 1970 à 2009, puis à nouveau en 2010, on pourrait penser que la loi a atteint sa limite ou s'approche de la limite. Dans les années 1970, les vitesses de traitement allaient de 740 kHz à 8 MHz (remarquez que le 740 est le KHz, ce qui correspond au kilo hertz, tandis que le 8 correspond au mégahertz). Entre 2000 et 2009, la différence de vitesse n'a pas vraiment évolué, les vitesses allant de 1,3 GHz à 2,8 GHz, ce qui suggère que les vitesses ont à peine doublé en 10 ans. C'est parce que nous examinons les vitesses et non le nombre de transistors. En 2000, le nombre de transistors dans les CPU s'élevait à environ 37,5 millions, tandis qu'en 2009, le nombre de transistors atteignait 904 millions ; c'est pourquoi il est plus juste d'appliquer la loi aux transistors qu'à la vitesse.

Une façon plus simple d’expliquer, est que les processeurs les plus anciens du marché n’avaient qu’un seul classement de vitesse ou de fréquence, tandis que les modèles les plus récents ont un classement qui fait référence à plusieurs processeurs. Si vous avez récemment acheté un ordinateur, vous avez peut-être une idée de ce que cela signifie, car les vendeurs vous ont peut-être vendu avec les merveilles des processeurs multicœurs. Dans l'exemple ci-dessus, la vitesse sur un grand nombre d'années allait de 1,3 à 2,8, ce qui est à peine le double, mais il faut garder à l'esprit que le 2.8 est un QUAD CORE alors que le 1.3 est un simple CORE. Cela signifie que la puissance réelle de la 2.8 serait trouvée si vous la multipliez par quatre. Ce qui vous donnerait un énorme 11.2 GHz qui est loin de 1.3 GHz.

En raison de la rapidité avec laquelle la technologie a progressé ces dernières années, la plupart des techniciens en informatique, qu'ils aient entendus parler de la loi de Moore ou non, vous diront que la vitesse du processeur double chaque année. Bien que la loi de Moore l’ait dit tous les deux ans, cette augmentation rapide de la production technologique a permis de réduire la période dans l’esprit des techniciens et des utilisateurs. La limite qui existe est qu’une fois que les transistors pourront être créés aussi petits que des particules atomiques, il n’y aura plus de marge de croissance pour le marché des processeurs en ce qui concerne les vitesses.
Pour Eric Hallow, si l'on suppose que l'IA a progressé principalement en raison des améliorations apportées aux processeurs, l'amélioration continue dépend de la loi de Moore qui stipule que le nombre de transistors sur un circuit de processeur double tous les deux ans. Cependant, pour que la densité du transistor augmente, la taille des transistors doit diminuer. Étant donné qu'il existe une limite à la taille des transistors, l'applicabilité de la loi de Moore est limitée. De plus, la loi de Moore étant une loi exponentielle, les nombres se multiplient rapidement et nous pourrions atteindre la limite physique assez soudainement. Les indications actuelles sont que l'évolution de la loi de Moore a déjà ralenti ou même cessé d’être une description de l'industrie des technologies de l'information aujourd'hui.

Cela implique que, dit-il, dans la mesure où l'IA a progressé en raison de la loi de Moore, la nature impose une limite. Nous allons donc atteindre un point, peut-être bientôt, où les améliorations des processeurs cesseront, de même que les améliorations de l'IA, ou bien atteindre un point de rendements en diminution constante. Ce point est connu sous le nom de “pic d'IA”, annonce Hallow, car nous aurions atteint un point où un retour sur investissement dans l'amélioration de l'IA ne serait pas rentable. « Pour revenir à la question initiale, à savoir s'il existe un chemin menant à la singularité de Kurzweil, nous devons conclure de notre analyse qu'il n'existe pas de tel chemin et que l'IA auto-améliorante sans limites est impossible », dit-il.

Sources : Mind Matters, Edge, Moore’s Law

Et vous ?

Qu'en pensez-vous ?
Le progrès de l'IA est-il conditionné par la limite de la loi de Moore, selon vous ?
La loi de Moore a-t-elle une limite selon vous ? Expliquez-nous comment

Voir aussi

Sondage : quels sont les meilleurs langages de programmation pour l'IA ? Quels sont vos critères ?

Nvidia a mis au point une IA capable de générer des visages humains totalement crédibles, une menace pour l'identité en ligne ?

La bataille dans le domaine de l'IA fait de plus en plus rage entre l'Europe, la Chine et les USA, d'après rapport annuel AI Index 2018

UK : la police veut utiliser l'IA pour empêcher les crimes violents avant qu'ils ne se produisent, comme dans le film Minority Report

L'IA de niveau humain pourrait être réalisée « d'ici 5 à 10 ans », selon les experts, et les plus grandes menaces sont les applications militaires

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 25/01/2019 à 0:19
Citation Envoyé par Bill Fassinou Voir le message
Est-il possible que l’intelligence artificielle arrive un jour à s’auto-améliorer d’elle-même ?
Le gros soucis est qu'on est incapable de définir l'intelligence de manière consensuelle à l'heure actuelle. Or, avant de dire si une chose est possible ou pas, il faudrait déjà savoir de quoi l'on parle.

Si l'on parle de simple performance -parce que soyons honnête l'IA aujourd'hui ce n'est que ça, ça n'a rien d'intelligent tel qu'on l'entend en général- l'IA qui s'auto-améliore existe déjà : c'est le domaine de l'apprentissage machine. Si l'on se place à un niveau plus méta, où il s'agit d'améliorer le processus d'apprentissage lui-même, alors des techniques existent telles que les algorithmes génétiques et leurs mutations pour explorer des solutions nouvelles. Avec des fonctions de comparaisons basés sur des statistiques de performance, il semble tout à fait concevable d'améliorer la procédure d'apprentissage de manière automatique, cependant de manière assez lente et itérative. Exit donc l'idée de singularité.

Citation Envoyé par Bill Fassinou Voir le message
Devrions-nous avoir peur qu’un jour, l’IA commence à s’améliorer ou à « se reproduire » d'elle-même ?
Qu'elle se reproduise, encore une fois ça existe. Dans le jargon populaire, on appelle cela un "copier-coller" quand on a affaire à un système purement logiciel. Dans le cas matériel, il faut des ressources plus difficile à obtenir, mais des robots qui créent des robots, il n'y a rien de plus simple : il suffit d'aller voir une chaîne de production industrielle confectionnant et assemblant des composants de robots. D'ici à concevoir un robot qui confectionne des robots du même type, il n'y a qu'un pas. Si ça n'est pas encore sorti, c'est pare que ça n'est juste en rien une priorité industrielle justifiant d'y mettre des ressources.

Devrions-nous en avoir peur ? Je trouverait plus intelligent d'en avoir simplement conscience et de réfléchir, à titre personnel, si l'on souhaite et comment l'on souhaite pouvoir interagir avec de telles entités, au cas où celles-ci se présenteraient. Quel que soit le sujet, suggérer d'en avoir peur me semble être particulièrement stupide, la peur étant très mauvaise conseillère.

Citation Envoyé par Bill Fassinou Voir le message
Kurzweil a-t-il raison de dire que la technologie de l’homme deviendra plus intelligente que lui-même ?
Encore une fois, on a là un problème de définition. Si on se base sur une notion de simple performance, alors on sait déjà faire des machines plus performantes que l'homme sur des tâches bien particulières. Depuis longtemps même. Si l'on parle de battre un être humain dans tous les domaines, le fait est qu'on parle soit d'une chimère, soit d'une comparaison malhonnête.

Dans le premier cas, il s'agit d'une machine à "taille humaine" (un ordinateur, éventuellement une grosse boîte de taille comparable à un être humain) dont on s'imaginerait qu'elle serait capable de faire tout et n'importe quoi. Dès lors qu'on pose ces limites physiques, je doute qui quiconque dans le domaine s'aventure à dire qu'on arrive un jour à faire une telle "super machine".

Toute la subtilité étant que cette possibilité n'existe que dans le second cas, à savoir un agglomérat de multiples machines, sans taille prédéfinie, justement pour pouvoir en ajouter de nouvelles à chaque fois qu'on souhaitera y mettre une tâche supplémentaire. Or, ça on sait déjà le faire et on le fait depuis longtemps aussi, au travers par exemple de la composition de services. Si on ne se donne pas de limite physique comme le premier cas, alors pourquoi s'étonner qu'une telle machine, améliorable dès que nécessaire, arrive à battre un jour un unique humain, limité par son propre corps ? Penser le contraire me semblerait bien orgueilleux. Mais il s'agit de remettre le débat à sa place : si l'on accepte l'extension ad infinitum de la machine, il faut le permettre aussi pour l'homme, que cela soit de l'ordre du transhumanisme ou tout simplement du travail d'équipe. Auquel cas il s'agit non plus de savoir si une "super IA" serait capable de battre "un" humain dans tous les domaines, mais de battre l'humanité entière dans tous les domaines. Et cela semble bien moins sûr.

Citation Envoyé par Bill Fassinou Voir le message
la loi de Moore s'applique-t-elle au nombre de transistors ou à la puissance de calcul du processeur ?
Moore le dit lui-même : il s'agit d'une loi empirique, qui se base donc sur des observations passées pour présumer de l'avenir en prenant l'hypothèse (fondamentale) que l'observation se préserve. C'est une loi qui s'applique "tant qu'elle semble s'appliquer" : elle a été adaptée aux multi-coeurs dès lors que la vitesse d'un seul processeur ne suivait plus la loi. Si l'on se permet cela, alors on peut tout aussi bien se permettre de l'adapter encore pour inclure les multiples machines, et ainsi de suite.

Enfin, pour répondre à la question d'ensemble :
Citation Envoyé par Bill Fassinou Voir le message
La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ?
Non, d'une part parce que la loi de Moore ne s'arrêtera pas tant quand on n'aura pas décidé de lui fixer une limite physique définitive, et d'autre part parce que, même si cela devait arriver, la performance d'une machine ne se limite pas à sa capacité CPU. Elle dépend aussi de sa capacité de mémoire et de ses algorithmes, et pour les cas les plus complexes à son environnement. Et si on prend aussi en compte les évolutions potentielles futures avec les ordinateurs quantiques, il y a encore de la marge.

Citation Envoyé par eric44000 Voir le message
L'important est le progrès technique et cela passe par la recherche.
Argh ! Non la recherche ne vise pas le progrès technique mais le progrès des connaissances (et bien des connaissances n'ont rien de technique). Tout au plus le progrès technique n'en est qu'une conséquence indirecte. C'est l'ingénierie qui s'occupe du progrès technique.

C'est bien un problème fondamental du domaine de l'IA : à l'heure actuelle, c'est bien plus un domaine d'ingénierie que de recherche, à mon grand regret.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 25/01/2019 à 14:35
Désolé, HS :
Citation Envoyé par BufferBob Voir le message
certes, mais forcés de constater que [...]
En deux mots, BB, en deux mots !

Force est de constater que…

Désolé pour le HS mais je ne pouvais pas laisser passer, car après ça se reproduit.
2  1 
Avatar de CosmoKnacki
Membre expert https://www.developpez.com
Le 26/01/2019 à 23:38
Autour du sujet: La méthode scientifique du 23/01/2019: Y a-t-il une vie après la loi de Moore ?
1  0 
Avatar de eric44000
Membre à l'essai https://www.developpez.com
Le 17/01/2019 à 17:07
La fin de la loi de Moore arrêtera-t-elle les progrès de l'intelligence artificielle ?
Non. Les algos ou l'assemblage des composants peuvent évoluer pour plus de rapidité ou de précision.

Est-il possible que l’intelligence artificielle arrive un jour à s’auto-améliorer d’elle-même ?
L'intelligence artificielle de la simulation de l'intelligence artificielle est envisageable à terme.

Devrions-nous avoir peur qu’un jour, l’IA commence à s’améliorer ou à « se reproduire » d'elle-même ?
Ben non, car il faut que cela soit intentionnel (voir question précédente)

Kurzweil a-t-il raison de dire que la technologie de l’homme deviendra plus intelligente que lui-même ?
Ce serait une bêtise que de le vouloir. L'homme serait dépassé par quelque chose qui lui échapperai sans pouvoir en mesurer l'efficacité. Déjà que l'homme n'arrive pas à comprendre le pourquoi de l'IA, le comment serait pire.

la loi de Moore s'applique-t-elle au nombre de transistors ou à la puissance de calcul du processeur ?
La loi de Moore est une chimère qui ne sert que le marketing. Elle est morte en 2005 quand les fondeurs ont sortis le microprocesseur multi-cœur. C'est facile de les multiplier. Pourquoi pas un CPU à 1000 coeurs ?

BREF,
L'important est le progrès technique et cela passe par la recherche. Prenons le cas du refroidissement du data-center de Google fait par son IA (https://www.developpez.com/actu/2197...ion-d-energie/).
La réduction de 30 % de la quantité d’énergie est fabuleux. Sauf que personne ne sait pourquoi. Seul un programme de recherche scientifique pour tenter de comprendre quelles sont les corrélations sous-jacentes qui le permette pourrait faire progresser. Quelque chose nous échappe qu'il faut trouver.
Il en est de même pour tous les autres progrès techniques. Chercheurs, cherchez !
0  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 25/01/2019 à 9:34
Citation Envoyé par Matthieu Vergne Voir le message
la loi de Moore ne s'arrêtera pas tant quand on n'aura pas décidé de lui fixer une limite physique définitive
ben c'est tout le propos en fait :
Citation Envoyé par https://fr.wikipedia.org/wiki/Loi_de_Moore#Changement_de_paradigme
En février 2016, la fin de la loi de Moore est annoncée par l'International Technology Roadmap for Semiconductors (ITRS) qui entérine officiellement l'abandon de cette loi, le rythme n'étant tout simplement plus tenable
mais c'est effectivement relativisé (dans le même paragraphe) par le développement de technologies concomitantes comme les nanotechnologies ou l'informatique quantique

Citation Envoyé par Matthieu Vergne Voir le message
la performance d'une machine ne se limite pas à sa capacité CPU.
certes, mais forcés de constater que depuis 20 ans on est passé du 486 au clustering de GPU, et que si ça n'avait pas évolué aussi vite on aurait bien du mal à faire tourner autre chose que des OCR de première génération

par ailleurs la loi de Moore parle de l'évolution des processeurs, mais il est important de noter que le reste des composants a profité de l'aspiration, si les CPU évoluent moins vite, le consommateur renouvelle son PC moins souvent, et les fabricants de RAM ou de disques dur vont un peu moins se tirer la bourre également vu que le marché est moins juteux que prévu

Citation Envoyé par Matthieu Vergne Voir le message
C'est bien un problème fondamental du domaine de l'IA : à l'heure actuelle, c'est bien plus un domaine d'ingénierie que de recherche, à mon grand regret.
le problème étant probablement que la connaissance génère moins de profit direct que l'ingénierie, qui elle peut transformer la connaissance en bien de consommation...
0  0 
Avatar de TJ1985
Membre confirmé https://www.developpez.com
Le 26/01/2019 à 21:13
Si on suit bêtement les bases de la loi de Moor, on arrive aux limites physiques de ce qui est possible de graver sur du silicium. Les dimensions prévues vont à 4 nm (4 millièmes de micron), ce n'est plus grand chose. Un atome de Silicium à un rayon de 0.11 nm, pour fixer les idées.

Intel, entre autres, travaille sur une autre classe de processeurs dits neuro-morphes mariant un fonctionnement analogique à des parties discrètes. Ils commercialisent Loihi, qui fournit 130000 neurones et 130 millions de synapse. Tout ça pour une consommation d'énergie sans commune mesure avec un équivalent traditionnel.

Je pense que des puces basées sur cette architecture constitueront bientôt la base des systèmes d'information, et que les processeurs von Neumann viendront les épauler pour ce qui concerne le calcul proprement dit.

J'aimerais beaucoup par ailleurs avoir contact avec des gens impliqués dans ces technologies.

A+,

Thierry
0  0