IBM conçoit un processeur de 50 qubits et évoque la suprématie quantique
Comment se traduit ce nombre de qubits dans la réalité ?

Le , par Christian Olivier, Chroniqueur Actualités
En mars 2017, l’entreprise technologique américaine IBM avait laissé entendre que ses ingénieurs seraient capables de mettre au point, dans un avenir proche, un calculateur quantique de 50 qubits viable. L’annonce effectuée il y a peu par Big Blue, lors du Sommet de l’industrie de l’IEEE sur l’avenir de l’informatique qui se tenait à Washington, vient confirmer cette prédiction et redistribuer les cartes du leadership dans l’industrie de l’informatique quantique.

IBM a, en effet, récemment révélé que ses équipes de recherches sont parvenues à mettre au point le premier « prototype opérationnel de processeur quantique de 50 qubits » de la firme américaine. Elle a également annoncé dans la foulée qu’un second ordinateur quantique disposant d’un processeur de 20 qubits, fabriqué à partir de qubits supraconducteurs améliorés fonctionnant à 15 millikelvins, serait mis à la disposition de ses clients par le biais du programme IBM Q d’ici la fin de 2017. Lancée en mai 2016, la plateforme Cloud Computing d’IBM dédiée au calcul quantique a démarré ses activités avec une machine de cinq qubits avant de passer un an plus tard à un processeur de 16 qubits. D’après Big Blue, plus de 60 000 utilisateurs se seraient déjà servis de ces puces pour réaliser plus de 1,7 million d’expériences de manipulation de qubits.

Ci-dessous, l'image de la partie inférieure du cryostat d’IBM câblé pour porter le processeur de 50 qubits de Big Blue :

À l’heure actuelle, il ne serait plus question de savoir qui le premier sera en mesure de créer le tout premier ordinateur quantique viable au monde étant donné le nombre d’entreprises et d’équipes de recherche indépendantes qui s’y sont déjà attelées (IBM, Google, D-Wave Systems, Intel…). Les entreprises technologiques impliquées dans cette industrie d’avant-garde semblent plutôt désormais engagées dans la course pour la construction de la machine de calcul quantique la plus performante qui permettra d’éprouver la théorie de la suprématie quantique.

Cette avancée technologique pourrait propulser IBM en tête de la course pour la commercialisation de l’ordinateur quantique le plus puissant qui le premier permettrait d’affirmer la suprématie des systèmes de calcul quantiques sur les systèmes de calcul traditionnels. Mais de nombreux facteurs doivent encore être pris en considération avant de s’avancer vers une pareille conclusion. En effet, dans le monde de la technologie quantique, il ne suffit pas de disposer du processeur capable de traiter le plus grand nombre de bits quantiques.

Il faudrait, par exemple, s’assurer qu’au niveau du hardware, le processeur en question soit capable de lutter le plus efficacement possible contre le phénomène de décohérence. Les bits quantiques des nouveaux processeurs sont d’ailleurs censés être plus stables que ceux des générations précédentes. Habituellement, cette stabilité est mesurée en « temps de cohérence ». Cette notion définit la durée moyenne de temps pendant laquelle un qubit peut rester dans un état quantique de superposition, avant que les influences environnementales ne le ramènent à 1 ou à 0. Plus long sera ce temps de cohérence qui caractérise un processeur quantique, plus ce dernier pourra prendre de temps pour compléter ses calculs.

À titre d’exemple, le temps de cohérence relevé sur les différents processeurs quantiques d’IBM est respectivement de 50, 47 et 90 microsecondes sur ses machines de calcul quantique à 5, 16 et 50 qubits. Il faut signaler qu’un processeur de 50 qubits ne sera significativement plus performant qu’un processeur de 20 qubits qu’à condition qu’ils disposent tous les deux de qubits affichant des niveaux de performance identiques (temps de cohérence similaire par exemple), ce qui n’est pas évident pour l’instant. Un chercheur du centre de recherches zurichois d’IBM nommé Marc Ganzhorn précise d’ailleurs au sujet de ces deux nouveaux processeurs quantiques que « le processeur de 50 qubits n’est pas moins performant que celui de 20 qubits », alors qu’on aurait pu s’attendre à ce qu’il soit largement supérieur puisqu'il affiche un nombre significativement plus élevé de qubits (plus du double).


Outre le procédé de fabrication des circuits quantiques d'un processeur qui peuvent jouer un rôle non négligeable au niveau de la performance (comme celui découvert récemment par des chercheurs australiens), il faut également rappeler que l’architecture générale d’une machine quantique peut influencer ce niveau de performance de la même manière que les techniques de correction des erreurs qui y sont implémentées.

Actuellement, on distingue principalement deux types de systèmes informatiques quantiques (SIQ) : les SIQ classiques et les SIQ adiabatiques. Les partisans de l’approche favorable aux SIQ classiques cherchent à mettre au point un ordinateur quantique « universel », dont les qubits peuvent être traités en utilisant les mêmes principes qui ont fait leurs preuves avec des dispositifs numériques conventionnels. Les promoteurs de l’approche favorable aux SIQ adiabatiques cherchent à mettre au point un ordinateur quantique dont le fonctionnement se rapproche des ordinateurs analogiques du milieu du siècle passé (1940-1970), qui nécessite la création d’algorithmes bien spécifiques. Un calculateur analogique permet d’effectuer toutes les opérations en parallèle. Les ordinateurs analogiques ont été spécifiquement conçus pour résoudre des systèmes d’équations différentielles et travailler sur des variables continues.

Il faut aussi tenir compte de l’environnement logiciel, notamment des solutions logicielles qui permettront d’exploiter le potentiel des futurs ordinateurs quantiques (comme celui annoncé par Microsoft récemment). L’industrie de l’informatique quantique devra, par exemple, être capable de développer des algorithmes adaptés qui seront au moins aussi performants que ceux utilisés par les systèmes de calcul classiques. Malheureusement, à l’heure actuelle, le développement et l’étude d’algorithmes permettant de résoudre des problèmes par le biais de l’informatique quantique dans des domaines aussi variés que la chimie ou la science des matériaux peuvent s’avérer difficiles en raison de la quantité prohibitive des connaissances requises et du caractère balbutiant de cette technologie. C'est d'ailleurs l'une des raisons qui ont poussé la firme de Mountain View à développer son compilateur OpenFermion.

« IBM ne se focalise pas sur la suprématie quantique », a tenu à préciser Marc Ganzhorn. « Le nombre de qubits nécessaires reste un sujet de débat parmi les chercheurs et, surtout, c’est un indicateur qui ne dit pas grand-chose de l’architecture du processeur », confiera-t-il. « Nous préférons utiliser la notion de volume quantique comme indicateur de performance. Outre le nombre de qubits, le volume quantique prend en compte les temps de cohérence, la fidélité des opérations entre qubits, la connectivité de la puce, la capacité à opérer en parallèle », ajoutera-t-il par la suite.

S’agissant de la théorie de la suprématie quantique si chère à son concurrent Google, Dario Gil, le vice-président de la division Science and Solutions d’IBM Research et de la division IA et IBM Q de Big Blue considère davantage que « c’est une cible en mouvement. À mesure que les systèmes classiques s’amélioreront, leur capacité à simuler des systèmes quantiques s’améliorera. Mais cette situation ne saurait durer longtemps. Il est certain que dans un futur proche il y aura un point d’inflexion. Ce pourrait être à partir de 56 ou de 70 qubits, quoi qu’il en soit, nous atteindrons bientôt un point d’inflexion ».

Gil estime qu’au cours des deux dernières années, l’informatique quantique a franchi une étape cruciale dans son évolution. D’après lui, il y a deux ans encore nous étions confinés dans l’ère de la science quantique, une période pendant laquelle on essayait de comprendre comment fonctionnent les systèmes informatiques quantiques et leurs composants. Mais l’intervalle 2016-2021, assure-t-il, sera l’ère de la « disponibilité quantique », une période moins théorique et plus pratique pendant laquelle l’attention sera tournée vers les technologies qui permettront à l’informatique quantique de réellement décoller.

Source : Spectrum IEEE

Et vous ?

Qu’en pensez-vous ?

Voir aussi

IBM réalise une percée technologique importante pour propulser l'adoption des ordinateurs quantiques avec ses travaux sur l'analyse des molécules
Une équipe de scientifiques russo-américaine présente le premier ordinateur quantique à 51 qubits, il dépasse largement les prototypes précédents


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de jean12 jean12 - Nouveau membre du Club https://www.developpez.com
le 24/11/2017 à 10:30
C'est intéressant de voir comment les choses évoluent.
En juillet 2017, les chercheurs à Harvard avaient réussi à créer quant eux un ordinateur quantique de 51 qubits (https://frontnews.eu/news/en/7475).
Reste à prendre en compte aussi tous les changements que cela impose dans notre usage actuel de la technologie.
Par exemple, ces machines peuvent déchiffrer toutes nos meilleures clés de chiffrement actuelles en quelques secondes ou minutes.
Une réorganisation profonde donc s'impose (les méthodes actuelles ne seront plus de la sécurité si elle sont conservées).
La solution la plus sure pour tous seraient d'inventer des méthodes de chiffrement inviolables à la fois pour les autres machines et pour les ordinateurs quantiques eux-mêmes.
Contacter le responsable de la rubrique Accueil