Les systèmes informatiques quantiques ont été salués comme l'avenir de l'informatique, car ils sont capables d'effectuer des calculs très difficiles, voire impossibles, avec les ordinateurs "classiques" que nous utilisons aujourd'hui. Mais ils sont également sujets à des erreurs, qui représentent l'un des principaux problèmes dans l'application pratique de la technologie. Dans l'informatique quantique, un qubit est une unité d'information quantique qui peut prendre des états plus riches que les simples 0 et 1. Cependant, les qubits sont sensibles, et même une lumière parasite peut provoquer des erreurs de calcul. Le problème s'aggrave à mesure que les ordinateurs quantiques se développent, ce qui rend la correction d'erreurs quantiques cruciale. La correction quantique des erreurs protège les informations en les codant sur plusieurs qubits physiques pour former un qubit logique, ce qui est considéré comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d'erreur suffisamment faibles pour effectuer des calculs utiles.
Les chercheurs de Google affirment avoir trouvé un moyen de construire la technologie de manière à ce qu'elle corrige ces erreurs. La société affirme qu'il s'agit d'une avancée comparable à celle annoncée il y a trois ans, selon laquelle elle avait atteint la « suprématie quantique », et qu'elle représente une étape importante sur la voie de l'utilisation fonctionnelle des ordinateurs quantiques.
Les chercheurs ont construit une nouvelle génération de son processeur Sycamore, avec le même nombre et la même disposition de qubits matériels que le précédent. Mais l'entreprise s'est attachée à réduire le taux d'erreur des qubits individuels afin de pouvoir effectuer des opérations plus complexes sans connaître de défaillance.
Leurs travaux sont décrits dans un nouvel article intitulé « Suppressing quantum errors by scaling a surface code logical qubit », publié dans la revue Nature. L'article décrit les tests de deux méthodes différentes. Dans les deux cas, les données étaient stockées sur une grille carrée de qubits. Chacun d'entre eux avait des qubits voisins qui étaient mesurés pour mettre en œuvre la correction des erreurs. La seule différence était la taille de la grille. Dans une méthode, elle était de trois qubits par trois qubits ; dans la seconde, elle était de cinq par cinq. La première méthode a nécessité 17 qubits matériels au total, la seconde 49 qubits, soit près de trois fois plus.
L'équipe de recherche a effectué une grande variété de mesures des performances. Mais la question clef était simple : quels qubits logiques avaient le taux d'erreur le plus faible ? Si les erreurs des qubits matériels dominaient, on s'attendrait à ce que le triplement du nombre de qubits matériels augmente le taux d'erreur. Mais si les ajustements de performance de Google ont suffisamment amélioré les qubits matériels, la disposition plus grande et plus robuste devrait faire baisser le taux d'erreur.
Le schéma le plus grand l'a emporté, mais il s'en est fallu de peu. Globalement, le qubit logique le plus grand avait un taux d'erreur de 2,914 %, contre 3,028 % pour le plus petit. Ce n'est pas un grand avantage, mais c'est la première fois qu'un avantage de ce type est démontré. Et il faut souligner que ces deux taux d'erreur sont trop élevés pour utiliser un de ces qubits logiques dans un calcul complexe. Google estime que les performances des qubits matériels devraient encore être améliorées de 20 % ou plus pour offrir un avantage clair aux grands qubits logiques.
Dans le dossier de presse qui l'accompagne, Google suggère qu'il atteindra ce stade (faire fonctionner un seul qubit logique à longue durée de vie) dans les années 2025 et plus. À ce stade, il sera confronté aux mêmes problèmes que ceux sur lesquels IBM travaille actuellement : le nombre de qubits matériels que l'on peut faire tenir sur une puce est limité. Il faudra donc trouver un moyen de mettre en réseau un grand nombre de puces dans une seule unité de calcul.
Les chercheurs de Google Quantum AI ont déclaré avoir trouvé un moyen de réduire les taux d'erreur à mesure que la taille du système augmente, ce qu'ils décrivent comme étant à un « seuil de rentabilité ».
Hartmut Neven, directeur technique de Google Quantum AI, a déclaré que, même si des défis restent à relever, il pense qu'à ce stade, « nous pouvons promettre en toute confiance une valeur commerciale » pour les ordinateurs quantiques. Il a ajouté : « En langage financier, nous avons donc atteint le seuil de rentabilité, mais cela ne suffit pas, bien sûr. Nous devons parvenir à un taux d'erreur absolument faible ».
Dans un billet de blog, Sundar Pichai, directeur général de Google et d'Alphabet, a déclaré : « Pour la toute première fois, nos chercheurs en IA quantique ont démontré expérimentalement qu'il est possible de réduire les erreurs en augmentant le nombre de qubits… Notre percée représente un changement significatif dans la façon dont nous exploitons les ordinateurs quantiques. "Au lieu de travailler sur les qubits physiques de notre processeur quantique un par un, nous traitons un groupe d'entre eux comme un qubit logique. En conséquence, un qubit logique que nous avons fabriqué à partir de 49 qubits physiques a été capable de surpasser celui que nous avons fabriqué à partir de 17 qubits ».
La réussite de l'équipe dans la mise à l'échelle d'un qubit logique représente une étape importante dans l'informatique quantique, rendant les applications quantiques significatives pour le progrès humain. À l'avenir, les ordinateurs quantiques seront utilisés pour identifier des molécules pour de nouveaux médicaments, créer des engrais utilisant moins d'énergie, concevoir des technologies durables plus efficaces, des batteries aux réacteurs de fusion nucléaire, et produire des recherches en physique qui mèneront à des avancées que nous ne pouvons pas encore imaginer.
Toutefois, l'équipe reconnaît qu'il reste beaucoup de travail à faire et que plusieurs composants de la technologie doivent être améliorés, de la cryogénie à l'électronique de contrôle en passant par la conception et les matériaux des qubits. Le long chemin à parcourir pour passer à des milliers de qubits logiques avec de faibles taux d'erreur nécessitera encore plus d'étapes techniques, mais l'équipe de Google est optimiste.
Source : Nature
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
IBM affirme avoir créé une nouvelle puce quantique si "puissante" qu'elle ne peut être simulée par les superordinateurs classiques, et la Chine conteste à nouveau la suprématie quantique de Google
"Jiuzhang 2" : le nouvel ordinateur quantique de la Chine serait 1 million de fois plus puissant que Sycamore de Google, et les scientifiques chinois ajoutent qu'il est le plus puissant au monde
Google a fait appel à la NASA pour l'aider à prouver sa suprématie quantique d'ici quelques mois
IBM conçoit un processeur de 50 qubits et évoque la suprématie quantique comment se traduit ce nombre de qubits dans la réalité ?