IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Ordinateurs quantiques : Google ouvre la voie à des dispositifs quantiques évolutifs et tolérants aux pannes
En démontrant qu'il est possible de réduire leurs erreurs de manière exponentielle

Le , par Bill Fassinou

190PARTAGES

10  0 
Les entreprises spécialisées dans l'informatique quantique mettent le paquet pour en faire l'une des prochaines grandes révolutions de l'IT. Ainsi, après que la startup néerlandaise QuantWare a lancé le premier processeur quantique (QPU) supraconducteur commercial baptisé Soprano au début du mois, Google annonce à son tour un procédé permettant de réduire considérablement les taux d'erreur des ordinateurs quantiques. La méthode a été testée avec l'ordinateur quantique Sycamore de l'entreprise et constitue une nouvelle étape vers la construction d'un ordinateur quantique tolérant aux pannes.

En quoi consiste la nouvelle trouvaille de Google ?

Les ordinateurs quantiques sont attendus pour résoudre les problèmes que les ordinateurs actuels ne peuvent pas résoudre. Ils ont une puissance de calcul supérieur à celle des ordinateurs classiques. Ainsi, l'informatique quantique promet d'accroître considérablement la quantité de données que les ordinateurs sont capables de traiter, ce qui pourrait avoir d'énormes répercussions dans des domaines tels que la médecine, la veille économique et la cybersécurité. Mais l'industrie quantique est encore jeune et la mise à l'échelle est difficile. Beaucoup d'entreprises promettent toutefois des percées lors de cette décennie.



Un ordinateur quantique doté d'un nombre suffisant de composants de "qubits" pourrait en théorie obtenir un "avantage quantique" lui permettant de trouver les réponses à des problèmes qu'aucun ordinateur classique ne pourrait jamais résoudre. Toutefois, l'un des principaux inconvénients des ordinateurs quantiques actuels réside dans le fait que leur fonctionnement interne est sujet à des erreurs. Les plateformes quantiques de pointe actuelles ont généralement des taux d'erreur proches de 10^-3 (ou un sur mille), mais de nombreuses applications pratiques nécessitent des taux d'erreur aussi bas que 10^-15.

En plus de construire des qubits qui sont physiquement moins sujets aux erreurs, les scientifiques espèrent compenser les taux d'erreur élevés en utilisant des codes stabilisateurs. Ce procédé consiste à répartir les informations quantiques sur de nombreux qubits de manière à ce que les erreurs puissent être détectées et corrigées. Un groupe de ces "qubits de données" peut alors compter comme un seul "qubit logique" utile. Bien que les principes des codes stabilisateurs aient été théoriquement appliqués à différentes plateformes, il n'a pas été prouvé que la méthode pouvait être appliquée à des systèmes de grande taille.

Selon Google, il n'a pas non plus été prouvé qu'elle pouvait résister à plusieurs cycles de correction d'erreurs. Dans cette nouvelle étude, les scientifiques du géant de Mountain View ont d'abord expérimenté un type de code stabilisateur connu sous le nom de code de répétition, dans lequel les qubits de Sycamore – l'ordinateur quantique de 54 qubits de Google – servaient alternativement de qubits de données et de "qubits de mesure" chargés de détecter les erreurs de leurs collègues. Les scientifiques ont disposé ces qubits en une chaîne unidimensionnelle, de sorte que chaque qubit ait deux voisins au maximum.

Les chercheurs ont constaté que l'augmentation du nombre de qubits sur lesquels leur code de répétition est construit entraînait une suppression exponentielle du taux d'erreur, réduisant le nombre d'erreurs par cycle de corrections jusqu'à plus de cent fois lorsqu'ils faisaient passer le nombre de qubits de 5 à 21. Cette suppression des erreurs s'est avérée stable sur 50 cycles de correction d'erreurs. « Ces travaux semblent valider expérimentalement l'hypothèse selon laquelle les systèmes de correction d'erreurs peuvent évoluer comme prévu », a déclaré l'auteur principal de l'étude, Julian Kelly, chercheur chez Google.

Prochaine étape : améliorer la méthode et l'étendre

Bien sûr, l'expérience présente encore d'énormes limites. En effet, et comme expliqué plus haut, l'équipe a testé la méthode avec différentes tailles de qubits logiques pour atteindre un cluster maximal de 21 qubits, qui a permis de réduire l'erreur logique de plus de 100 fois par rapport aux clusters composés de seulement 5 qubits. En d'autres termes, plus le qubit logique est grand, mieux les erreurs peuvent être corrigées. Ce point est important, car les ordinateurs quantiques pratiques devraient nécessiter au moins 1 000 qubits de correction d'erreurs pour chaque qubit logique.

Il est donc fondamental de prouver que les méthodes de correction des erreurs peuvent être mises à l'échelle pour le développement d'un ordinateur quantique utile. Les ordinateurs quantiques actuels peuvent supporter moins de 100 qubits – Sycamore, par exemple, en compte 54 – ce qui signifie qu'il est impossible de tester la méthode avec les 1 000 qubits qui seraient nécessaires pour des applications pratiques. Et même si 21 qubits étaient suffisants pour créer un qubit logique utile, le processeur de Google ne pourrait supporter que deux de ces qubits logiques.

Cela est encore loin d'être suffisant pour être utilisé dans des applications réelles. Les résultats de Google restent donc pour l'instant une preuve de concept. En outre, les chercheurs ont expliqué que ce code de répétition se limitait à l'examen des erreurs quantiques dans une seule direction, mais les erreurs peuvent se produire dans plusieurs directions. Pour cela, ils ont également expérimenté un type de code stabilisateur connu sous le nom de code de surface, dans lequel ils ont disposé les qubits de Sycamore dans un motif bidimensionnel de données en damier et mesuré les qubits pour détecter les erreurs.

Ils ont constaté que la version la plus simple d'un tel code de surface, utilisant une grille deux par deux de qubits de données et de trois qubits de mesure, fonctionnait comme prévu dans les simulations informatiques. « Ces résultats suggèrent que si nous parvenons à réduire le taux d'erreur inhérent aux qubits d'un facteur d'environ 10 et à augmenter la taille de chaque qubit logique jusqu'à environ 1 000 qubits de données, nous pourrions atteindre des taux d'erreur logiques algorithmiquement pertinents », a déclaré Kelly. Les scientifiques de Google ont présenté leurs résultats en ligne dans la revue Nature.

Il reste que les découvertes de Google ont ouvert la porte à davantage de recherches et d'expériences. À l'avenir, les scientifiques ont l'intention d'étendre leurs codes de surface à des grilles de qubits de données de trois par trois ou de cinq par cinq afin de tester expérimentalement si la suppression exponentielle des taux d'erreur se produit également dans ces systèmes. Par ailleurs, plus tôt cette année, AWS a publié son premier document de recherche détaillant une nouvelle architecture pour un ordinateur quantique, avec l'objectif d'établir une nouvelle norme pour la correction des erreurs.

La méthode d'AWS s'appuie sur une approche similaire à celle de Google, mais elle est associée à une conception de processeur qui pourrait réduire le potentiel des qubits à changer d'état, dans ce qui a été présenté comme le plan d'un ordinateur quantique plus précis.

Source : Rapport de l'étude

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

La startup néerlandaise QuantWare lance un processeur quantique supraconducteur commercial, le premier du genre selon l'entreprise, accélérant ainsi l'avènement de l'ordinateur quantique

Percée de l'informatique quantique de Harvard-MIT : « Nous entrons dans une toute nouvelle partie du monde quantique »

IBM communique sa feuille de route pour ses prochains développements en informatique quantique. L'entreprise prévoit de créer un processeur quantique avec plus de 1000 qubits en 2023

Les scientifiques réalisent une percée "transformationnelle" dans la mise à l'échelle des ordinateurs quantiques, une nouvelle "puce informatique cryogénique" permet d'obtenir des milliers de qubits

IBM vient de résoudre ce problème d'informatique quantique 120 fois plus vite qu'auparavant et publie Qiskit Runtime, l'outil qui a permis cette accélération

Une erreur dans cette actualité ? Signalez-le nous !