Tangle Lake : Intel dévoile une nouvelle puce quantique de 49 qubits au CES 2018
Le fondeur a-t-il atteint la suprématie quantique ?

Le , par Coriolan, Chroniqueur Actualités
Intel vient de franchir un nouveau pas dans le développement de puces quantiques. Tout comme ses deux rivaux dans cette course Google et IBM, le fondeur a dévoilé une nouvelle puce quantique de 49 qubits, assez de qubits pour permettre possiblement aux ordinateurs quantiques de dépasser les limites des ordinateurs classiques.
Intel a profité de la tenue du CES à Las Vegas pour donner des détails sur le design et la fabrication de sa nouvelle puce quantique au nom de code Tangle Lake. Cette puce présente une étape importante pour la firme qui a aspiré tous comme ses rivaux à investir dans la recherche et développement pour atteindre la suprématie quantique, c’est-à-dire le potentiel d’ordinateurs quantiques à résoudre des problèmes que les ordinateurs classiques actuels sont incapables de traiter.


Mais Michael Mayberry, vice-président corporate et directeur d’Intel Labs a choisi de définir la suprématie quantique en d’autres termes. « D’un point de vue scientifique, près de 50 qubits représente une place intéressante, du fait que vous avez atteint le point où vous ne pouvez plus prédire complètement ou simuler le comportement quantique de la puce, » dit-il.
Cette nouvelle annonce d’Intel permet au fondeur de rejoindre la tête du peloton de cette course vers le développement de l’informatique quantique. En novembre 2017, IBM a annoncé avoir fabriqué un prototype de puce quantique de 50 qubits. De façon similaire, Google a parlé auparavant de son ambition à concevoir une puce quantique de 49 qubits avant la fin de l’année.
Un ordinateur quantique utilise les propriétés quantiques de la matière, telles que la superposition et l'intrication afin d'effectuer des opérations sur des données. À la différence d'un ordinateur classique basé sur des transistors et qui travaille sur des données binaires (codées sur des bits, valant 0 ou 1), le calculateur quantique travaille sur des qubits dont l'état quantique peut posséder plusieurs valeurs, ce qui lui confère des capacités de calcul énormes, comparé aux machines classiques.

Malgré les avancées des géants comme Intel, IBM et Google, on est encore loin d’un débouché commercial de l’informatique quantique. Intel n’a pas indiqué avoir un agenda précis pour atteindre cet objectif, mais sa feuille de route suggère que les chercheurs pourraient concevoir des systèmes de 1000 qubits dans cinq à sept années. 1000 qubits peut vous paraitre un nombre énorme, mais il faut savoir que plusieurs experts pensent que les ordinateurs quantiques requièrent au moins un million de qubits pour avoir un débouché commercial.

L’informatique quantique ne dépend pas seulement d’un plus grand nombre de qubits, une autre étape importante aussi consiste à implémenter une correction d’erreurs de code surface capable de détecter et corriger les perturbations observées dans les états quantiques de qubits individuels. Les chercheurs devront également schématiser les algorithmes logiciels dans un ordinateur quantique. Enfin, une troisième étape cruciale implique la conception de dispositions électroniques nécessaires pour contrôler les qubits individuels et lire les résultats présentés par l'informatique quantique.

Pour achever sa puce Tangle Lake, Intel s’est appuyé sur ses travaux précédents notamment avec la puce de 17 qubits dévoilée l’année dernière, soit le nombre minimum de qubits pour effectuer la correction d'erreur code surface. La firme a également développé un packaging pour éviter une interférence radio avec les qubits et utilise la technologie flip chip qui permet aux connexions plus denses d’émettre et recevoir les signaux de la puce. « Nous nous concentrons sur un système, pas seulement un nombre plus élevé de qubits, » a expliqué Mayberry.
La nouvelle puce quantique d’Intel s’appuie sur une architecture de qubits supraconducteurs requérant des circuits de métal supraconducteur et des températures extrêmement froides qui avoisinent 20 millikelvins (-273 degrés C). Parmi les objectifs d’Intel, augmenter cette température d’exploitation dans les futurs systèmes.

En plus de cette architecture, Intel consacre la même part d’investissement à une autre architecture basée sur les qubits de spin, ces qubits sont généralement plus petits que les qubits supraconducteurs et pourraient être fabriqués de façon similaire aux puces actuelles produites par les fondeurs comme Intel et autres fabricants de puces à transistors conventionnelles. Cet atout pourrait permettre une multiplication beaucoup plus rapide de qubits par milliers ou par millions. Toutefois, le développement de ces qubits semble encore en retard comparé aux qubits supraconducteurs. Intel semble néanmoins ne pas vouloir mettre tous les œufs dans un seul panier, la firme a déjà réussi à fabriquer des qubits de spin en se basant sur le processus de fabrication de tranches de silicium de 300 mm.


Le processeur neuromorphique d'Intel

Vraisemblablement, Intel veut à tout prix diversifier son offre et ne plus se focaliser les processeurs x86. En plus du domaine de l’informatique quantique, le fondeur travaille d’arrache-pied sur une puce neuromorphique appelée Loihi. Comme son nom l’indique, l’informatique neuromorphique cherche à imiter la manière de fonctionnement du cerveau. Dans sa conférence au CES, le PDG d’Intel Brian Krzanich a livré plus d’informations sur cette puce dévoilée en octobre 2017. Ces puces pourraient fournir un matériel spécialisé équivalent aux algorithmes de deep learning qui dominent la recherche sur l’IA actuellement.

Source : IEEE Spectrum

Et vous ?

Pensez-vous que l'informatique quantique va trouver un débouché commercial durant les prochaines années ?
Ou bien elle n'est pas encore prête pour remplacer les supercalculateurs classiques ?

Voir aussi :

Intel dévoile une nouvelle puce quantique de 17 qubits, bientôt la généralisation de systèmes quantiques ?
Google présente le compilateur OpenFermion, une bibliothèque de logiciels open source qui permettra d'exploiter le potentiel de l'ordinateur quantique


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de joublie joublie - Membre confirmé https://www.developpez.com
le 10/01/2018 à 2:34
Zut, apparemment je n'ai pas le bon socket
Plus sérieusement, il y a quelques années je n'imaginais que ça irait si vite.
Faudra-t-il un jour avoir un CPU quantique chez soi pour chiffrer de façon sûre des données, ou bien des algorithmes résistants suffiront-ils ? Où en est la recherche ?
Avatar de OussamaM OussamaM - Nouveau Candidat au Club https://www.developpez.com
le 10/01/2018 à 9:38
Si les qubits permettent une superposition d'états, et donc une possibilité non-binaire, est-ce qu'il faudra revoir le fond de nos algorithmes qui eux se basent sur une logique aristotélicienne, et n'auront peut-être pas d'effet supplémentaire dans un qubit ?
Avatar de marsupial marsupial - Membre émérite https://www.developpez.com
le 10/01/2018 à 12:31
Dans la zone des 50 qubits, plus aucun algorithme de chiffrememnt résiste. Google a déjà pondu des algorithmes quantiques de chiffrement.

Et oui les algorithmes valables dans le monde informatique d'aujourd'hui ne le seront plus avec le quantique. Un qubit pouvant prendre une infinité d'états entre 0 et 1.
Avatar de John Bournet John Bournet - Membre éclairé https://www.developpez.com
le 10/01/2018 à 14:09
Citation Envoyé par marsupial Voir le message
Dans la zone des 50 qubits, plus aucun algorithme de chiffrememnt résiste. Google a déjà pondu des algorithmes quantiques de chiffrement.

Et oui les algorithmes valables dans le monde informatique d'aujourd'hui ne le seront plus avec le quantique. Un qubit pouvant prendre une infinité d'états entre 0 et 1.
Pas tout à fait, parmi les algos actuels, les plus sensibles aux algorithmes quantiques sont les systèmes asymétriques.

Pour le RSA, on estime le nombre de qubits nécessaires, pour Shor, à environ 2*Log(N), N étant la quantité de "nombres" à factoriser, donc ~4096 qubits pour une clé de 2048 bits
Pour les systèmes à courbe elliptique c'est légèrement moins, mais ça reste bien plus élevé que ce qu'on sait faire aujourd'hui.

Quelques papiers intéressants sur le sujet :
https://arxiv.org/pdf/quant-ph/0301141v2.pdf

https://arxiv.org/pdf/1512.04965v1.pdf

 
Contacter le responsable de la rubrique Accueil