Nous suivre Industrie Techno

La mémoire quantique fait une entrée fracassante dans la course à l'ordinateur quantique

Kevin Poireault

Sujets relatifs :

Soyez le premier à réagir

Soyez le premier à réagir

La mémoire quantique fait une entrée fracassante dans la course à l'ordinateur quantique

Schéma théorique illustrant une architecture d’ordinateur quantique doté d’un processeur et d’une mémoire. Seulement les qubits logiques sont représentés.

© Nicolas Sangouard et Élie Gouzien

L'ajout d'une mémoire quantique réduit d'un facteur 1000 le nombre de qubits nécessaires à la mise en œuvre de l'algorithme de Shor. Ce résultat théorique publié le 28 septembre par deux physiciens français dans Physical Review Letters pourrait marquer un tournant dans la course à l'ordinateur quantique.

Et si la course à l'ordinateur quantique avait perdu sa mémoire en route ? La retrouver pourrait lui être bien utile : Nicolas Sangouard et Élie Gouzien, deux physiciens français de l’Institut de physique théorique (CEA/CNRS/Université Paris-Saclay), ont estimé qu'en utilisant une mémoire quantique, un processeur de seulement 13 000 bits quantiques (qubits) pourrait être presque aussi performant dans la mise en œuvre de l'algorithme de Shor qu'un processeur de 20 millions de qubits.

Publiés le 28 septembre dans la revue Physical Review Letters, ces résultats pourraient donner un nouveau tournant à la course au nombre de qubits que se livrent Google, IBM, Intel et des dizaines d’entreprises et start-up à travers le monde – et qui leur pose tant de problèmes.

Leur idée, explique Nicolas Sangouard, interrogé par Industrie & Technologies, consiste à contourner « l'approche poursuivie par l'ensemble des acteurs de l'informatique quantique » à l’heure actuelle, où l’on imagine « l'ordinateur quantique équipé d'un gros processeur, qui se charge seul du calcul ». A la place, les chercheurs imaginent une architecture s’inspirant de celle des ordinateurs classiques, qui combine processeur et mémoire vive (RAM).

« On stockerait l’information dans une mémoire quantique [qRAM] et, quand celle-ci doit être manipulée, on la transfère au processeur, puis on la restitue dans la mémoire quand on ne l’utilise plus, et ainsi de suite », développe le physicien. Cette méthode permettrait de s’affranchir de la fabrication d’un processeur qui stocke et calcule et, partant, « de réduire considérablement la taille des processeurs quantiques ».

13 000 qubits au lieu de 20 millions

Nicolas Sangouard et Élie Gouzien ont tenter de démontrer, de manière théorique qu’une telle approche serait bénéfique dans le cas de l’algorithme de Shor, « une référence dans le domaine, non seulement parce que c'est l'un des premiers algorithmes quantiques, mais aussi parce qu'il a un avantage exponentiel et que son résultat est facilement vérifiable, ce qui fait de lui un outil de benchmarking idéal », précise le chercheur.

Cet algorithme permet en théorie de factoriser de très grands nombres, un problème insoluble en pratique par un ordinateur quantique et qui est à la base du protocole de cryptographie RSA utilisé massivement dans le commerce électronique. Google a estimé qu'un processeur quantique de 20 millions de qubits supraconducteurs résoudrait ce problème en quelques heures.

D’après la démonstration des physiciens du CEA, l’association processeur-mémoire pourrait être bien plus performantes, ne requérant plus que 200 000 bits quantiques. En ajoutant des procédures de correction d’erreurs optimisées, le nombre de qubits diminue encore pour atteindre 13 000. Seul bémol : un processeur de cette taille n’est pas capable d’effectuer autant d’opérations en parallèle et le temps de calcul passe à quelques mois.

Encore beaucoup de défis pour développer une mémoire quantique

Attention, toutefois, cette démonstration est purement théorique et, des propres mots de Nicolas Sangouard, a été élaborée « à la main, avec l’aide de quelques outils numériques ». « Nous avons disséqué l'algorithme de Shor en opérations élémentaires, puis, en émettant des hypothèses sur le temps de chaque opération, nous avons calculé le temps de calcul global et le nombre de qubits nécessaires pour résoudre l'ensemble de l'algorithme. »

Par ailleurs, il reste encore beaucoup de défis à relever pour développer des mémoires quantiques adaptées au calcul, c’est-à-dire capables à la fois de stocker assez de données pendant assez de temps et de fonctionner avec des temps de cohérence ultra-faibles – à hauteur de 99,9 %. « Les meilleures d’aujourd’hui n’atteignent que les 90% de fidélité, ce qui est suffisant pour le domaine dans lequel on s’en sert à l’heure actuelle, les communications quantiques », complète  Nicolas Sangouard.

Le physicien s’enorgueillit tout de même d’avoir attiré l’attention des équipes de Google, avec qui il a eu des discussions informelles sur le sujet. Avec son collègue, il veut maintenant décliner sa méthode avec d’autres types de qubits, comme les qubits à ions piégés, pour, à nouveau, y évaluer les gains théorique de l’utilisation de mémoire quantique.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Centraliser les données de cybersécurité de différentes sources pour assurer une analyse globale en évitant la[…]

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Cybersécurité industrielle : 6 mois pour sécuriser une usine

Dossiers

Cybersécurité industrielle : 6 mois pour sécuriser une usine

Des millions de modèles de machine learning pour accélérer le contrôle qualité chez Volkswagen

Des millions de modèles de machine learning pour accélérer le contrôle qualité chez Volkswagen

Plus d'articles