Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies

Facebook Twitter Google + Linkedin Email
×

Informatique quantique : la course est lancée

| |

Publié le à 00h08

Informatique quantique : la course est lancée

Google, Microsoft, Intel, IBM ou un outsider ? Qui sera le premier à construire un ordinateur quantique assez puissant pour prouver la supériorité de cette approche sur l’informatique classique ? Chacun affûte sa stratégie pour y parvenir.

Le 5 mars, au Congrès annuel de l’American Physical Society à Los Angeles, Google a présenté Bristlecone, un processeur de 72 bits quantiques (qubits). Une puissance inégalée, qui s’inscrit dans une course indispensable pour permettre à ces machines innovantes de rivaliser avec les ordinateurs traditionnels, voire de les dépasser. Mais le chemin est encore long avant d’atteindre cette « suprématie quantique ». L’enjeu est pourtant de taille, puisque cette approche fait partie des solutions pressenties pour remédier à l’essoufflement de la loi de Moore, qui prévoyait une progression continue des performances grâce à la miniaturisation. Contrairement aux bits classiques, les qubits n’ont pas une unique valeur (0 ou 1), mais peuvent présenter une juxtaposition d’une infinité d’états intermédiaires. Ils pourraient démultiplier les capacités des machines, avec des applications tous azimuts. Le système mis au point par les chercheurs du Quantum AI Lab de Google est destiné à travailler sur la simulation, l’optimisation et l’apprentissage. Il doit aussi représenter un « banc d’essai » pour la recherche sur les taux d’erreurs, gros problème de l’informatique quantique. Plus tôt dans l’année, Intel affichait une puissance de 49 qubits, tandis qu’IBM atteignait les 50 qubits, pendant 90 microsecondes en novembre 2017. Microsoft, lui, planche sur le 100 qubits.

Reste que la gestion de l’état de juxtaposition quantique, permettant de multiplier le nombre de qubits, demeure un défi technologique. Un ordinateur dont la structure serait fondée sur ce principe pourrait traiter simultanément un nombre important d’opérations. Plusieurs pistes technologiques sont explorées pour gérer cet état : pièges à ions, optique linéaire, points quantiques (quantum dots), supraconducteurs ou encore approche topologique. Ces pistes reposent majoritairement sur les nanotechnologies pour créer un état de juxtaposition au niveau atomique. Si l’état quantique peut être simulé à l’heure actuelle sur des machines traditionnelles, le nombre de qubits est très vite limité par la mémoire nécessaire pour effectuer ce type de calculs. Le chiffre devient très vite astronomique : pour 40 qubits, une mémoire de 16 téraoctets (1 012 octets) est nécessaire, et pour 50 qubits, soit approximativement la puissance d’un supercalculateur, 16 pétaoctets (1 015 octets). Un chiffre colossal !

Le graal des 100 qubits

Au-delà des calculs classiques, les chercheurs en informatique quantique espèrent surtout pouvoir créer un ordinateur capable de traiter nativement des problèmes de la mécanique quantique. « Pour résoudre une équation quantique du type de l’équation de Schrödinger [qui décrit l’évolution dans le temps d’une particule massive non relativiste, ndlr], il nous faudrait une puissance comprise entre 100 et 200 qubits, précise Bernard Ourghanlian, directeur technique de Microsoft France et mathématicien de formation. Autant dire que la simulation de ce calcul est largement hors de portée des ordinateurs classiques. » Pour la firme américaine, la véritable révolution quantique arrivera lorsque les premiers ordinateurs dotés d’une puissance avoisinant les 100 qubits verront le jour.

« C’est une technologie qui changera le monde », se réjouit Bernard Ourghanlian, d’autant plus enthousiaste qu’il est persuadé que sa société touche au but. Microsoft travaille en effet sur un système fondé sur l’approche topologique et utilisant le fermion de Majorana. à la fois particule et anti-particule, ce fermion atypique, dont l’observation, réalisée en 2012, avait été prédite dès 1937 par le physicien italien Ettore Majorana, possède intrinsèquement cet état de juxtaposition recherché par l’informatique quantique. L’organisation de ces particules en chaînes cohérentes (on parle d’approche topologique) limite l’influence des particules extérieures sur le mécanisme quantique.

« La moindre interférence est catastrophique et fausse complètement le résultat des opérations », souligne Bernard Ourghanlian. Le taux d’erreur, inéluctable, doit être conservé très bas, pour permettre à un ordinateur traditionnel de faire le tri dans les raisonnements de l’ordinateur quantique. Afin d’éviter toute instabilité des particules, l’ordinateur quantique est donc plongé dans un environnement proche du zéro absolu (0 Kelvin).

Malgré ces contraintes, les promesses offertes par le calcul quantique sont vertigineuses, en particulier pour les matériaux. Un ordinateur de 100 qubits pourra simuler atome par atome leur comportement, ce qui ouvre des perspectives pour la création de toutes les pièces de certains catalyseurs. Des études ont déjà été publiées sur des méthodes permettant de développer un supraconducteur qui affiche une résistance nulle à température ambiante, ou encore un catalyseur efficace pour extraire le CO2 de l’atmosphère.

« Nous avons les études et la méthodologie pour ces réalisations, affirme Bernard Ourghanlian, il ne manque plus que la puissance de calcul. »

Un coach pour les futures IA

Contrairement à une idée reçue, l’informatique quantique est peu adaptée au fonctionnement des algorithmes d’intelligence artificielle (IA). En intégrant le principe d’incertitude mis en avant par Heisenberg, l’ordinateur quantique peine à prendre des décisions uniques. Il pourrait en revanche devenir un formidable coach pour des IA déployées sur des architectures informatiques classiques. En effet, le deep learning (apprentissage profond) nécessite une préparation plus ou moins longue selon la complexité de la tâche à accomplir. L’IA apprend de ses erreurs pour évaluer la décision optimale. AlphaGo Zero, le logiciel de Google DeepMind, a ainsi dû jouer plus d’un million de parties de go avant de battre les meilleurs joueurs du monde. Le raisonnement quantique, en offrant simultanément une pluralité d’approches dont l’expérience serait ensuite réinjectée dans un ordinateur classique, permettrait d’accélérer l’apprentissage des IA et d’améliorer leur raisonnement.

 

Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur