Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies

Facebook Twitter Google + Linkedin Email
×

partager sur les réseaux sociaux

Cyril Allouche, Atos : « La programmation est le challenge oublié de l’informatique quantique »

| | | |

Par publié le à 08h00

Cyril Allouche, Atos : « La programmation est le challenge oublié de l’informatique quantique »

Puce quantique

En avril dernier, Thierry Breton, à la tête du groupe français Atos, avait indiqué que ses équipes planchaient d’ores et déjà sur la conception d’un ordinateur quantique pour un horizon post 2030. Dans une interview accordée à Industrie & Technologies, Cyril Allouche, directeur de la recherche et de l’innovation d’Atos big data & security, détaille les ambitions du groupe en la matière. Le Français compte notamment tirer son épingle du jeu face aux géants américains grâce à une approche ouverte et centrée sur les problématiques logicielles, beaucoup moins connues que les challenges liés aux plateformes physiques.

Industrie & Technologies : Depuis quand et pourquoi Atos travaille sur la conception d’un ordinateur quantique à l’horizon post 2030 ?

Cyrile Allouche : On ne travaille pas forcément avec un horizon aussi lointain. C’est la science qui donne ces estimations. Nous sommes dans une logique de continuité. Atos, à travers Bull, est le dernier fabricant de serveurs et de supercalculateurs d’Europe. Le processeur quantique sera-t-il la prochaine révolution de l’informatique ou seulement un contributeur ?  C’est une question très ouverte, sur laquelle on se doit de se positionner. Par ailleurs, nos principaux segments de développement sont le big data, la simulation numérique par le calcul haute performance (HPC), et la sécurité. Cela recouvre en grande partie les axes d’investigation des gros acteurs de l’information quantique. Notre programme de R&D interne a officiellement été lancé en janvier 2016, et l’équipe est constituée d’une dizaine de chercheurs à temps plein.

I&T : Sur quels axes concentrez-vous vos travaux ?

C.A. : On ne se positionne pas que sur la fabrication du processeur. Nous allons investiguer l’ensemble de l’écosystème de l’informatique quantique. Certes, le hardware est très important, et sur ce point, nous échangeons beaucoup avec le CEA en France. Mais il y a d’autres aspects moins connus, moins mis en valeur. C’est le cas de la programmation quantique. C’est un  vrai challenge. C’est ce que j’appelle le challenge oublié. Il n’est pas assez connu des futurs utilisateurs. La classe des algorithmes où l’informatique quantique permettra d’apporter un véritable gain d’accélération reste très faible. Pour l’heure, deux grands algorithmes ont été identifiés : l’algorithme de Shor (algorithme de factorisation), pour lequel il existera un gain exponentiel, et l’algorithme de Grover (algorithme de recherche) pour lequel le gain n’est que quadratique. Notre objectif est donc de développer et mettre en oeuvre de nouveaux algorithmes dans le domaine de l’HPC, des big data et de la sécurité qui bénéficieraient de véritables gains avec l’informatique quantique. Il est crucial de comprendre que le calcul quantique n’est pas universel et sa mise en œuvre « programmatique » est très difficile et reste aujourd’hui l'affaire d’un petit nombre de spécialistes.

I&T : Vous croyez au développement d’une informatique mixte…

C.A. : Les processeurs quantiques dans les années à venir n’intégreront pas les machines grand public. Ils resteront dédiés à des tâches spécialisées pour lesquelles ils procureront un gain exponentiel. Cela nous amène à penser que de nouvelles architectures mixtes, mêlant informatique quantique et classique, verront le jour. Nous pensons également au développement de modèles de type cloud, où la puissance quantique sera accessible à travers un portail (faisant office de serveur, ndlr).

I&T : Qui seront les utilisateurs de l’informatique quantique ?

C.A. : Concernant les utilisateurs, il y a bien sûr le monde de la cryptanalyse. Nous fondons aussi de grands espoirs sur la simulation HPC et le big data. Ce dernier monde inclura l’intelligence artificielle, et notamment les algorithmes de machine learning (apprentissage automatique). En effet, il sera possible d’apprendre exponentiellement plus vite grâce à un ordinateur quantique en respectant certains traitements préalables des données pour que des algorithmes quantiques puissent être appliqués.

I&T: Microsoft, IBM, Intel, Google… Tous les géants américains investissent massivement dans l’informatique quantique. Comment, face à eux, la France peut-elle tirer son épingle du jeu ?

C.A. : Déjà, la plupart investissent surtout sur le hardware, hormis Microsoft qui a une approche logicielle via son métier. Mais nous, nous sommes persuadés que les deux aspects, le hardware (matériel) et le software (logiciel), sont d’égale importance. IBM se concentre également sur ces deux points. De notre côté, nous souhaitons construire au niveau européen une plate-forme de programmation quantique pour que le logiciel quantique se développe en Europe. Nous souhaitons fédérer la recherche dans cette optique. Début juillet, un séminaire, présidé par Thierry Mandon, a été organisé sur le sujet. Le but de cette journée était de positionner la France au cœur d'un projet européen dédié aux technologies quantiques, le flagship, doté d’un budget d’un milliard d’euros. Le ministère cherchait un fer de lance industriel pour, à la fois, fédérer les besoins industriels et intéresser l’industrie au quantique. Nous avons répondu à cet appel, et plus particulièrement autour de deux axes : la simulation d’ordinateur quantique et la programmation quantique.

I&T : Pour faire avancer la recherche, IBM mise sur l’innovation ouverte en mettant dans le cloud un processeur quantique à disposition des chercheurs via la plate-forme IBM Quantum Experience. Allez-vous aussi miser sur l’open innovation ?

C.A. : La plateforme IBM Quantum Experience est effectivement facialement ouverte. Toutefois, il faut savoir que la propriété intellectuelle de tout ce qui sera écrit sur cette plate-forme pourra être détenu par IBM. Notre approche est différente. Nous avons pour ambition de développer une plate-forme ouverte pour la programmation et pour les projets européens du flagship. Il existe aujourd’hui encore très peu d’environnements de développement et d’expérimentation du logiciel quantique.

I&T : D’un point de vue matériel, le principal verrou de l’informatique quantique est le passage à l’échelle à cause du phénomène de décohérence, (en interagissant avec leur environnement, les qubits sont perturbés et perdent leur état quantique). Quelles sont vos pistes de recherche pour surmonter cet écueil ?

C.A : Sur ce point, nous sommes en train de tisser des partenariats de recherche, notamment avec le CEA, qui travaille sur la piste de qubits plus stables. Nous n’avons donc pas notre propre R&D sur ce sujet, mais nous cherchons à monter des modèles efficaces via des partenariats. L’idée est de fournir notre capacité d’industrialisation, même si ce stade est encore loin. Nous sommes donc sur des collaborations plus prospectives.

I&T : Comptez-vous, à terme, mettre sur pied une équipe de recherche dédiée aux problématiques matérielles de l’informatique quantique ?

C.A. : Nous travaillons à cela, mais nous nous heurtons à une combinatoire importante. En effet, le monde de la recherche travaille sur un nombre assez important de modèles d’architecture. Et, pour chacun de ces modèles de calcul, il existe une dizaine de technologies sous-jacentes. Aujourd’hui, aucune méthode n’émerge vraiment, que ce soit pour la décohérence ou la correction d’erreurs.

I&T : Justement, selon vous, la correction d’erreurs est un challenge tout aussi important que celui de la décohérence…

C.A : Oui, concernant la correction d’erreurs, l’approche la plus connue consiste à multiplier fortement les qubits physiques pour créer des qubits logiques. Mais cette approche laisse poindre, dès aujourd’hui, des limites, car elle nécessite un grand nombre de qubits physiques, et c’est justement à ce moment-là qu’on tombe dans le problème de la décohérence. Le CEA a adopté une voie différente, et propose de construire des qubits qui ne nécessiteraient pas des mécanismes de correction d’erreurs aussi complexes. Nous sommes en train de voir comment collaborer au mieux sur ce point. 

Propos recueillis par Juliette Raynal

Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur