Nous suivre Industrie Techno

L’IA française se dope au calcul intensif

MANUEL MORAGUES
Soyez le premier à réagir

Soyez le premier à réagir

L’IA française se dope au  calcul intensif

Les supercalculateurs, comme ici l'américain Summit, sont des outils essentiels au deep learning.

© Cover Images/Sipa

À Saclay, l’installation du plus puissant supercalculateur national, en partie dédié  à la recherche en IA, doit permettre à la France  de ne pas être à la traîne des Gafa.

Cest une machine à 25 millions d’euros que s’est offerte en début d'année le Genci, l’organisme qui mutualise les moyens de calcul pour la recherche scientifique française. HPC-IA sera opéré au centre de calcul Idris du CNRS, à Saclay (Essonne). Si ses 14 petaflops (soit 14 millions de milliards d’opérations par seconde) seront utilisés pour de la simulation classique, son architecture – intégrant 1 000 GPU, ces processeurs graphiques dont est friand le deep learning – et sa mise à disposition des chercheurs pour des calculs à la volée en font le supercalculateur de l’IA française.

« Il était indispensable d’avoir un outil de calcul digne de ce nom, sinon seuls les géants de la tech auront les capacités à faire de l’IA », pointe Bruno Sportisse, le PDG de l’Inria. Le deep learning et ses énormes réseaux de neurones demandent en effet toujours plus de puissance de calcul et la domination des Gafa en la matière est écrasante. « On ne joue pas dans la même cour, résume Marc Schoenauer, chercheur en IA et responsable du projet TAO (optimisation, apprentissage et méthodes statistiques) à l’Inria. Dans les conférences scientifiques, il y a deux types d’exposés : ceux des Gafa, qui présentent des résultats obtenus en faisant tourner des milliers de GPU pendant des mois, et ceux des organismes académiques, qui ont fait tourner 20 GPU pendant trois semaines ! »

Indispensable pour la recherche fondamentale

Bien sûr, les chercheurs français ont pu réaliser de belles avancées en se passant de supercalculateur. « Si l’on ne travaille pas sur de très grosses bases de données, on n’a pas forcément besoin de beaucoup de puissance de calcul », tempère Fabien Moutarde, professeur à l’université PSL et directeur adjoint du centre de robotique de Mines ParisTech. D’autre part, l’open source règne dans l’IA et les recherches des Gafa sont rendues publiques. « Nous pouvons récupérer leurs réseaux de neurones déjà entraînés pour les adapter aux problèmes que nous voulons traiter. La domination des Gafa n’est donc pas si gênante pour la recherche appliquée que nous menons », poursuit le chercheur.

Avant de reconnaître : « Nous nous autocensurions aussi un peu. A contrario, aujourd’hui, nous menons une recherche de pointe sur l’apprentissage par renforcement pour la conduite autonome. En venant ainsi marcher sur les plates-bandes de Deepmind [filiale de Google, ndlr], nous nous rendons compte que nous touchons à nos limites en matière de puissance de calcul. » Et de conclure : « Si nous voulons mener une recherche fondamentale et ne pas nous contenter de réutiliser ce que les Gafa ont mis au point, il faut de grosses machines. »

Le deep learning, une science très expérimentale

« Sans supercalculateur, on ne sera pas capable de développer de nouveaux algorithmes, de challenger les géants de la tech ni même de reproduire leurs résultats », insiste Bruno Sportisse. Ce dernier point dérange particulièrement Marc Schoenauer. « Le deep learning est encore une science très expérimentale, que l’on a parfois comparée à l’alchimie du Moyen Âge, explique-t-il. On tâtonne au doigt mouillé, on fait des essais, on ajoute un petit coefficient… En l’absence de théorie, seule l’expérimentation, c’est-à-dire le calcul, permet de valider un résultat en le reproduisant. »

Pour réduire l’écart avec les Gafa, il ne suffira pas d’avoir de la puissance de calcul. Car de la conception d’un réseau de neurones à l’exécution de calculs sur les milliers de cœurs des GPU, il y a toute une machinerie combinant plusieurs couches logicielles. Construction du modèle, traitement des données, définition des calculs, distribution des tâches sur les GPU… Autant de logiciels dont il faut assurer au jour le jour le bon fonctionnement et la compatibilité malgré les mises à jour et autres subtilités informatiques. Sans compter le système d’exploitation et la gestion de la file d’attente des calculs. L’ampleur de la tâche peut s’avérer rédhibitoire pour des chercheurs.

Support technique crucial

« Nous nous sommes posé la question d’acquérir une machine partagée un peu costaude pour 40 000 euros. Mais nous y avons renoncé car il n’y avait personne derrière pour gérer la bête », témoigne Fabien Moutarde. Dans l’équipe de Marc Schoenauer, ce sont « deux doctorants geeks qui s’en occupent pour le moment. Cependant, c’est du bricolage. Il est impératif d’embaucher des techniciens système pour installer et maintenir toute la chaîne. » Si ce volet support technique est clairement identifié dans la stratégie nationale et considéré comme crucial par Bruno Sportisse, ses modalités restent à déterminer. Sa mise en œuvre sera indispensable pour que la belle machine ne tourne pas dans le vide.

 

Indispensables GPU

Que sont ces GPU au cœur du supercalculateur français HPC-IA ? Ces processeurs graphiques (graphical processing units) étaient à l’origine utilisés pour soulager le processeur central (CPU) des calculs liés à l’affichage sur les moniteurs. Conçus pour le traitement simultané de millions de pixels et dopés par les exigences des jeux vidéo, ils se sont imposés comme le moteur de l’apprentissage profond. Et pour cause : « Le deep learning est fondé sur des calculs matriciels, où l’on réalise un grand nombre d’opérations identiques. Il est donc possible de paralléliser presque entièrement le deep learning sur des GPU », explique Marc Schoenauer, de l’Inria. Les calculs étant menés en parallèle plutôt que l’un après l’autre sur un processeur central, l’accélération est considérable. Au point d’avoir décuplé en quatre ans le cours de Bourse de Nvidia, leader mondial des GPU.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Jacques Lewiner "La microfluidique est par essence pluridisciplinaire"

Jacques Lewiner "La microfluidique est par essence pluridisciplinaire"

A l'occasion de la seconde édition du rendez-vous Summer School : Microfluidic for health, organisé du 26 au 30 août, par[…]

29/08/2019 | RechercheMédical
"La France fait partie des premiers pays d’Europe pour le soutien aux jeunes pousses issues de la recherche fondamentale"

"La France fait partie des premiers pays d’Europe pour le soutien aux jeunes pousses issues de la recherche fondamentale"

Académiques et industriels lancent à Grenoble l’institut 3IA dédié à l’intelligence artificielle

Académiques et industriels lancent à Grenoble l’institut 3IA dédié à l’intelligence artificielle

Sensibilité record pour la pesée de molécules avec de la lumière

Sensibilité record pour la pesée de molécules avec de la lumière

Plus d'articles