Nous suivre Industrie Techno

abonné

Focus

Les puces accélératrices de l'IA prolifèrent

Séverine Fontaineredaction@industrie-technologies.com

Sujets relatifs :

, ,
Les puces accélératrices de l'IA prolifèrent

La carte graphique Jetson AGX Xavier de Nvidia facilite le développement d’applications embarquées.

Face à l’explosion de l’intelligence artificielle, les fondeurs, les start-up et les géants du web développent des puces dédiées au deep learning exigeant une grande puissance de calcul.

Les puces d’accélération d’intelligence artificielle (IA) sont en ébullition. En avril, Qualcomm a lancé l’expérimentation de la sienne, dédiée aux petits centres de données, auprès de ses partenaires, dont Microsoft, avant une mise en production en 2020. En janvier, c’était Intel qui dévoilait, lors du CES, son processeur de réseau neuronal ultra-spécialisé NNP, codévéloppé avec Facebook et issu des travaux de Nervana, une entreprise spécialisée dans l’apprentissage profond (deep learning) acquise en 2016. Des annonces qui font écho à celles du moteur de recherche chinois Baidu, de Nvidia ou d’Amazon Web Services, en 2018. Ces puces visent à accélérer les modèles à base de réseaux de neurones qui animent les multiples applications de l’IA : assistants vocaux, reconnaissance d’image, moteurs de recommandation… À chaque requête, un modèle de deep learning pré-entraîné tourne dans le cloud pour donner une réponse, opération appelée inférence. Certains de ces algorithmes sont exécutés plusieurs dizaines de milliards de fois par jour, viennent de rappeler des chercheurs de Facebook. Une quantité faramineuse de calculs à réaliser à toute vitesse et sans faire exploser la consommation énergétique.

Or le deep learning nécessite des calculs spécifiques. Il s’agit essentiellement de multiplications de grandes matrices, qui se décomposent en une multitude d’opérations arithmétiques indépendantes. Le microprocesseur classique (CPU), utilisé dans les ordinateurs, ne brille pas dans cette tâche. « Ce processeur généraliste au fonctionnement séquentiel permet de faire tourner l’ensemble des algorithmes, mais n’est pas très efficace pour chacun d’entre eux », souligne Benoît Miramond, professeur spécialisé en électronique neuromorphique à l’Université Côte d’Azur. Les processeurs graphiques (GPU), à l’origine développés pour améliorer la qualité d’image des jeux vidéo, se sont avérés bien plus performants pour le deep learning. Leur architecture les dédie à la réalisation de multiples calculs en parallèle, alors que les CPU les exécutent un par un. En 2009, des chercheurs de Stanford découvrent que l’on peut mettre leur puissance au service des réseaux de neurones. Depuis, les GPU ont été le moteur de l’essor du deep learning. Et par la même occasion de Nvidia, le géant américain des cartes graphiques optimisées pour l’IA.

Vers des processeurs neuromorphiques

Le règne des GPU sur l’IA suscite bien des convoitises.[…]

Pour lire la totalité de cet article, ABONNEZ-VOUS

Déjà abonné ?

Mot de passe perdu

Pas encore abonné ?

vous lisez un article d'Industries & Technologies N°1023

Découvrir les articles de ce numéro Consultez les archives 2019 d'Industries & Technologies

Nous vous recommandons

Impression 3D, nanotubes de carbone, AirCyber… les meilleures innovations de la semaine

Impression 3D, nanotubes de carbone, AirCyber… les meilleures innovations de la semaine

Quelles sont les innovations qui vous ont le plus marqués au cours des sept derniers jours ? Cette semaine, vous avez apprécié[…]

Repousser les limites de la loi de Moore grâce aux nanotubes de carbone

Repousser les limites de la loi de Moore grâce aux nanotubes de carbone

Intel dévoile un système neuromorphique à 8 millions de neurones

Intel dévoile un système neuromorphique à 8 millions de neurones

Cobot Airbus, nano transistor, edge computing… les innovations qui (re)donnent le sourire

Cobot Airbus, nano transistor, edge computing… les innovations qui (re)donnent le sourire

Plus d'articles