Nous suivre Industrie Techno

Lu sur le web

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

© Nvidia

Le spécialiste des cartes graphiques a présenté une nouvelle puce dont l'architecture a été optimisée pour les algorithmes de Deep Learning. Son processeur embarque 15 milliards de transistors, soit trois fois plus que sur les précédentes références Nvidia.

2 milliards de dollars. Selon la MIT Technology Review, c’est le montant que la société Nvidia, spécialiste des cartes graphiques, aurait dépensé en R&D pour mettre au point un processeur graphique spécialement optimisé pour les algorithmes de Deep Learning. Baptisée Tesla P100, la puce a été dévoilée mardi 5 avril lors d’une conférence à San José, en Californie.

Les algorithmes de Deep Learning  (apprentissage profond en français) sont à l’origine de progrès significatifs dans le domaine de l'intelligence artificielle, notamment en matière de reconnaissance vocale et de traitement d’images. Ils constituent une technique particulière du Machine Learning. Ces derniers cherchent à reproduire le fonctionnement du cerveau humain et s’appuient aujourd’hui sur plusieurs couches de neurones artificiels (ou unités de calcul) organisées de façon hiérarchique.

Concrètement, les couches inférieures cherchent d’abord à catégoriser les éléments les plus simples avant de s’attaquer à des caractéristiques plus complexes. Pour un texte, l’algorithme de Deep Learning se concentrera d’abord sur l’apprentissage des lettres avant de passer aux mots puis aux phrases. Au fur et à mesure de son apprentissage, l’algorithme va être capable de réorganiser l’information pour apprendre à reconnaître d’autres informations.

Un apprentissage 12 fois plus rapide

Jusqu’à présent, les algorithmes de Deep Learning tournaient sur des processeurs graphiques initialement développés pour les jeux vidéo. L’architecture de la puce Tesla P100, elle, a spécialement été conçue pour les algorithmes d’intelligence artificielle afin de permettre aux informaticiens de "nourrir" leurs algorithmes de plus de données et de construire des réseaux de neurones plus profonds. Le processeur embarque 15 milliards de transistors, soit 3 fois plus que sur ses prédécesseurs Nvidia. Et, d’après Jen-Hsun Huang, le CEO de la firme de Santa Clara, un réseau de neurones alimenté par le GPU Tesla P100 pourrait "apprendre" 12 fois plus rapidement qu'avec un autre GPU.

La production de la Tesla P100 a d’ores et déjà commencée et les géants du Cloud, comme IBM, Dell et HP, devraient pouvoir l’utiliser dès cette année. Lors de la conférence, Nvidia a également présenté un super-calculateur, spécialement dédié aux chercheurs en Deep Learning. Celui-ci est composé de huit puces Tesla P100. 

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Paris : miser sur la recherche fondamentale

Paris : miser sur la recherche fondamentale

L'institut parisien 3IA PRAIRIE se spécialise dans les applications de santé, transports et environnement avec une approche[…]

Nice : privilégier la bio-inspiration

Nice : privilégier la bio-inspiration

Toulouse : encadrer l'apprentissage automatique

Toulouse : encadrer l'apprentissage automatique

Grenoble : développer l'IA embarquée

Grenoble : développer l'IA embarquée

Plus d'articles