Nous suivre Industrie Techno

Lu sur le web

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

© Nvidia

Le spécialiste des cartes graphiques a présenté une nouvelle puce dont l'architecture a été optimisée pour les algorithmes de Deep Learning. Son processeur embarque 15 milliards de transistors, soit trois fois plus que sur les précédentes références Nvidia.

2 milliards de dollars. Selon la MIT Technology Review, c’est le montant que la société Nvidia, spécialiste des cartes graphiques, aurait dépensé en R&D pour mettre au point un processeur graphique spécialement optimisé pour les algorithmes de Deep Learning. Baptisée Tesla P100, la puce a été dévoilée mardi 5 avril lors d’une conférence à San José, en Californie.

Les algorithmes de Deep Learning  (apprentissage profond en français) sont à l’origine de progrès significatifs dans le domaine de l'intelligence artificielle, notamment en matière de reconnaissance vocale et de traitement d’images. Ils constituent une technique particulière du Machine Learning. Ces derniers cherchent à reproduire le fonctionnement du cerveau humain et s’appuient aujourd’hui sur plusieurs couches de neurones artificiels (ou unités de calcul) organisées de façon hiérarchique.

Concrètement, les couches inférieures cherchent d’abord à catégoriser les éléments les plus simples avant de s’attaquer à des caractéristiques plus complexes. Pour un texte, l’algorithme de Deep Learning se concentrera d’abord sur l’apprentissage des lettres avant de passer aux mots puis aux phrases. Au fur et à mesure de son apprentissage, l’algorithme va être capable de réorganiser l’information pour apprendre à reconnaître d’autres informations.

Un apprentissage 12 fois plus rapide

Jusqu’à présent, les algorithmes de Deep Learning tournaient sur des processeurs graphiques initialement développés pour les jeux vidéo. L’architecture de la puce Tesla P100, elle, a spécialement été conçue pour les algorithmes d’intelligence artificielle afin de permettre aux informaticiens de "nourrir" leurs algorithmes de plus de données et de construire des réseaux de neurones plus profonds. Le processeur embarque 15 milliards de transistors, soit 3 fois plus que sur ses prédécesseurs Nvidia. Et, d’après Jen-Hsun Huang, le CEO de la firme de Santa Clara, un réseau de neurones alimenté par le GPU Tesla P100 pourrait "apprendre" 12 fois plus rapidement qu'avec un autre GPU.

La production de la Tesla P100 a d’ores et déjà commencée et les géants du Cloud, comme IBM, Dell et HP, devraient pouvoir l’utiliser dès cette année. Lors de la conférence, Nvidia a également présenté un super-calculateur, spécialement dédié aux chercheurs en Deep Learning. Celui-ci est composé de huit puces Tesla P100. 

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

[Innover contre le virus] Le supercalcul à l’assaut du Covid-19

[Innover contre le virus] Le supercalcul à l’assaut du Covid-19

Pendant l'été, Industrie & Technologies revient sur plusieurs mois de mobilisation des industriels et des chercheurs pour faire[…]

Hydrogène vert, souveraineté du cloud et Lab Robotique, le best of de la semaine

Hydrogène vert, souveraineté du cloud et Lab Robotique, le best of de la semaine

« Que Bpifrance choisisse AWS quand le président de la République réclame la souveraineté numérique, ce n'est pas acceptable ! », assène Frans Imbert Vier (Ubcom)

« Que Bpifrance choisisse AWS quand le président de la République réclame la souveraineté numérique, ce n'est pas acceptable ! », assène Frans Imbert Vier (Ubcom)

Michel Morvan, président de Cosmo Tech : l'amoureux de la complexité

Interview

Michel Morvan, président de Cosmo Tech : l'amoureux de la complexité

Plus d'articles