Nous suivre Industrie Techno

Lu sur le web

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

© Nvidia

Le spécialiste des cartes graphiques a présenté une nouvelle puce dont l'architecture a été optimisée pour les algorithmes de Deep Learning. Son processeur embarque 15 milliards de transistors, soit trois fois plus que sur les précédentes références Nvidia.

2 milliards de dollars. Selon la MIT Technology Review, c’est le montant que la société Nvidia, spécialiste des cartes graphiques, aurait dépensé en R&D pour mettre au point un processeur graphique spécialement optimisé pour les algorithmes de Deep Learning. Baptisée Tesla P100, la puce a été dévoilée mardi 5 avril lors d’une conférence à San José, en Californie.

Les algorithmes de Deep Learning  (apprentissage profond en français) sont à l’origine de progrès significatifs dans le domaine de l'intelligence artificielle, notamment en matière de reconnaissance vocale et de traitement d’images. Ils constituent une technique particulière du Machine Learning. Ces derniers cherchent à reproduire le fonctionnement du cerveau humain et s’appuient aujourd’hui sur plusieurs couches de neurones artificiels (ou unités de calcul) organisées de façon hiérarchique.

Concrètement, les couches inférieures cherchent d’abord à catégoriser les éléments les plus simples avant de s’attaquer à des caractéristiques plus complexes. Pour un texte, l’algorithme de Deep Learning se concentrera d’abord sur l’apprentissage des lettres avant de passer aux mots puis aux phrases. Au fur et à mesure de son apprentissage, l’algorithme va être capable de réorganiser l’information pour apprendre à reconnaître d’autres informations.

Un apprentissage 12 fois plus rapide

Jusqu’à présent, les algorithmes de Deep Learning tournaient sur des processeurs graphiques initialement développés pour les jeux vidéo. L’architecture de la puce Tesla P100, elle, a spécialement été conçue pour les algorithmes d’intelligence artificielle afin de permettre aux informaticiens de "nourrir" leurs algorithmes de plus de données et de construire des réseaux de neurones plus profonds. Le processeur embarque 15 milliards de transistors, soit 3 fois plus que sur ses prédécesseurs Nvidia. Et, d’après Jen-Hsun Huang, le CEO de la firme de Santa Clara, un réseau de neurones alimenté par le GPU Tesla P100 pourrait "apprendre" 12 fois plus rapidement qu'avec un autre GPU.

La production de la Tesla P100 a d’ores et déjà commencée et les géants du Cloud, comme IBM, Dell et HP, devraient pouvoir l’utiliser dès cette année. Lors de la conférence, Nvidia a également présenté un super-calculateur, spécialement dédié aux chercheurs en Deep Learning. Celui-ci est composé de huit puces Tesla P100. 

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Médailles de l'innovation 2019 : le CNRS récompense ses chercheurs-entrepreneurs

Médailles de l'innovation 2019 : le CNRS récompense ses chercheurs-entrepreneurs

En remettant ses médailles de l'innovation 2019, le Centre national de la recherche scientifique a mis en avant quatre chercheurs dont les[…]

Photovoltaïque européen, superalliages, smart-city… les meilleures innovations de la semaine

Photovoltaïque européen, superalliages, smart-city… les meilleures innovations de la semaine

Elle partage sa foi dans le code

Focus

Elle partage sa foi dans le code

Ce drone évite un ballon sans ralentir

Analyse

Ce drone évite un ballon sans ralentir

Plus d'articles