Nous suivre Industrie Techno

Lu sur le web

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

Nvidia dévoile son processeur bâti pour l’intelligence artificielle

© Nvidia

Le spécialiste des cartes graphiques a présenté une nouvelle puce dont l'architecture a été optimisée pour les algorithmes de Deep Learning. Son processeur embarque 15 milliards de transistors, soit trois fois plus que sur les précédentes références Nvidia.

2 milliards de dollars. Selon la MIT Technology Review, c’est le montant que la société Nvidia, spécialiste des cartes graphiques, aurait dépensé en R&D pour mettre au point un processeur graphique spécialement optimisé pour les algorithmes de Deep Learning. Baptisée Tesla P100, la puce a été dévoilée mardi 5 avril lors d’une conférence à San José, en Californie.

Les algorithmes de Deep Learning  (apprentissage profond en français) sont à l’origine de progrès significatifs dans le domaine de l'intelligence artificielle, notamment en matière de reconnaissance vocale et de traitement d’images. Ils constituent une technique particulière du Machine Learning. Ces derniers cherchent à reproduire le fonctionnement du cerveau humain et s’appuient aujourd’hui sur plusieurs couches de neurones artificiels (ou unités de calcul) organisées de façon hiérarchique.

Concrètement, les couches inférieures cherchent d’abord à catégoriser les éléments les plus simples avant de s’attaquer à des caractéristiques plus complexes. Pour un texte, l’algorithme de Deep Learning se concentrera d’abord sur l’apprentissage des lettres avant de passer aux mots puis aux phrases. Au fur et à mesure de son apprentissage, l’algorithme va être capable de réorganiser l’information pour apprendre à reconnaître d’autres informations.

Un apprentissage 12 fois plus rapide

Jusqu’à présent, les algorithmes de Deep Learning tournaient sur des processeurs graphiques initialement développés pour les jeux vidéo. L’architecture de la puce Tesla P100, elle, a spécialement été conçue pour les algorithmes d’intelligence artificielle afin de permettre aux informaticiens de "nourrir" leurs algorithmes de plus de données et de construire des réseaux de neurones plus profonds. Le processeur embarque 15 milliards de transistors, soit 3 fois plus que sur ses prédécesseurs Nvidia. Et, d’après Jen-Hsun Huang, le CEO de la firme de Santa Clara, un réseau de neurones alimenté par le GPU Tesla P100 pourrait "apprendre" 12 fois plus rapidement qu'avec un autre GPU.

La production de la Tesla P100 a d’ores et déjà commencée et les géants du Cloud, comme IBM, Dell et HP, devraient pouvoir l’utiliser dès cette année. Lors de la conférence, Nvidia a également présenté un super-calculateur, spécialement dédié aux chercheurs en Deep Learning. Celui-ci est composé de huit puces Tesla P100. 

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

« Le Zero Trust est la seule façon réaliste de protéger son réseau aujourd’hui », avance Bernard Ourghanlian directeur technique et sécurité à Microsoft France

« Le Zero Trust est la seule façon réaliste de protéger son réseau aujourd’hui », avance Bernard Ourghanlian directeur technique et sécurité à Microsoft France

À l’heure de l’IoT, du télétravail et de l’ouverture des systèmes d’information, les[…]

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Cybersécurité industrielle : 6 mois pour sécuriser une usine

Dossiers

Cybersécurité industrielle : 6 mois pour sécuriser une usine

Plus d'articles