Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies

Facebook Twitter Google + Linkedin Email
×

Yann Lecun, Facebook : « L’apprentissage prédictif est le grand défi scientifique de l’intelligence artificielle »

| | | |

Par publié le à 09h00

Yann Lecun, Facebook : « L’apprentissage prédictif est le grand défi scientifique de l’intelligence artificielle »

Yann Lecun est à la tête du laboratoire d'intelligence artificielle de Facebook, le Fair. Il est également professeur à l'université de New York et a été nommé professeur invité sur la chaire informatique et sciences numériques, créée par le Collège de France en partenariat avec l’Inria.

Grâce à l'apprentissage prédictif, les machines pourraient s'entraîner toutes seules à partir de données brutes. Par ailleurs, cette méthode doterait les machines d'un sens commun et leur permettrait ainsi d'opérer des avancées spectaculaires dans le traitement du langage naturel. Il serait alors possible de dialoguer avec une machine comme s'il s'agissait d'un être humain. Dans une interview accordée à Industrie & Technologies, Yann Lecun revient sur ce défi scientifique majeur.

France Stratégie organisait hier, lundi 11 avril, une conférence sur la place de l’homme face à l’intelligence artificielle. A cette occasion, Yann Lecun, directeur du laboratoire d’intelligence artificielle de Facebook, le FAIR, est notamment revenu sur l'apprentissage prédictif, également appelé apprentissage non supervisé. Selon lui, c'est le grand défi scientifique de cette discipline, vieille de déjà 60 ans. Il a répondu aux questions d’Industrie & Technologies sur ce sujet.

Industrie & Technologies : Aujourd'hui quels sont les différents modes d’apprentissage en intelligence artificielle ?

Yann Lecun : Il y a trois types d’apprentissage. D’abord, l’apprentissage par renforcement. Cette méthode ressemble au dressage d’un animal de cirque ou d’un animal de compagnie : on attend que l’animal fasse la bonne action et on lui donne une récompense. C’est ce type d’apprentissage qui a été utilisé pour entraîner le logiciel AlphaGO. Au jeu de go, lorsque la machine gagne, elle se dit qu’il faut refaire la même chose. A chaque essai, on donne finalement très peu d’informations à la machine.

Il y a ensuite, l’apprentissage supervisé. Dans ce cas, on donne à la machine une première image et on lui dit c’est un chien, puis une autre image où on lui dit que c’est une table, etc. On va étiqueter les différentes images pour la machine. Dans cette approche, on lui donne la réponse qu’elle doit sortir. On lui fournit donc plus d’informations qu’avec l’apprentissage par renforcement, où on ne précise à la machine que si sa réponse est correcte ou non. Mais l’approche de l’apprentissage supervisé nécessite malheureusement que des personnes étiquettent au préalable des bases de données. 

Le troisième mode est l’apprentissage prédictif, ou non supervisé. Ici, la machine observe ce qui passe dans le monde. Par exemple, elle regarde des vidéos et déduit toute seule que le monde est tridimensionnel, que les objets peuvent bouger indépendamment, que l’objet est toujours présent lorsqu’il est caché, que les humains et les animaux sont des objets animés, etc. La machine apprend en fait toutes les choses que nous apprenons en observant le spectacle du monde. Par exemple, on pourrait prendre le segment d’une vidéo et demander à la machine : « Dis-moi ce qui va se passer dans la prochaine trame ». Et si la machine peut faire ce travail de prédiction correctement, cela veut dire qu’elle a probablement compris quelque chose sur le fonctionnement du monde, sur les contraintes physiques, etc.

I&T : L’apprentissage prédictif est donc le grand défi scientifique de l’intelligence artificielle ?

Y. L : Oui, c’est le grand défi scientifique de l’intelligence artificielle. Le problème c’est que le monde est intrinsèquement non prédictible. C’est-à-dire que si je place un crayon et que je vous demande ce qui va se passer si je le lâche, vous pouvez me répondre qu’il va tomber, mais vous ne pouvez pas me dire, de quel côté il va tomber. Donc le problème, c’est que si j’ai une vidéo où une personne tient un crayon et qu’elle le lâche et que la machine prédit que le crayon va tomber dans un sens et qu’en fait le crayon tombe dans l'autre, il faut que la machine réalise que la prédiction était quand même correcte conceptuellement ; le crayon est bien tombé. Vu comme ça, cela semble simple mais en réalité c’est un problème mathématique majeur. On ne sait pas actuellement comment on peut résoudre ça. Nous travaillons donc sur ce défi chez Facebook mais aussi à l’université de New York (NYU).

I&T : Quelle approche avez-vous adoptée chez Facebook pour développer l’assistant virtuel M ?

Y. L : M est un projet d’assistant virtuel complètement général. Pour le moment, ce sont des agents humains qui répondent aux questions que posent les utilisateurs à travers l’application Messenger. L’idée est de permettre à notre système artificiel d’apprendre à répondre aux questions en regardant les réponses données par les agents. Mais les questions sont tellement diverses, qu’il faudrait une quantité de données absolument gigantesque, et donc des milliers d’opérateurs humains qui répondent aux questions, pour que l’assistant virtuel devienne généraliste. Cela implique aussi  une collecte des données pendant des années et cela coûterait bien trop cher. Il faudrait donc que nous passions dans une approche d’apprentissage non supervisé qui permettrait à la machine d’acquérir un peu le sens commun. A ce moment là, il (l’assistant virtuel M, ndlr) pourrait peut-être, d’ici 10 ans ou 15 ans, apprendre le savoir de base qu’il faut avoir pour pouvoir résoudre tous les problèmes soumis par les utilisateurs.

Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur