Nous suivre Industrie Techno

Pourquoi l'intelligence artificielle intéresse (plus que jamais) les industriels

Pourquoi l'intelligence artificielle intéresse (plus que jamais) les industriels

© DR

Le deep learning et les moyens de calculs toujours plus puissants, couplés au boum des big data, contribuent à l'essor de l'intelligence artificielle. Un atout pour les industriels souhaitant optimiser leurs ressources, diminuer leurs risques, augmenter leur chiffre d'affaires ou développer de nouveaux services.

En juillet dernier, pendant une semaine, la capitale des Flandres s'est transformée en capitale mondiale de l'intelligence artificielle. Lille accueillait plus de 1 700 participants pour la 32e édition de la conférence internationale sur le machine learning (ICML). Une fréquentation record, liée au nouvel engouement pour les algorithmes de deep learning (apprentissage profond), qui participent depuis quelques mois au grand retour de l'intelligence artificielle.

Le concept n'est pourtant pas neuf. Il remonte même aux années 1950, lorsque le mathématicien Alan Turing expose dans « Computing machinery and intelligence » le principe du fameux test de Turing, qui vise à évaluer l'intelligence d'une machine. L'expression « intelligence artificielle » est, elle, utilisée pour la première fois en 1956 par John McCarthy, lorsqu'il propose au Dartmouth College d'en faire un domaine de recherche à part entière.

« Depuis, l'intelligence artificielle a connu plusieurs hivers », relate le français Yann Lecun, recruté en janvier 2014 par Mark Zuckerberg pour diriger le programme Fair (Facebook artificial intelligence research) du réseau social. À plusieurs reprises, les promesses des chercheurs du secteur ne sont pas au rendez-vous, et entraînent alors des baisses d'investissements.

Mais aujourd'hui, les indicateurs sont au vert. La prolifération de données extrêmement variées pousse l'approche statistique traditionnelle à ses limites. « Avec le big data, il devient extrêmement difficile de relier des milliards de valeurs entre elles à l'aide de simples formules mathématiques. On laisse donc l'ordinateur trouver seul la fonction initialement recherchée » précise Manuel Davy, entrepreneur spécialiste du machine learning (apprentissage automatique).

 

Des algorithmes toujours plus puissants

 

Les capacités de calculs de plus en plus puissantes ont joué également un rôle dans le développement des algorithmes de deep learning, à l'origine de progrès significatifs en matière de reconnaissance vocale et de traitement d'images. Anciennement appelés réseaux de neurones artificiels, ces algorithmes constituent une technique particulière du machine learning. Ils cherchent à reproduire le fonctionnement du cerveau humain et s'appuient aujourd'hui sur plusieurs couches de neurones artificiels, ou unités de calcul, organisées de façon hiérarchique.

Les couches inférieures cherchent à catégoriser les éléments les plus simples, avant de s'attaquer à des caractéristiques plus complexes. Pour un texte, l'algorithme de deep learning se concentrera sur l'apprentissage des lettres avant de passer aux mots, puis aux phrases. Au fur et à mesure de son apprentissage, l'algorithme est capable de réorganiser l'information pour apprendre à reconnaître d'autres informations. La démocratisation des processeurs graphiques, initialement développés pour le monde du jeu vidéo, a permis de faire tourner des réseaux de neurones beaucoup plus profonds. Ainsi, de quelques centaines d'unités de calcul interconnectées, les algorithmes de deep learning s'appuient désormais sur des centaines de milliers d'unités de calcul.

Des applications simples mais concrètes d'algorithmes d'apprentissage automatique ont également permis de démontrer la valeur ajoutée des technologies d'intelligence artificielle. C'est le cas notamment du moteur de recherche de Google, puis du moteur de recommandation d'Amazon. « Avec ces applications, de nombreuses entreprises ont perçu l'intérêt économique de l'apprentissage automatique. Elles ont compris qu'il était possible de gagner énormément d'argent grâce à ça », raconte Philippe Preux, chercheur spécialiste du machine learning à l'Institut national de recherche en informatique et en automatique (Inria) de Lille.

D'abord adoptées pour des applications Web, ces techniques se sont au fur et à mesure étendues à d'autres domaines d'activité pour devenir un véritable outil d'aide à la décision dans différents secteurs industriels. Dans le secteur de l'énergie, par exemple, le projet Remind vise à développer des algorithmes de machine learning pour assister les experts dans le démantèlement des installations nucléaires. Dans le cadre de ces procédures, les professionnels doivent établir des scénarios de démantèlement en s'appuyant sur la documentation issue des phases de construction et d'exploitation des différentes installations. Or, règlementation accrue oblige, chaque installation nucléaire génère l'équivalent de 100 To de documentation. Résultat : la plupart des accidents survenus lors des phases de démantèlement seraient dus à la non prise en compte d'une information clé, qui figurait pourtant dans les bases de données. Pour limiter le nombre d'accidents et réduire les surcoûts liés à ces erreurs, des membres du Lip6 entendent développer un algorithme de machine learning afin de mieux appréhender les données textuelles.

 

Tous les secteurs industriels l'adoptent

 

En matière de santé, la start-up suisse Sophia Genetics a conçu des algorithmes de machine learning pour éliminer les biais et analyser les données issues des séquençages génétiques nouvelle génération. Un algorithme de reconnaissance de forme détecte différentes variations génétiques afin de déterminer les risques de prédisposition à certaines maladies comme le cancer. « Cela a permis à l'hôpital Saint-Antoine de Paris d'obtenir une réponse pour poser un diagnostic en cinq jours contre neuf mois auparavant », assure Jurgi Camblong, le fondateur de la start-up.

En logistique, la start-up lilloise Vekia utilise le machine learning pour optimiser la gestion des stocks de différentes enseignes. « Nous faisons d'abord de la prévision de ventes pour anticiper les capacités de stocks nécessaires. Nous transformons ensuite cette information en position de stock grâce à des algorithmes d'optimisation », explique Manuel Davy, le fondateur. Grâce à cette approche, Leroy Merlin a baissé de 8 % ses stocks de manière durable tout en augmentant son chiffre d'affaires. Grâce à des techniques de scoring, la start-up parisienne Dataiku a de son côté permis à Chronopost de développer un nouveau service. « Auparavant Chronopost proposait une livraison avant telle heure. Maintenant, ils proposent une tranche horaire », explique Louis-Philippe Kronek, data scientist chez Dataiku. Même démarche avec Parkeon, spécialiste français des horodateurs, qui avec l'aide de Dataiku a développé l'application mobile Path to Park. Elle permet au conducteur d'optimiser la fin de son parcours pour maximiser ses chances de trouver une place plus rapidement.

L'entreprise toulousaine Itrust utilise, pour sa part, des algorithmes d'intelligence artificielle pour renforcer la sécurité des systèmes d'information en analysant les comportements anormaux grâce à la détection de signaux faibles. Cette approche détecte des menaces qui ne sont pas connues. Un avantage de taille à l'heure où les attaques ne sont plus généralisées mais s'effectuent en « one shot ».

Les avancées en intelligence artificielle bénéficient aussi à la robotique. La start-up Partnering Robotics a équipé son robot purificateur d'air Diya One de réseaux de neurones inspirés du rat. Reliés à une seule et unique caméra, ils lui permettent de se déplacer en toute autonomie et d'éviter les obstacles. Ainsi, le robot consomme très peu d'énergie et a pu se passer d'équipements coûteux, comme le Lidar.

Une méthode également étudiée dans le secteur de l'automobile, dont tous les acteurs sont lancés dans la course au véhicule autonome. Valeo, lui, s'est intéressé au machine learning dès 2004. Le groupe utilise ces algorithmes dans ses caméras pour le traitement d'images, mais aussi pour la détection de cliquetis, pour identifier les premiers signes de somnolence du conducteur et dans le développement d'interfaces homme-machine. « Les défis aujourd'hui sont liés au véhicule autonome. Il y a une grosse différence entre détecter un panneau et savoir de manière sûre que la vitesse autorisée est de tant et que selon le contexte il n'est pas forcément judicieux d'aller jusqu'à cette vitesse. Cela demande des capacités de calculs beaucoup plus importantes », estime Guillaume Devauchelle, à la direction de l'innovation et de la recherche scientifique du groupe.

Plus globalement, les experts comptent désormais s'attaquer à un autre défi : développer les techniques d'apprentissage automatique non supervisées. Ce qui doterait les machines d'un sens commun, et leur permettrait d'opérer des avancées spectaculaires dans le traitement du langage naturel. « On pourrait alors », assure Yann Lecun, « dialoguer avec une machine comme s'il s'agissait d'un être humain...

 

DURANT SON APPRENTISSAGE, L'ALGORITHME RÉORGANISE L'INFORMATION POUR APPRENDRE À RECONNAÎTRE D'AUTRES INFORMATIONS.

 

UNE DISCIPLINE RENTABLE

Éviter les accidents Se repérér dans les 100 To de documentation générées par une installation nucléaire est presque mission impossible. Sauf pour une machine qui apprend, et évite ainsi des erreurs potentiellement très dangeureuses. Économiser l'énergie Grâce à son réseau de neurones, le robot purificateur Diya One de la start-up Partnering Robotics ne doit identifier qu'une dizaine de points invariants pour se repérer. Il se déplace ainsi sans grosse dépense énergétique, ce qui confère à sa batterie une autonomie de 10 à 13 heures. Stocker le bon produit au bon endroit Anticiper la demande est crucial pour gérer au mieux ses stocks. Les machines y excellent, et ont permis à l'enseigne Leroy Merlin, qui compte 100 000 références et 125 magasins, de diminuer ses stocks de 8 % en augmentant son chiffre d'affaires.

60 ANS DE CASSE-TÊTE AUTOUR DES RÉSEAUX DE NEURONES

1956 L'expression « Intelligence artificielle » est utilisée pour la première fois à la conférence de Dartmouth par John McCarthy. 1957 Frank Rosenblatt invente le Perceptron, le premier réseau de neurones artificiels. 1962 John McCarthy fonde le laboratoire d'intelligence artificielle de Stanford. 1969 Les travaux de Minsky et de Papert démontrent les limites du Perceptron. Les recherches sur les réseaux de neurones sont abandonnées. 1985 Les recherches sur les réseaux de neurones reprennent avec le Perceptron multicouche introduit par David Rumelhart et Yann Lecun. 1989 Abandon de Smart Truck, un projet du Pentagone qui visait à créer un véhicule autonome. 1997 Le champion du monde d'échecs Garry Kasparov est battu par le logiciel Deepblue, développé par IBM. 2006 Geoffrey Hinton et Yann Lecun présentent le deep learning. Les différentes couches de ces réseaux de neurones effectuent un apprentissage hiérarchique. 2011 L'intelligence artificielle s'invite dans nos smartphones, avec l'assistant personnel Siri, présenté par Apple en octobre 2011. 2015 Depuis cet été, 25 Google-Cars circulent de manière autonome sur les routes de Californie.

Élémentaire, mon cher Watson

« Watson ne vise pas à remplacer les experts mais à les aider à prendre de meilleures décisions », assure Rob High, le directeur technique de Watson. Grâce à des algorithmes de deep learning, l'ordinateur cognitif d'IBM est capable de lire plus de 200 millions de pages par seconde. Une prouesse qui permet de renforcer le jugement des experts. Depuis quelques mois, les applications de Watson se multiplient. Pour le laboratoire Johnson et Johnson, il a appris à déchiffrer et à reconnaître les résultats de tests cliniques afin de déterminer l'efficacité d'un médicament. Une étape qui requiert habituellement le travail de trois scientifiques sur une période de 10 mois. De son côté, Sanofi utilise Watson pour identifier les utilisations alternatives de molécules existantes. L'entreprise britannique Arria a, pour sa part, noué un partenariat avec Watson pour l'intégrer à son système de surveillance des fuites dans les raffineries.

DÉFINITIONAller vers une logique de prédiction

L'intelligence artificielle désigne les théories et les techniques mises en oeuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. Le machine learning, ou apprentissage automatique, constitue l'un des principaux champs d'étude de cette discipline. Il consiste à élaborer des algorithmes d'apprentissage qui permettent aux machines d'apprendre automatiquement à partir de données. Ils sont utilisés lorsqu'il devient impossible de spécifier un problème. En analysant un grand volume de données, les algorithmes d'apprentissage automatique sont capables de déduire une règle qui produit ces données. En déterminant des principes généraux, ces algorithmes permettent de basculer dans une logique de prédiction, l'une des principales caractéristiques de notre intelligence.

vous lisez un article d'Industries & Technologies N°0980

Découvrir les articles de ce numéro Consultez les archives 2015 d'Industries & Technologies

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Puces neuromorphiques, modélisation 3D, deep learning… les meilleures innovations de la semaine

Puces neuromorphiques, modélisation 3D, deep learning… les meilleures innovations de la semaine

Vendredi, c’est l’heure de faire le bilan innovation de la semaine. Quelles sont celles qui vous ont le plus marqués sur notre site[…]

19/07/2019 | Santé3D
DeepCubeA, l'algorithme champion de Rubik’s Cube

DeepCubeA, l'algorithme champion de Rubik’s Cube

Mobilité hydrogène, Tchernobyl, prix Atos-Joseph Fourier… les meilleures innovations de la semaine

Mobilité hydrogène, Tchernobyl, prix Atos-Joseph Fourier… les meilleures innovations de la semaine

Simulation et IA, découvrez les quatre lauréats du prix Atos-Joseph Fourier 2019

Simulation et IA, découvrez les quatre lauréats du prix Atos-Joseph Fourier 2019

Plus d'articles