Nous suivre Industrie Techno

Des millions de modèles de machine learning pour accélérer le contrôle qualité chez Volkswagen

Emilie Dedieu
Soyez le premier à réagir

Soyez le premier à réagir

Des millions de modèles de machine learning pour accélérer le contrôle qualité chez Volkswagen

Serigne Gaye (g.) et Denis Molin (dr), de la société Teradata, lors du salon Big Data & AI à Paris, le 29 septembre.

Volkswagen a fait appel au californien Teradata pour mettre le big data au service du contrôle qualité de sa production. Un retour d'expérience sur les opérations d'assemblage-soudure de la structure des véhicules a été présenté lors du salon Big Data & AI, le 29 septembre à Paris. Un nombre faramineux de modèles de machine learning sont à l'œuvre.

Des millions de modèles de machine learning pour le ferrage-soudure chez Volkswagen. Les chiffres avancés par Teradata lors de son retour d’expérience d'un dispositif d’analytique d’une chaîne de production automobile au salon Big Data & AI, le 29 septembre 2021 à Paris, donnent le vertige.

La société, spécialisée dans l’analyse de données, s’est associée en juillet 2020 au projet de cloud industriel développé par Volkswagen. À terme, cette plateforme IoT devrait combiner les données de toutes les machines et systèmes des sites industriels du groupe à travers le monde. Si la collecte de données est assurée par Amazon Web Services (AWS), Teradata propose de son côté les outils d’analyse pour traiter celles relevant du contrôle qualité.

Accélérer le contrôle qualité

Le but n’est pas de remplacer le contrôle de qualité physique, mais de l’accélérer. « Il n’y a que 0,6 % de la production qui nécessite vraiment de repartir sur la chaîne de production, relate Serigne Gaye, consultant industriel chez Teradata, mais ces quelques 2000 véhicules pèsent lourdement sur la marge de bénéfice.  »

La solution mise en place vise donc à proposer, pour chaque voiture, une « carte génomique » qui indiquerait la qualité de la réalisation de toutes les étapes de la chaîne de production, afin d’avoir une vue d’ensemble et une analyse de parcours pour chaque objet. « C’est un peu comme une fractale, nous avons un principe de base que l’on réplique jusqu’à avoir le motif final, sur lequel on observera facilement les anomalies », commente Serigne Gaye.

« Un modèle pour chaque type de soudure pour chaque robot »

Actuellement, seules les opérations de tôlerie – ferrage et soudure – sont encodées, tandis que les phases d'emboutissage et de peinture sont en cours. Une seule étape, cependant, représente déjà un défi technique : « Les analytiques sont conduits à plusieurs niveaux, expose Denis Molin, data scientist chez Teradata. Nous devons non seulement gérer – créer, entraîner et exécuter – un modèle pour chaque soudure, ce qui représente plusieurs millions de modèles de machine learning par jour, mais nous orchestrons également un modèle pour chaque type de soudure pour chaque robot. »

Chaque modèle va être construit à partir des données recueillies sur les différentes machines (température, impédance...), traduites sous forme de courbes sur lesquelles un expert peut visuellement repérer les anomalies. Le nombre de modèles grimpe très vite. « Il est illusoire de penser qu’un modèle analytique ayant appris d’un robot puisse être appliqué sans ajustement sur un autre robot, fussent-ils du même modèle », assène Denis Molin.

Jusqu'à un milliard de modèles pour l'ensemble des opérations

Pour ce seul cas d’usage du contrôle qualité de la tôlerie, ce sont plusieurs millions de modèles qu'il faut gérer. Estimation qui permet à Teradata d’avancer qu’il faudra pour l’ensemble des cas d’usages couvrant l’usine, un milliard de modèles de Machine Learning. Chiffre qui parait à Denis Molin « réaliste, et peut-être même, en dessous de la réalité. »

Si ce système permet à l’opérateur de détecter les anomalies et d’estimer leur gravité dans les quinze minutes, reste la question de son intérêt décisionnel. « C’est certain qu’il ne saura pas si cela vaut le coup de stopper la chaîne de production, admet-il. Mais aujourd’hui ce que cela apporte, c’est une augmentation de la puissance de réactivité, et une connaissance concrète de ce qu’il se passe sur le terrain. »

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Trois plateformes XDR lancées lors des Assises de la cybersécurité

Centraliser les données de cybersécurité de différentes sources pour assurer une analyse globale en évitant la[…]

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Comment Owkin entraîne des modèles d'IA sans transférer les données avec le federated learning

Cybersécurité industrielle : 6 mois pour sécuriser une usine

Dossiers

Cybersécurité industrielle : 6 mois pour sécuriser une usine

La mémoire quantique fait une entrée fracassante dans la course à l'ordinateur quantique

La mémoire quantique fait une entrée fracassante dans la course à l'ordinateur quantique

Plus d'articles