Nous suivre Industrie Techno

abonné

Ces plates-formes collaboratives qui mettent la data science à portée des industriels

Alain Clapaudredaction@industrie-technologies.com
Ces plates-formes collaboratives qui mettent la data science à portée des industriels

Ces dernières années, les industriels ont mis en place des datalabs, lieux feutrés où les data scientists ont pu élaborer les premiers modèles d’intelligence artificielle. Il est désormais temps d’associer les experts métiers au développement d’algorithmes. C’est le rôle des plates-formes de nouvelle génération.

De plus en plus de domaines, de plus en plus de tâches peuvent bénéficier de modèles d’intelligence artificielle (IA) pour être plus efficaces et plus agiles. Mais pour étendre ces usages, il faut maintenant abattre les murs des datalabs et permettre à tous les experts métiers de collaborer, voire de développer eux-mêmes leurs algorithmes d’IA. La plate-forme Watson d’IBM est sans doute la plus emblématique de cette tendance, mais il en existe bien d’autres qui constituent une nouvelle génération et marquent une maturité des entreprises dans leur usage des data sciences.

La première caractéristique de ses plates-formes, c’est leur vaste couverture fonctionnelle, comme l’explique Alexis Fournier, expert en machine learning chez Dataiku : « Nous proposons une plate-forme end-to-end, c’est-à-dire capable de couvrir l’ensemble des tâches qui ponctuent le cycle de vie du modèle. L’idée est d’avoir une interface unique pour définir les sources de données, les analyser, concevoir et tester le modèle jusqu’à le déployer dans l’infrastructure. » Reprise chez de nombreux éditeurs de plates-formes, cette approche se traduit par des capacités d’intégration et de manipulation des données très développées.

Faire cohabiter experts métiers et codeurs

Le système doit être capable de se connecter à l’ensemble des sources de données potentiellement exploitables par un algorithme, que celles-ci soient structurées (base de données), semi-structurées (fichiers XML) ou non structurées (textes, images, sons). Il doit surtout fournir des outils de préparation de données qui vont permettre à un data engineer et à un expert métier de travailler sur les données pour les rendre exploitables par un algorithme d’IA. « Un data scientist passe 80 % de son temps à travailler sur la donnée, indique Alexis Fournier. Il faut capitaliser et promouvoir au maximum la réutilisation de ce travail dans l’entreprise. De même, une plate-forme moderne doit offrir à ses utilisateurs des outils interactifs de manipulation de données, de tests du modèle sur un échantillon de données jusqu’à son déploiement dans le cloud public ou sur un serveur de l’entreprise.

La conséquence directe de cette volonté de concentrer tous les outils sur une même plate-forme est que des profils très différents sont amenés à travailler sur la même interface. Les informaticiens de la DSI (direction des systèmes d’information) vont venir y paramétrer les sources de données, les data scientists vont venir coder leurs algorithmes directement dans leur langage préféré, qu’il s’agisse de SQL, de Python ou des langages spécialisés R et SAS, et exploiter les librairies d’algorithmes développées dans ces langages et qui font référence. Enfin, les experts métiers doivent, eux aussi, exploiter la plate-forme pour analyser leurs données. Il est difficile, voire impossible, de former ces profils non informaticiens à des langages complexes et de les contraindre à développer.

La solution des éditeurs est de proposer un mode dual : les data scientists peuvent continuer à coder leurs algorithmes manuellement dans le langage de leur choix, tandis que les experts métiers disposent d’un mode de type « no-code ». L’interface graphique leur permet d’élaborer un modèle en manipulant des algorithmes prêts à l’emploi, sous forme de composants. « Nous nous adressons à tous les utilisateurs potentiels de la donnée dans l’entreprise », argumente Raphaël Savy, le directeur pour l’Europe du Sud de l’éditeur américain Alteryx. « Les utilisateurs métiers doivent pouvoir résoudre les problématiques sur lesquelles ils restent les mieux placés pour trouver une solution, c’est ce que l’on appelle les citizen data analysts. » Le logiciel Alteryx Designer propose plus de 250 composants prêts à l’emploi, que les experts pourront manipuler pour analyser leurs données sans[…]

Pour lire la totalité de cet article, ABONNEZ-VOUS

Déjà abonné ?

Mot de passe perdu

Pas encore abonné ?

vous lisez un article d'Industries & Technologies N°1034

Découvrir les articles de ce numéro Consultez les archives 2020 d'Industries & Technologies

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

« Avec l’ADN, l’ensemble des données mondiales pourraient être stockées dans le volume d’une camionnette », clame François Képès, membre de l’Académie des Technologies

« Avec l’ADN, l’ensemble des données mondiales pourraient être stockées dans le volume d’une camionnette », clame François Képès, membre de l’Académie des Technologies

Les besoins de l'humanité pour le stockage de données s'accélèrent depuis quelques années, au point que les[…]

Véhicule autonome : « La barre a été mise trop haut, mais cela a réveillé tout l'écosystème », souligne Fawzi Nashashibi (Inria)

Dossiers

Véhicule autonome : « La barre a été mise trop haut, mais cela a réveillé tout l'écosystème », souligne Fawzi Nashashibi (Inria)

Une LED à quantum dot bleue plus stable et lumineuse

Fil d'Intelligence Technologique

Une LED à quantum dot bleue plus stable et lumineuse

Total dévoile ses recherches dans l'utilisation du calcul quantique lors du Quantum Computing in Paris-Saclay

Total dévoile ses recherches dans l'utilisation du calcul quantique lors du Quantum Computing in Paris-Saclay

Plus d'articles