Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies

Facebook Twitter Google + Linkedin Email
×

partager sur les réseaux sociaux

Intelligence artificielle : "la perte de contrôle a déjà commencé"

| | |

Par publié le à 09h15

Intelligence artificielle : la perte de contrôle a déjà commencé

Comment favoriser la recherche française en matière d’intelligence artificielle ? Cette question, soulevée par le gouvernement, a fait l’objet de recommandations proposées par 500 experts dans un rapport #FranceIA. Suite à cette publication, Fortunato Guarino, de Guidance Software, réagit. 

« Défini et donc dépassionné, le débat sur l’inteligence artificielle (IA) n’en reste pas moins essentiel car les risques qu’elle comporte n’ont rien à envier à la science-fiction. Depuis 2015 surtout, la presse s’est fait l’écho des craintes formulées par Elon Musk, Bill Gates ou encore Stephen Hawking sur les risques et dérives possibles de l’IA. Si le physicien redoute la fin de la race humaine, Bill Gates et Elon Musk craignent la perte brutale de nombreux emplois, ayant d’ailleurs donné lieu à la proposition de taxation des robots, mais également des problèmes éthiques, des chocs de ruptures sociétales et la perte de contrôle de pans entiers de la vie économique. À y regarder de plus près, cela ne s’arrête pas là et n’est pas si nouveau.

Même si un rapport de 2012 a exonéré de responsabilité ce qu’on appelle le trading à haute fréquence, pratique boursière consistant à passer des ordres automatisés à des vitesses toujours plus rapides grâce à des programmes informatiques très sophistiqués, rappelons-nous du mini krach boursier du 6 mail 2010, à Wall Street. S’il y a bel et bien un secteur qui utilise de l’IA depuis longtemps, c’est le monde de la finance. Si le marché était certes instable ce 6 mai et que c’est la cause première du krach, le rapport démontre bien que l’IA a facilité et encouragé le mouvement. Peu importe les répercussions et le moment, une IA boursière est conçue pour battre une IA boursière concurrente et gagner de l’argent, et il n’est pas question de la stopper.

"La perte de contrôle a déjà commencé" 

Qu’on se le dise, la perte de contrôle a déjà commencé sans que l’on en soit très conscient, et la maîtrise des marchés n’est pas anodine. Le nombre et la vitesse de calculs sont tels sur les marchés que les traders seraient bien dans l’incapacité aujourd’hui de reprendre la main sur les processus boursiers, sans que les bouleversements soient fortement impactants. Les risques soulevés ont également concerné l’éthique. Des études planchent par exemple sur les choix cornéliens posés aux véhicules intelligents, comme celui d’un accident inévitable qui conduit soit à renverser une personne ou à se précipiter dans un ravin, ou encore à « choisir » entre renverser un adulte ou un enfant. Ce n’est donc que par la masse des boucles décisionnelles que l’IA intègre qu’elle adapte son comportement et l’affine. Il est donc impossible d’envisager tous les cas de figure, mais on peut imaginer qu’à terme, certaines IA intégreraient un socle de grands principes moraux partagés par tous.

Mais que se passe-t-il lorsqu'une même situation peut donner lieu à deux réponses différentes, suivant le code moral, propre au propriétaire du véhicule ? Comment prendre en compte les croyances des uns et des autres, la spiritualité ou le rapport aux risques des uns et des autres ? Que peut faire l’IA face aux problématiques de personnalisation ? De la même façon, l’IA comprend-elle la force majeure ? Pour illustrer le propos, prenons le cas d’un véhicule autonome dont l’objectif est d’assurer la sécurité, qui estimerait que rouler sur un batracien traversant une nationale est moins dangereux pour les occupants que de faire une embardée, alors même que le propriétaire du véhicule est un défenseur avéré de la cause animale ? Et pour dérouler le sujet jusqu’au bout, quelle serait l’issue d’une plainte de ce même conducteur qui estimerait que le comportement de son véhicule a violé ses croyances ?

Un comportement non habituel ne signifie pas qu’il soit illégitime. Si le véhicule a estimé que rouler sur la grenouille constituait un risque de 3%, contre une embardée à 10%, comment également apprécier le rapport aux risques propre à chacun ? Le conducteur aurait-il gain de cause en estimant que la prise de risques à 10% valait bien la vie de la grenouille ? Et qui serait responsable ? Le dirigeant ? Le développeur ? Le RSSI ? Toutes ces questions laissent entrevoir les nœuds de problèmes que nous promet l’IA. Est-ce à dire que nous nous dirigeons vers des conditions générales d’achat longues comme le bras, accumulant les exceptions de responsabilité pour l’achat d’une simple voiture ?

La sécurité de l'IA, un risque oublié !

Nous venons de voir que là où l’Homme peut adapter en permanence son objectif à la situation, celui d’une IA est limité et ancré. Il peut rendre son comportement certes logique, mais en inadéquation totale avec une situation donnée et donc dangereuse. Pour certaines applications, les résultats peuvent en être dramatiques. Une réponse inadaptée d’une IA sur des points sensibles d’une chaîne de production ou de l’IA sur des systèmes de sécurité informatique peut faire craindre le pire, et l’inverse de tout ce pour quoi ces IA sont conçues.

Mais si ici, c’est la réponse de l’IA qui en cause par manque d’apprentissage, il est un autre risque dont on parle peu. Quid en effet de la cybersécurité de l’intelligence artificielle ? Alors que la cybercriminalité est en tête de liste des menaces, les IA sont-elles aujourd’hui conçues de façon sécurisée, non seulement à travers les lignes de codes qui les constituent, mais également dans les environnements dans lesquels elles évoluent ? Si l’IA est développée par les mêmes communautés que celles des objets connectés, on peut craindre la formation à la sécurité soit particulièrement insuffisante.

Si l’image d’une IA prenant conscience d’elle-même et faisant ses propres choix, comme HAL9000 dans l’Odyssée de l’espace de Stanley Kubrick, est encore du ressort de l’imaginaire, il n’est nullement fantaisiste de redouter que des personnes malveillantes puissent prendre le contrôle de telles puissances pour en détourner leur fonction originelle. La prise de contrôle à distance d’un véhicule autonome pour commettre un assassinat est un exemple extrême, mais bien plausible.

Comme en son temps où la bioéthique a permis de canaliser les champs du possible de la biologie, l’IA doit pouvoir évoluer dans un cadre réglementé et contrôlé. Le GDPR, un réglement européen qui introduira en 2018 des règles sur la gestion des données personnelles, va baliser leur exploitation. De la même façon, on peut espérer que les travaux lancés par le gouvernement le 20 janvier dernier pour aboutir à une Stratégie Nationale en Intelligence Artificielle sera l’occasion de plancher sur ces problématiques. Le groupe de travail, qui ne compte malheureusement aucun expert en cybersécurité, doit contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle et répondre aux inquiétudes qu’elle suscite. Affaire à suivre… »

Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur