Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies

Article Précédent
Article Suivant
Facebook Twitter Google + Linkedin Email
×

Intelligence artificielle : faut-il en avoir peur, comme Elon Musk ou Stephen Hawking ou Bill Gates ?

| | |

Par publié le à 07h00

Intelligence artificielle : faut-il en avoir peur, comme Elon Musk ou Stephen Hawking ou Bill Gates ?

Dangereuse, l'intelligence artificielle ? Certains experts, même technophiles, le pensent. Pour en faire au contraire une innovation bénéfique pour la société, plusieurs initiatives ont été lancées.

Elon Musk, Stephen Hawking et Bill Gates ont un point commun. Tous affirment voir dans l'intelligence artificielle, sujet de notre dossier complet, une potentielle menace pour l'humanité. Dans une tribune publiée dans le quotidien britannique The Independant, l'astrophysicien a affirmé que « réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme », en ajoutant que ce « pourrait aussi être le dernier ». Pour Elon Musk, l'entrepreneur qui a créé Paypal, Tesla Motors et SpaceX, elle pourrait même être plus dangereuse que les armes nucléaires et relève du « démon ». Le cofondateur de Microsoft a, lui, reconnu être d'accord « avec Elon Musk et d'autres » et ajouté ne pas comprendre « pourquoi les gens ne sont pas inquiets ».

Yann Lecun, à la tête du laboratoire d'intelligence artificielle de Facebook, se veut, quant à lui, plus rassurant. « Le livre Superintelligence de Nick Bostrom a beaucoup influencé Elon Musk. Il y a trouvé des preuves des dangers de l'intelligence artificielle... alors que de nombreux scenarios de l'ouvrage sont complètement improbables », assure-t-il. Selon lui, de nombreux obstacles restent encore à franchir pour construire des machines dotées d'une intelligence humaine. Il estime d'ailleurs qu'il faut davantage se concentrer sur des problèmes concrets, « comme s'assurer de la bonne sécurité d'un système de pilotage automatique », par exemple.

Le féru de deep learning admet toutefois que l'intelligence artificielle peut potentiellement être dangereuse, « comme toutes les technologies puissantes ». Il fait partie des scientifiques qui se sont engagés à développer une intelligence artificielle robuste et bénéfique pour la société. Selon lui, des symposiums vont être organisés pour s'interroger sur les dangers et établir des règles de déontologie.

 

La rendre acceptable pour mieux la déployer

 

Une démarche déjà entamée par le Future of Life Institute, à qui Elon Musk a fait un don de 10 millions de dollars pour financer 37 projets de recherche qui visent à identifier les dangers liés à l'intelligence artificielle. Dans la même veine, l'université de Stanford compte mener une série d'études sur le sujet pendant 100 ans. Une initiative financée par Éric Horvit... le directeur de Microsoft Research Redmond.

Il n'est pas anodin que ce soit ceux qui se positionnent comme des lanceurs d'alertes qui financent ces travaux. Même lorsqu'ils semblent jouer les Cassandre, l'objectif réel de ces personnalités, pourrait être en effet de faire de la prévention d'objection, et de faciliter en fait le déploiement de l'intelligence artificielle en la rendant acceptable. Leur crainte affichée n'est en tout cas aucunement synonyme de désintérêt, loin s'en faut. Elon Musk a ainsi massivement investi dans les start-up Vicarious et DeepMind, spécialistes du sujet. Sa société Tesla Motors s'apprêterait à lancer un modèle de voiture à 90 % autonome sur autoroute. Et, l'entrepreneur a même laissé entendre qu'il faudrait, à terme, interdire la circulation des voitures conduites par les humains pour des raisons de sécurité...

Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur