Intelligence artificielle: Des scientifiques lancent une pétition contre les « robots tueurs »

HIGH-TECH Stephen Hawking et consorts s'inquiètent d'une « course à l'armement »...

20 Minutes avec agence

— 

Des robots du film «I, Robot».
Des robots du film «I, Robot». — 20 Minutes

Stephen Hawking, astrophysicien britannique, Elon Musk, patron de Tesla et de Space X, ou encore, le linguiste américain Noam Chomsky et Steve Wozniak, cofondateur d’Apple, dénoncent, dans une lettre ouverte publiée ce lundi*, les potentielles dérives liées à l’intelligence artificielle (IA) et aux « robots tueurs ».

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », lâchent ces sommités du monde scientifique dans cette lettre faisant office de pétition et rendue publique lors de l’IJCAI, une conférence internationale sur l’IA qui se tient à Buenos Aires (Argentine) jusqu’au 31 juillet.

Faut-il avoir peur des robots tueurs ?

« Combattre des cibles sans intervention humaine »

Ainsi, Stephen Hawking et consorts s’inquiètent d’une « course à l’armement » qui pourrait être démarrée par une grande puissance militaire comme les Etats-Unis et qui serait forcément suivie par d’autres pays. Ils réclament l’interdiction des « robots tueurs », ces armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ». D’autant plus, selon leurs prédictions, que « contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ».

« Atterrir dans les mains de terroristes »

La conséquence la plus grave pour les chercheurs serait que le marché noir pourrait s’emparer de ces marchandises, qui pourraient potentiellement « atterrir dans les mains de terroristes ». L’ONG Human Rights Watch avait lancé sa propre mise en garde, en mai, rappelle Le Monde. « Ces machines inanimées ne pourraient pas comprendre ou respecter la valeur de la vie, mais elles auraient le pouvoir de déterminer quand y mettre fin », avait ainsi annoncé l’organisation dans un rapport sur les dangers des « robots tueurs ».

Pour rappel, en décembre dernier, dans un entretien accordé à la BBC, Stephen Hawking avait déclaré que l’intelligence artificielle pouvait « dépasser l’humanité », et « mettre fin à la race humaine ». Selon lui, la sous-estimer serait « la plus grave erreur de notre histoire ». Début juillet, Elon Musk, avait annoncé soutenir grâce à des dons de plusieurs millions de dollars 37 projets de recherches destinés à prévenir les risques liés à l’IA.

*La lettre a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, note Le Monde, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain ».