VIDEO. Une intelligence artificielle pourrait tomber entre de mauvaises mains, avertissent des experts

SCIENCES Drones tueurs, piratage, désinformation... Un rapport fait le point sur les risques...  

20 Minutes avec AFP

— 

Un salon sur le «big data» en Chine (illustration).
Un salon sur le «big data» en Chine (illustration). — CHINE NOUVELLE/SIPA

En matière d’intelligence artificielle, Elon Musk et Stephen Hawking jouent à se faire peur depuis un moment. Mais le vrai risque, selon un rapport d’experts publié mercredi (pdf), est qu’une IA développée par des chercheurs pleins de bonnes intentions tombe entre de mauvaises mains, notamment celles d’Etat voyous ou de terroristes.

Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle (IA), cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l’intelligence artificielle. « Nous pensons que les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport. Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs « scénarios hypothétiques » d’utilisation mal intentionnée de l’IA.

Détournement de drone

Ils soulignent que des terroristes pourraient modifier des systèmes d’IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions.

Les auteurs imaginent ainsi le cas d’un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d’autres robots chargés de faire le ménage dans un ministère berlinois. Un jour l’intrus passerait à l’attaque après avoir reconnu visuellement la ministre des Finances. Il se rapprocherait d’elle et exploserait de façon autonome, tuant sa cible.

Par ailleurs, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l’IA », déclare à l’AFP Seán Ó hÉigeartaigh, directeur du « Centre for the Study of Existential Risk » de l’Université de Cambridge, un des auteurs du rapport.

Des fausses vidéos plus vraies que nature

Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle. Mais pour lui, « le risque le plus sérieux, même si il est moins probable, est le risque politique ». « Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d’interférer dans les élections et la démocratie ».

« Si l’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime Seán Ó hÉigeartaigh. Avec l’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport. Les États autoritaires vont aussi pouvoir s’appuyer sur l’IA pour renforcer la surveillance de leurs citoyens, ajoute-t-il.