Stephen Hawking à la première du biopic consacré à sa vie, «Hawking», à Cambridge le 19 septembre 2013.
Stephen Hawking à la première du biopic consacré à sa vie, «Hawking», à Cambridge le 19 septembre 2013. - REX/Jason Bye/REX/SIPA

L’intelligence artificielle fait fantasmer et trembler. D’Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l’homme d’une machine intelligente ont déjà été explorés dans d’innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l’intelligence artificielle, la science rejoint la science-fiction.

«Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l’humanité»

«Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme, écrit l’éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».

«On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu’on ne peut pas même comprendre», poursuit le scientifique. «L’incidence à court-terme de l’intelligence artificielle dépend de qui la contrôle, mais l’impact à long-terme dépend de la possibilité réelle de la contrôler.» Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, «alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l’humanité».

Mots-clés :