Promis, Google n'aidera pas le gouvernement à fabriquer des robots-tueurs

IA Après une grosse polémique et la fronde de ses employés, Google a capitulé...

20 Minutes avec AFP

— 

Le directeur général de Google, Sundar Pichai, à la conférence IO, le 18 mai 2016.
Le directeur général de Google, Sundar Pichai, à la conférence IO, le 18 mai 2016. — JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP

Sous la pression de milliers d’employés, Google s’est engagé jeudi à ce que ses travaux en matière d’intelligence artificielle (IA) ne servent pas à fabriquer des armes, sans pour autant renoncer à collaborer avec des gouvernements ou des militaires.

« Nous avons conscience qu’une technologie aussi puissante soulève aussi d’importantes questions à propos de son usage », a écrit le numéro un Sundar Pichai, en énumérant sur le blog du groupe une série de principes éthiques sur les usages de l’intelligence artificielle.

Google fait face depuis plusieurs semaines à une fronde de nombreux employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l’intelligence artificielle, un projet baptisé « Maven ».

Pétition signée par 4.000 employés

Plus de 4.000 d’entre eux ont signé une pétition demandant à Sundar Pichai de rester en dehors du « commerce de la guerre » et de renoncer au contrat, évalué par la presse à environ 9 millions de dollars. Ils lui demandaient aussi « une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre », contraire selon eux aux valeurs fondatrices de l’entreprise née il y vingt ans.

Devant ce tollé, le groupe avait annoncé en interne la semaine dernière qu’il ne renouvellerait pas ce contrat en 2019. Pour les organisations Electronic Frontier Foundation (EFF) ou le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l’apport de l’intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant selon elles un problème éthique majeur.

Crainte des robots-tueurs

L’armée américaine, comme beaucoup d’autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple.

Des voix, comme celle du médiatique patron de Tesla et SpaceX Elon Musk, mettent en garde régulièrement contre les usages abusifs de l’intelligence artificielle, craignant, comme l’ONU, l’avènement d’armes autonomes, ou « robots-tueurs ». Dans un tweet, l’EFF a salué la décision de Google, évoquant « une grande victoire pour les principes d’une IA éthique ».

Des salariés ont aussi exprimé leur satisfaction sur Twitter. François Chollet, ingénieur informatique dans l’intelligence artificielle au sein du géant américain, a ainsi dit « Merci @sundarpichai. Très heureux de voir ça » tandis que son collègue Laurence Moroney, qui travaille lui aussi dans l’AI, a tweeté : « Ca me rend très heureux d’être un ''Googler'' », le surnom des employés du groupe.