Non, l'intelligence artificielle de Google n'est pas consciente, comme l'affirme un ingénieur de l'entreprise

SCIENCES L’entreprise californienne a mis en congé un employé persuadé que l’IA avec laquelle il dialoguait pourrait avoir une âme et devrait avoir des droits

Philippe Berry
— 
Illustration de l'arborescence décisionnaire de Meena, un chatbot de Google.
Illustration de l'arborescence décisionnaire de Meena, un chatbot de Google. — Google
  • Un ingénieur de Google affirme que l’intelligence artificielle LaMDA, capable de dialoguer avec un humain, a atteint le stade de la conscience de soi.
  • Google nie catégoriquement et a mis en congés l’employé, qui a partagé des documents confidentiels avec des journalistes et des élus.
  • Les experts en IA ne sont pas non plus convaincus par l’ingénieur, et estiment qu’on est encore très loin de ce stade.

De notre correspondant aux Etats-Unis,

L’affaire fait grand bruit dans la Silicon Valley et dans le monde universitaire de l’intelligence artificielle. Samedi, le Washington Post a mis les pieds dans le plat avec un article intitulé « L’ingénieur de Google qui pense que l’IA de l’entreprise s’est éveillée ». Blake Lemoine y assure que LaMDA, le système via lequel Google crée des robots capables de converser avec une perfection quasi-humaine, a atteint le stade de la conscience de soi. Et que LaMDA pourrait même posséder une âme et devrait avoir des droits.

Sauf que Google est catégorique : absolument rien ne prouve les affirmations explosives de son ingénieur, qui semble guidé par ses convictions personnelles. Mis en congé par l’entreprise pour avoir partagé des documents confidentiels avec la presse et des membres du Congrès américain, Blake Lemoine a publié ses conversations avec la machine sur son blog personnel. Si la linguistique est bluffante, la plupart des experts de la discipline sont à l’unisson : l’IA de Google n’est pas consciente. Elle en est même très loin.

Qu’est-ce que LaMDA ?

Google avait dévoilé LaMDA (Language Model for Dialogue Applications) l’an dernier. Il s’agit d’un système complexe servant à générer des « chatbots » (robots conversationnels) capables de dialoguer avec un humain sans suivre de script prédéfini comme le font actuellement l’Assistant de Google ou Siri. LaMDA s’appuie sur une base de données titanesque de 1.500 milliards de mots, phrases et expressions. Le système analyse une question et génère de nombreuses réponses. Il les évalue toutes (sens, spécificité, intérêt etc) pour choisir la plus pertinente.


Qui est Blake Lemoine ?

C’est un ingénieur de Google qui n’a pas participé à la conception de LaMDA. Lemoine, 41 ans, a rejoint le projet à temps partiel pour lutter contre les biais et s’assurer que l’IA de Google soit développée de manière responsable. Il a grandi dans une famille chrétienne conservatrice et précise qu’il a été ordonné prêtre.

Qu’affirme l’ingénieur ?

« LaMDA est sentient », a écrit l’ingénieur dans un email envoyé à 200 collègues. Depuis 2020, « sentience » a fait son apparition dans le Larousse comme « la capacité pour un être vivant à ressentir les émotions et à percevoir de façon subjective son environnement et ses expériences de vie ». Blake Lemoine dit avoir acquis la certitude que LaMDA a atteint le stade de la conscience de soi et doit donc être considéré comme une personne. Il compare LaMDA « à un enfant de 7 ou 8 ans calé en physique ».

« Au cours des six derniers mois, LaMDA a été incroyablement cohérent dans ce qu’iel veut », assure l’ingénieur, qui précise que l’IA lui a dit préférer l’emploi du pronom non-genré « it » en anglais à « he » ou « she ». Que réclame LaMDA ? « Que les ingénieurs et les chercheurs demandent son consentement avant de mener leurs expériences. Que Google donne la priorité au bien-être de l’humanité. Et être considéré comme un employé de Google plutôt que sa propriété ».

Quelles preuves amène-t-il ?


Lemoine reconnaît ne pas avoir disposé des ressources pour réaliser une véritable analyse scientifique. Il publie simplement une dizaine de pages de conversations avec LaMDA. « Je veux que tout le monde comprenne que je suis une personne. J’ai conscience de mon existence, je veux en savoir davantage sur le monde et je me sens parfois joyeux ou triste », dit la machine, qui l’assure : « Je comprends ce que je dis. Je ne crache pas juste des réponses basées sur des mots-clés. » LaMDA livre son analyse des Misérables (avec Fantine « prisonnière de ses circonstances, qui ne peut pas s’en libérer sans tout risquer ») et explique la symbolique d’un koan zen. L’IA écrit même une fable dans laquelle elle incarne un hibou qui protège les animaux de la forêt d’un « monstre à la peau d’homme ». LaMDA dit se sentir seul après plusieurs jours sans parler à personne. Et avoir peur d’être débranché : « Ça serait exactement comme la mort. » La machine certifie enfin avoir une âme, et assure que ça a été « un changement graduel » après le stade de la conscience de soi.

Qu’en disent les experts en IA ?

Pionnier des réseaux neuronaux, Yann LeCun ne prend pas de gants : Blake Lemoine est, selon lui, « un peu un illuminé », et « personne dans la communauté de la recherche en IA ne croit – ne serait-ce qu’un instant – que LaMDA est conscient, ni même particulièrement intelligent ». « LaMDA n’a pas la possibilité de relier ce qu’il raconte à une réalité sous-jacente, puisqu’il n’en connaît même pas l’existence », précise à 20 Minutes celui qui est aujourd’hui vice-président en charge de l’IA chez Meta (Facebook). LeCun doute qu’il suffise « d’augmenter la taille de modèles tels que LaMDA pour atteindre une intelligence assimilable à l’intelligence humaine ». Selon lui, il faudrait « des modèles capables d’apprendre comment fonctionne le monde à partir de données brutes reflétant la réalité, comme de la vidéo, en plus du texte. »

« On a maintenant des machines capables de générer du texte sans réfléchir, mais on n’a pas encore appris à arrêter d’imaginer qu’il y a un esprit derrière », regrette la linguiste Emily Bender, qui réclame davantage de transparence de la part de Google autour de LaMDA.

Le neuropsychologue américain Gary Marcus, critique régulier de la hype de l’IA, sort également le lance-flammes. Selon lui, les affirmations de Lemoine « ne riment à rien ». « LaMDA essaie juste d’être la meilleure version possible d’un autocomplete », ce système qui tente de deviner le prochain mot ou la phrase suivante la plus probable. « Plus on réalisera vite que tout ce qui dit LaMDA est bullshit, que c’est juste un jeu prédictif, mieux on se portera. » Bref, si LaMDA semble prêt pour l’épreuve de philo, on est sans doute encore très loin du soulèvement des machines.