Un roboticien met «Westworld» en mode «analyse»

INTERVIEW Fabrication 3D, dangerosité ou conscience des robots… On a fact-checké la nouvelle série culte d’HBO, diffusée en France sur OCS, avec le directeur de la recherche de SoftBank Robotics (Nao, Roméo et Pepper)... 

Annabelle Laurent et Anne Demoulin

— 

Evan Rachel Wood (Dolores)
Evan Rachel Wood (Dolores) — HBO

Dolores, Maeve et le docteur Ford seront-ils bientôt parmi nous? Sans rien révéler des rebondissements de Westworld, la série qui vient d’arracher à Game of Thrones le meilleur lancement historique d’une production HBO, notre impatience est… mitigée à l’idée de voir débarquer sur Terre ces androïdes que rien ne distingue des humains. Mais est-ce seulement envisageable à long terme ?

Rodolphe Gélin

Westworld, are you real ? Pour y voir plus clair, nous avons sollicité Rodolphe Gelin, directeur de la recherche de SoftBank Robotics (anciennement Aldebaran Robotics), qui fabrique les robots Nao, Roméo et Pepper.

Promis, pas de spoilers. Vous pouvez lire l’interview si vous n’en êtes pas encore aux révélations du finale.

« Dolores, analysis ». « Cognition only, no emotional affect » («Aucune émotion »). Ou encore « Freeze all motor functions » (« Gèle toutes tes fonctions motrices »). Ce mode d’interaction avec les robots est-il réaliste ? 

Oui. Il faut choisir le bon mot-clé, qui soit assez rare. C’est un problème auquel nous sommes confrontés. « Analysis », c’est un peu risqué car une fois dans le parc, si un « analysis » sort de la bouche d’un visiteur, ça risque de casser l’ambiance…
Le « Freeze all motor functions » est possible et même souhaitable. Nous avons aussi un bouton d’arrêt d’urgence : on leur tape sur la tête ou on leur cache les yeux, ce sont 2-3 gestes à la fois intuitifs mais pas évidents, qui vont le stopper.
« Cognition only, no emotional affect » : ça, c’est très bien. Nous pouvons, nous aussi, « désasservir les moteurs » : le robot reste allumé mais on coupe la puissance des moteurs. Il ne peut plus bouger, on sait qu’il ne va pas tomber, rien faire de mal, mais on peut continuer à aller voir ce qui se passe dans sa tête. Bon, on ne fait pas comme Bernard, « Dis-moi ce que tu as ressenti à ce moment-là… », nous on ouvre une fenêtre de debug et on va regarder la variable.

Des robots fabriqués avec une sorte d’imprimante 3D, c’est crédible ?

Beaucoup de nos robots sont fabriqués au début en impression 3D. Ce n’est pas irréaliste. Nous ne savons pas faire pour le moment la matière souple qu’ils étendent dans Westworld, mais on commence à imprimer du déformable. Dans le principe, on peut imaginer que le futur aille dans ce sens, avec des bras robotisés d’assez grande ampleur pour faire de grands volumes. C’est pas mal vu.

Une mise à jour logicielle sème la pagaille…

Malgré tous nos tests, certaines mises à jour provoquent des bugs, on s’est reconnu dans cet aspect de la série. Comme celle qui fait qui fait bugger le père de Dolores dans les premiers épisodes. Même eux qui sont très très forts connaissent ces problèmes, ça fait plaisir ! (Rires)

La dernière génération de robots du parc a des organes…

Les robots de Westworld boivent et mangent, c’est peut-être leur façon de se recharger. La question de l’énergie est cruciale en robotique. Des essais ont été faits en ce sens. Le robot SlugBot mangeait des limaces et en tirait son énergie. C’est peut-être l’avenir de la robotique que de trouver des sources d’énergie. Notre robot Roméo n’a pas beaucoup de place pour des batteries, et n’a qu’une heure et demie d’autonomie. Là, il y a un gros challenge technique.

Leur peau et leurs yeux imitent ceux des humains : pourrait-on arriver un jour à un tel niveau de mimétisme ? Le robot Sophia d’Hanson Robotics peut déjà imiter 63 expressions faciales

Hanson Robotics obtient des résultats très ressemblants, tout comme le professeur Hiroshi Ishiguro. Tant que le robot ne bouge pas, c’est assez bluffant ! Le grain de la peau est bien ressemblant, les yeux sont brillants. Après, fonctionnellement, c’est difficile d’avoir toutes les performances de la peau humaine, il faut qu'elle puisse cicatriser... Mais l’apparence, ça se fait.

L’utilité de leur apparence humanoïde fait débat au siège de Westworld

Un des ressorts dramatiques de la série est de savoir qui est un robot et qui ne l’est pas. Chez Softbank Robotics, c’est précisément ce que nous ne voulons pas. Quand les gens sont en face d’un robot, nous souhaitons qu’ils le sachent. On chasse tout ce qui peut mettre de la suspicion ou de l’inquiétude: on leur donne des bonnes têtes, ils sont gentils, jolis, et les gens ne se sentent pas menacés.

Ensuite si l’on fait comme Ishiguro un robot très ressemblant, il faut que le comportement suive : sinon, quand vous verrez le robot marcher, parler, bouger, il y aura une telle différence que vous aurez l’impression de voir un débile mental ou un zombie, et ce décalage rendrait les gens extrêmement mal à l’aise.

Après, tout dépend des applications. A Westworld, cela s’impose : si vous voulez avoir l’impression de jouer au cow-boy, il faut créer l’illusion. Et comme la majeure partie du plaisir de ce parc semble être d’avoir des relations sexuelles avec des robots, c’est quand même mieux que ce soit avec une belle fille ou avec un beau garçon qu’avec une boîte de conserve…

«Le côté "je fais tout tout seul" du Docteur Ford est une vue de l’esprit»

Ford semble être un démiurge sans garde-fous…

Le côté « je fais tout tout seul » du Docteur Ford est une vue de l’esprit. Un homme ne peut pas programmer un robot seul aujourd’hui.

Il a notamment pu faire la mise à jour des « rêveries » sans contrôle d’un tiers ? 

Si quelqu’un faisait une modification non demandée sur un robot, comme inclure des « rêveries », il faudrait qu’il la teste longuement, puis procède à la mise à jour. Les responsables des mises à jours la verraient, non documentée… On surveille que les gars n’oublient pas de documenter les modifications qu’ils ont faites: glisser une nouvelle fonction, c’est difficile de faire ça dans son coin.

Peut-on imaginer un robot faire du mal ou tuer un humain ? Qu’en est-il des trois lois de la robotique d’Asimov ?

Un robot, comme un humain, ne peut pas estimer toutes les conséquences de ses actes. On peut s’engager sur des choses concrètes, faire en sorte que le robot ne tape pas sur les gens, fasse attention à ne pas appliquer des pressions trop fortes, à ne pas dire des gros mots, etc. Personne ne peut s’engager qu’un robot ne tuera jamais personne. Nous fournissons un robot, et ensuite, des personnes peuvent mettre des programmes dessus. L’idée d’Asimov était de mettre un programme en dessous des autres qui confère une espèce de conscience pour surveiller les autres programmes. Comment le robot peut-il analyser que ce qu’on lui demande de faire va tuer quelqu’un ? C’est tellement compliqué. On ne peut pas demander aux robots de faire des choix que nous autres, humains, sommes incapables de faire. Pensez aux dilemmes des voitures autonomes qui doivent choisir entre tuer le passager ou le conducteur…

«Ne sommes-nous que de la chimie ou avons-nous une dimension métaphysique ? C’est ça, la grande question.»

Le désaccord fondamental entre Ford et Arnold porte sur la définition de la conscience…

Ne sommes-nous que de la chimie ou avons-nous une dimension métaphysique ? C’est ça, la grande question. A titre personnel, je pense qu’étant autre chose que de la chimie, on n’arrivera jamais à donner une conscience à un robot. Et surtout, un libre arbitre, ce qui est évoqué dans Westworld. Je peux programmer une conscience à mon robot, en lui disant « Si on te dit de taper sur un enfant, ne le fais pas, c’est mal », mais ce n’est pas sa conscience, c’est la mienne que j’ai projetée en lui. En ce sens, le robot a zéro libre arbitre. Son rôle est de refaire ce qui statistiquement marche le mieux, il ne va jamais sortir de routes relativement tracées.

Peut-on les aider à avoir conscience d’eux-mêmes ? Ford explique que « dans une 1ère version d’Arnold, les hôtes entendaient leur programmation sous forme de monologue intérieur, pour faire naître l’amorce d’une conscience »…

Il leur programme des acouphènes, c’est désagréable… Plus sérieusement, c’est n’importe quoi. Cette voix intérieure est toujours un programme en train de s’exécuter, ça n’éveille pas la conscience du robot du tout. Nao, quand il voyait un autre Nao, disait, « Oh ! un Nao ». Parce qu’on l’avait programmé pour. Il ne se disait pas « Oh, un autre Nao, mais comment, je ne suis pas unique, oh mon dieu, je suis une machine ! ». Après, on peut s’amuser. Les chercheurs pourraient très bien dire à un robot « Considère que tu es unique », et si le robot voit quelque chose comme lui, il se dira qu’il n’est pas unique. Mais ce doute aura été programmé par le chercheur.

Peut-on créer des souvenirs à un robot avant sa mise en service comme le fait le Docteur Ford ?

L’idée est excellente, car si un visiteur du parc s’assoit à côté d’un robot, le fait de lui avoir inventé un passé peut lui permettre de tenir la conversation. On peut tout à fait créer un passé à un robot. Nos robots stockent des informations, nous pouvons les changer. On pourrait imaginer de faire raconter en boutique à Pepper qu’il a vu Zidane. On pourrait tout à fait lui inventer ce souvenir.

Les robots de « Westworld » ne peuvent pas faire la différence entre robots et humains : la reconnaissance d’images ou vocale a pourtant fait des progrès immenses…

Il y a des tas de moyens d’apprendre à un robot la différence entre robots et humains : la détection des émissions Wi-fi, la caméra thermique, etc. S’ils ne peuvent pas le faire dans Westworld, c’est donc parce que le scénario en avait besoin !

Les visiteurs de « Westworld » s’attachent aux robots (l’un en tombe même amoureux)… Est-ce un risque dès à présent ? 

Pour l’éviter, on a justement choisi de ne pas donner à nos robots une apparence trop attachante. On n’en est pas là, à part une geek japonaise qui est complètement cinglée avec son Pepper… Les gens s’attachent à leurs robots mais sans excès. On est vigilants, notamment pour les personnes âgées : on espère que le robot sera un compagnon de leur solitude, mais une de ses missions est de veiller à ce que la personne continue à avoir des relations sociales, et lui rappelle de téléphoner à ses proches, par exemple. Le robot doit veiller à ce qu’on ne s’attache pas trop, de la même façon qu'un GPS peut vous rappeler que vous roulez depuis 2 heures sans vous être arrêté. C’est donc une responsabilité du programmateur. C’est pour cela que dans Her, Samantha (l’intelligence artificielle) quitte d’elle-même Joaquin Phoenix

«Faut-il donner des droits aux robots ? Non, car les robots sont des objets»

L’humain viole, tue, massacre des robots dans « Westworld ». Peut on imaginer comme en Corée une Charte qui leur accordent des droits comme celui « d’exister sans craindre de blessures ou la “mort” » ?

Faut-il donner des droits aux robots ? Non, car les robots sont des objets. Vous allez me dire qu’on pensait ça des esclaves il fut un temps, puis des animaux il y a peu, alors pourquoi pas les robots ? Parce que ce sont des choses. A un moment dans Westworld, un des réparateurs couvre la nudité d’un robot avec une serviette et Ford lui intime de la retirer, en lui rappelant que c’est un objet : je trouve ça très bien. Nos robots n’ont pas de droits et je suis fortement convaincu qu’il faut que ça reste ainsi. Serge Tisseron raconte dans son livre ( Le jour où mon robot m’aimera, 2015) que des démineurs américains aimaient tellement leurs robots qu’ils préféraient envoyer un de leurs collègues sur une tâche dangereuse plutôt que de risquer de casser leurs robots. Il faut absolument éviter ça.