VIDEO. Intelligence artificielle : « Lorsqu’une machine nous parle, on projette sur elle les capacités de l’humain », selon Laurence Devillers

INTERVIEW La chercheuse et professeure en Informatique et intelligence artificielle (IA) Laurence Devillers vient de publier ce mercredi « Les robots émotionnels »

Propos recueillis par Laure Beaudonnet

— 

Laurence Devillers dans les locaux de «20 Minutes» le 5 mars 2020
Laurence Devillers dans les locaux de «20 Minutes» le 5 mars 2020 — T. LEMOINE / 20 MINUTES
  • Dans Les robots « émotionnels », Laurence Devillers explore la relation de l’homme et la machine.
  • De quelles émotions les machines sont-elles capables ?
  • L’homme a tendance à projeter sur la machine des capacités proches des siennes. Or, un robot demeure un simple objet.

A force de simuler les émotions et l’empathie, quelle place les machines vont-elles avoir dans nos sociétés ? C’est l’une des questions sur laquelle se penche Laurence Devillers, chercheuse au LIMSI-CNRS et professeure en Informatique et Intelligence Artificielle (IA) à Sorbonne Université, dans son livre Les robots « émotionnels » (Editions de L’Observatoire), paru ce mercredi. L’occasion également de s’intéresser aux femmes dans le monde de l’intelligence artificielle et aux fantasmes qui entourent la technologie de la reconnaissance faciale (l’une des actrices principales dans la reconnaissance des émotions). Rencontre.

Qu’est-ce qu’un « robot émotionnel », le titre de votre livre ?

« Robot émotionnel », c’est un peu comme « intelligence artificielle ». Dans « intelligence », on pense humain, et dans « artificielle », on pense machine. C’est pareil, dans « robot » on pense machine, et dans « émotionnel », on pense humain. L’oxymore suscite une ambiguïté immédiate. Évidemment, les robots ne ressentent rien, ils n’ont pas d’émotions. Mais on va de plus en plus loin dans la simulation qu’on fait du vivant. On simule le langage qui est propre aux humains. La parole est très forte, c’est la façon de convaincre d’aimer, de partager… Et cette parole qu’on donne aux machines est pilotée par des humains qui décident comment et quand le robot doit parler. Un robot n’est pas forcément parlant, c’est une catégorie particulière : les robots sociaux. Un robot, c’est une forme, pas forcément humaine, qui bouge avec une certaine autonomie. Son action, c’est percevoir l’environnement, décider où il va, et faire l’action de se déplacer. Ce qui n’était pas le cas des premiers robots qu’on trouvait dans les usines. Ils enchaînaient toujours les mêmes actions. La perception et la décision, c’est la grande différence des machines qui embarquent de l’IA. De la même façon, un système qui converse avec vous a trois grands modèles. Un, il perçoit la parole, la reconnaît et interprète le sens. Deux, il prend des décisions : il vous répond à partir d’une base de données ou en allant sur Internet. Trois, il va générer.

Quel genre d’émotions est-on capable de simuler aujourd’hui ?

Le robot est capable de simuler beaucoup d’émotions, mais il sait moins bien les détecter. On synthétise pour une personnalité, ou une voix, alors qu’en reconnaissance, on traque toutes les variabilités. C’est compliqué de savoir quand générer une bonne émotion en face d’une personne. Il faut comprendre les comportements expressifs de la personne. Ses émotions sont cachées. La machine peut essayer de détecter la façon dont elle se comporte : son expression faciale, ses gestes. Et derrière, il y a un modèle qui raisonne. À partir de règles de données statistiques, de toutes les données qui ont été capturées, elle est capable de générer quelque chose. Devant une personne qui pleure, je peux faire qu’une machine comprenne, interprète les signes et suivre un modèle statistique qui dit : « dans ce cas-là, elle va être dans l’empathie ».

Pourquoi projette-t-on autant de choses sur les robots ?

Cela a été théorisé par les chercheurs, Byron Reeves et Clifford Nass, de Stanford. Ils parlent de « media equation ». Lorsqu’une machine nous parle, que ce soit un ordinateur ou un téléphone, on projette sur elle les capacités de l’humain. On va instantanément se comporter comme si on était dans une relation avec quelqu’un. On va être poli, on va genrer et on va s’interroger sur sa conscience. Qu’est-ce qu’elle a compris ? Pourquoi est-elle gentille ? C’est notre mode de fonctionnement naturel. Ça répond aux besoins de ne jamais rester seul. Dans la culture chinoise, quand on visite des amis, on peut offrir des miroirs. La symbolique du miroir, c’est de ne pas être seul. On se voit à travers le miroir. Ces machines, c’est un peu ça. On a beau y avoir mis des tas de modèles qui vont pouvoir lui faire dire : « je vous aime », « vous êtes formidable ». La machine est vide.

Le robot sera-t-il meilleur que nous pour reconnaître les émotions des autres ?

Il l’est déjà. Ça ne veut pas dire qu’il est plus intelligent. Vous ne voyez pas les pixels sur ma peau, vous n’entendez pas les infrasons, ni les ultrasons. La machine entend tout cela. On a une façon extrêmement différente d’apprendre. L’humain anticipe : on a un contexte, de la mémoire. On se sert de tous nos sens en même temps. On sait s’adapter. L’affordance [la potentialité], c’est presque dans nos gènes. On sait qu’on peut s’asseoir sur une chaise. Le robot ne sait rien de tout ça, il n’a pas d’intuition, ni d’imagination. Mais il a la faculté d’engranger des données, à des tout petits niveaux que je ne vois même pas. Il peut voir ce que mon œil ne voit pas, et entendre des variations de sons que je n’entends pas. Après, il ne sait pas quoi en faire. Qu’est-ce que ça veut dire, quel est le message derrière…

« Les machines risquent de nous mettre dans un environnement totalement ennuyeux »

Vous citez l’anthropologue Agnès Girard selon laquelle on ne peut s’attacher un robot que s’il est faible, vulnérable, et qu’il est amené à mourir… Ça pose question sur l’obsolescence programmée des robots, non ?

Effectivement. Ça va avec l’homéostasie, c’est-à-dire faire en sorte que le robot ait de la douleur, du plaisir et du déplaisir. Qu’il soit capable d’avoir des intentions propres. Il va être vulnérable, puisqu’il a de la douleur et du déplaisir, on pourra l’aider. Il viendra nous chercher pour l’aider. La vulnérabilité des robots nous engage à venir les aider comme on vient aider les plus faibles. Ce sont les Tamagotchi. Le fait qu’ils aient besoin de mourir… On pourrait trouver un parallèle intéressant avec l’obsolescence programmée. Cela pose beaucoup de questions. Si vous devez souffrir du manque des données dans une machine. Est-ce intéressant commercialement ? On en achètera une autre, mais on pourra aller chercher les données dans la mémoire de l’ancienne pour les mettre dans la suivante. Ce n’est pas la mort…

Les robots vont-ils devenir les futurs animaux de compagnie ?

Votre animal de compagnie vous intéresse parce qu’il est vulnérable quelques fois, mais surtout parce qu’il est imprévisible. Or, même si on met un peu d’imprévisibilité dans la machine, on arrivera assez facilement à la débusquer. Toutes ces machines sont de plus en plus personnalisées. À force d’être aussi précises et attentionnées, elles risquent de nous mettre dans un environnement totalement ennuyeux. S’il n’y a pas une quête ou une envie réelle, on va perdre beaucoup de la qualité de créativité, de l’ingéniosité, de l’intelligence en groupe. La machine risque d’être d’un ennui terrible à long terme.

Pourquoi associe-t-on spontanément la reconnaissance faciale à une technologie du mal ?

Pas du mal, mais de la surveillance. C’est une technologie de biométrie permettant de mesurer certains facteurs de l’humain. On peut l’imaginer tout à fait pour le bien-être, dans la santé ou pour faciliter les transports. Les passeports biométriques permettent de passer plus rapidement dans les aéroports. C’est anxiogène parce qu’on a cette vision caricaturale de la Chine. « On sait tout sur tout le monde tout le temps ». Est-ce que la volonté de nos gouvernements est de surveiller ? Pas forcément. Il faut rester mesurer sur ce qu’on pourrait en faire. Ce n’est pas la technologie qui est à décrier, c’est surtout son usage.

Qu’est-ce que ça fait d’être une femme dans le monde de l’intelligence artificielle en France ?

Le monde de l’intelligence artificielle en France est plutôt masculin, mais c’est vrai dans tous les pays. Dans les amphithéâtres de sciences, d’informatique ou de physique, il n’y a pas de femmes. Pourquoi ces disciplines ne les attirent-elles pas ? Je pense qu’il y a un lien avec la projection qu’elles se font des métiers. Dans l’intelligence artificielle, on ne fait pas seulement des systèmes technologiques, mais on pense également aux retombées sociétales de ces systèmes. Si on intègre l’idée « d’ethic by design » [l’impact sur la société], qui est la voie sur laquelle j’essaye de m’engager, cela pourrait attirer beaucoup de femmes.

« Cette représentation des femmes à travers la machine risque d’amplifier les stéréotypes »

Quels types de problèmes l’absence de femmes pose-t-elle dans les nouvelles technologies ?

Ces systèmes sont faits en majorité par des hommes et 80 % de ces systèmes conversationnels sont féminisés par le prénom, la voix, le visage, le corps. Ce sont des femmes jeunes, elles sont assistantes, serviles… Et on les éteint quand on veut. Que cherchons-nous à faire par cette représentation des femmes dans les objets ? A chaque fois que je pose la question à des hommes, des leaders qui travaillent pour des start-up, ils me répondent : « J’ai fait des recherches, les hommes préfèrent les voix de femmes et les femmes préfèrent les voix de femmes ». Il y a une différence entre l’appréciation de l’individu et ce qu’on est en train de créer comme image dans la société. Cette représentation des femmes à travers la machine risque d’amplifier les stéréotypes.