Souriez, vos émotions sont détectées par une intelligence artificielle

HIGH-TECH Les algorithmes sont capables de détecter les émotions en analysant les traits du visage. L’objectif ? Mieux connaître votre comportement dans un magasin, dans la rue, ou en privé, mais aussi humaniser nos interactions avec les robots…

Annabelle Laurent

— 

Démo.

Démo. — Angus

Le doute. L’indécision. L’enthousiasme. La déception. La satisfaction. Ces émotions peuvent nous traverser chaque jour, et notamment – pardonnez ces considérations plus terre-à-terre - dans les allées d’un magasin, face à un étalage de produits. Jusqu’ici, ces émotions nous appartiennent. Et si elles s’échappaient jusqu’à entrer dans les bases de données accessibles à des tiers, les vendeurs du magasin en question, par exemple ?

Les progrès des algorithmes en reconnaissance d’image leur permettent en effet d’analyser nos traits pour en déduire des « émotions ». Celles-ci sont précieuses, et récoltées en permanence en ligne par d’autres outils, comme quand vous « grr »-ez, « waouh »-ez ou likez sur Facebook. Mais voilà qu’elles sont en chemin d’être récupérées sur votre visage dans la rue ou dans les magasins, pour tout un éventail d’applications possibles. Explications.

Un petit sourire pour la caméra

Dans les bureaux d’Angus.ai, il ne faut pas être susceptible, et en vouloir à « la machine ». En vous observant par la webcam, elle peut vous donner 32 ans si vous en avez 28, ou hésiter sur votre genre (auquel cas elle préférera donner un avis neutre). Mais généralement, elle ne se trompe pas. Quand vous souriez, elle prend note. Quand vous avez l’air en détresse, elle enregistre également. C’est ce que nous montre Gwennaël Gâté, co-fondateur de la start-up avec Aurélien Moreau.

Démo par le cofondateur de la start-up Gwennaël Gâté. Le smiley indique l'expression générale, mais l'intensité du sourire est précisément mesurée. Quand le cadre est vert, le client regarde dans l'axe du produit.
Démo par le cofondateur de la start-up Gwennaël Gâté. Le smiley indique l'expression générale, mais l'intensité du sourire est précisément mesurée. Quand le cadre est vert, le client regarde dans l'axe du produit. - Angus

Tous deux sont docteurs en intelligence artificielle et anciens directeurs logiciels chez Softbank Robotics (qui a racheté Aldebaran). Là-bas, ils développaient les « capacités perceptives » des robots Nao et Pepper, soit leur capacité à lire notre comportement et nos émotions via une série de capteurs et de logiciels. Chez Angus.ai, les mêmes capacités perceptives sont développées, mais « sans qu’il y ait besoin d’un robot avec des bras et des jambes », explique Gwennaël Gâté.

Premier domaine d’application : le commerce de détail. La start-up vient de lever 500.000 euros pour « transformer les caméras des entreprises en outil de pilotage », à commencer par les magasins. « Les caméras filment les clients. Nous récupérons les flux vidéo et les soumettons à nos algorithmes, qui effectuent leur analyse. Pour le commerçant, c’est la possibilité de savoir qui passe devant quel produit, s’il s’y attarde, si c’est un homme ou une femme, dans quelle tranche d’âge [le tout avec une marge d’erreur, donc], s’il a l’air content ou pas… Et il peut ensuite optimiser son magasin en fonction. » De quoi rappeler l’ambition d’Amazon avec son magasin pilote rempli de caméras et capteurs - à tel point que les caisses ont disparu : Amazon Go.

>> A lire aussi : VIDEO. Faire la queue à la caisse, c'est fini avec l'épicerie du futur d'Amazon

L’objectif : une réactivité en temps réel

Devant plusieurs bouteilles de champagne, vous vous attardez et semblez circonspect ? Angus travaille à rendre ses outils d’analyse réactifs en temps réel, en plus du tableau de bord fourni – un tableau de type Google Analytics – qui permet aux magasins d’avoir une vue d’ensemble sur le comportement des clients. « Si le logiciel repère que le client hésite depuis longtemps [en tenant compte du temps passé devant les produits, en détectant une expression semblable au doute] il peut décider de lancer à proximité une publicité qui donne la bonne info au bon moment, par exemple avec des conseils sur comment choisir son champagne. Seconde option, un vendeur peut recevoir sur son smartphone une notification qui signale que près des champagnes une femme au haut bleu a besoin d’aide. »

Ce que les algorithmes sont capables de
Ce que les algorithmes sont capables de "voir" en analysant le flux vidéo. - Angus.ai

Gwennaël Gâté tempère : « On ne prétend pas à nos clients qu’on mesure de l’émotion. Mais plutôt un degré de satisfaction. » L’algorithme analyse cela dit très précisément le « degré du sourire » (« 0.5 », « 1.5 »…). 

De quel droit ?

Plusieurs questions se posent. La première : qui ai-je autorisé à analyser mes sourires pour qu’on me vende du champagne (même si aujourd’hui, les vendeurs n’ont qu’à vous regarder pour le faire) ? Ou pour décider si mon comportement semble louche, comme cela pourrait être ensuite le cas, le domaine de la sécurité étant l’autre grand domaine d’application de ce qu’on appelle le marché de la « smart video analysis » (qui représenterait 22 milliards de dollars en 2020) ? L’analyse de ces flux vidéo est encadrée par la Commission Nationale de l’Informatique et des Libertés (CNIL).

Si elle est légale, c’est que les images ne sont vues par aucun humain, ne sont pas conservées une fois traduites en données, et aucune donnée biométrique (la mesure de la forme du nez, du menton, l’écartement des yeux, qui permettent d’identifier une personne) n’est récupérée. Même si les ingénieurs seraient « techniquement tout à fait en mesure de le faire. » En d’autres termes, n’allez pas imaginer que le magasin peut remonter jusqu’à votre identité.

>> A lire aussi : Pourquoi vous feriez mieux de ne pas taguer vos amis sur Facebook

Poker face

Par ailleurs, faudrait-il donc s’habituer à ce que nos émotions soient analysées par des algorithmes, alors qu’elles sont probablement ce que nous avons de plus intimes ?

En décembre, KFC s’est associé avec Baidu pour intégrer un outil de reconnaissance faciale qui lui permet de reconnaître des clients fidèles, et de leur proposer des menus en fonction de leur âge et sexe. Prochaine étape : on vous propose un Sunday avec double ration cacahuètes au Mac Do, parce que vous avez l’air déprimé ?

« Les algorithmes sont capables de détecter le symptôme de l’émotion, pas celle que vous avez au fond du cœur ! », souligne Gwennaël Gâté. « Les vraies émotions sont fines : la satisfaction, le doute… Elles ne sont pas simples à détecter pour les humains, et encore moins pour les algorithmes, qui détectent les francs sourires, ou une surprise très marquée. Et, troisièmement, peuvent se tromper ». A ses yeux, « le Big Brother qui est capable de comprendre les humains n’est ni pour demain ni après-demain. »

>> A lire aussi : «Aucune machine ne sait à la fois jouer au poker et débarrasser la table»

Ami-ami avec les machines ?

Il ne faut pourtant pas chercher loin pour obtenir un tout autre son de cloche. Rana el Kaliouby est la fondatrice d’Affectiva, start-up américaine fondée en 2009 et pionnière en reconnaissance des émotions. Son rêve est de transformer celles-ci en données, afin d’améliorer notre relation avec les machines.

« Les émotions sont fondamentales dans nos vies car elles déterminent nos actions, nos décisions, nos échanges, jusqu’à la qualité de notre sommeil ou celle de notre alimentation, nous confiait-elle au Web Summit en novembre dernier. Or on n’a pas été capables de les quantifier, jusqu’ici. On s’avance pourtant vers un monde où nous interagissons de plus en plus avec des machines, que ce soit des chatbots ou des robots, à la maison, dans la voiture, avec nos téléphones : ce qu’on veut apporter, c’est cette technologie qui puisse sentir et s’adapter à vos émotions humaines ».


On en revient aux robots, comme Pepper et Nao. Pour les rendre « sympathiques » et agréables, il faut leur apprendre à lire nos émotions. Qu’ils se perfectionnent en la matière permettraient à un robot éducatif de « repérer quand un enfant s’ennuie, pour changer de jeu », souligne Rana el Kaliouby, qui travaille déjà avec plusieurs entreprises de robotiques dont celle qui a conçu Jibo, le petit robot social et familial.

>> A lire aussi : On a rencontré la «plume» de Cortana, l'assistante virtuelle de Microsoft

Vers des émotions quantifiées ?

Enregistrer nos émotions serait, aux yeux de l’ingénieure américaine, synonyme de progrès. « Les gens portent bien des bracelets connectés pour surveiller leur santé. Mais nous ne nous intéressons pas à notre santé mentale et émotionnelle ! Nous vérifions nos téléphones 15 fois par heure : à chaque fois, notre technologie pourrait mesurer votre état émotionnel. Nous pouvons ensuite le lier à votre agenda, et repérer qu’à chaque fois que vous avez une réunion au boulot avec telle ou telle personne, vous êtes stressés, et devriez l’éviter. Pourquoi ne pas ajouter la mesure de nos émotions à l’équation ? »

L’idée existe déjà : c’est People Keeper, une application « qui mesure, analyse et gère vos relations pour vous », à travers un bracelet connecté mesurant le rythme cardiaque. imaginé par deux artistes qui voulaient « donner un avant-goût de nos vies de plus en plus quantifiées, et décidées de plus en plus par des algorithmes. » Pour l’instant, le bracelet n’est en effet qu’un projet artistique. Pour combien de temps encore ?