Sur le Web, «à aucun moment nos émotions ne doivent devenir un levier économique»

INTERVIEW L’enseignant-chercheur Camille Alloing, co-auteur du « Web affectif », explique à « 20 Minutes » le fonctionnement de cette nouvelle économie…

Propos recueillis par Olivier Philippe-Viela

— 

Le fameux "like" du réseau social Facebook, à Berlin le 24 février 2016
Le fameux "like" du réseau social Facebook, à Berlin le 24 février 2016 — TOBIAS SCHWARZ AFP

Dans Le Web affectif (éditions INA), paru ce vendredi, Camille Alloing, maître de conférences et enseignant-chercheur en information numérique à l’université de Poitiers, et Julien Pierre, professeur à Audencia Business School à Nantes, se penchent sur le traitement et l’utilisation des émotions des internautes par les grands acteurs du Web, à travers les différentes variantes du J’aime de Facebook ou l’usage de la reconnaissance faciale. Camille Alloing a répondu aux questions de 20 Minutes.

Vous parlez de « capitalisme affectif » pour désigner l’économie autour des émotions en ligne. Pourquoi ?

Ce qu’on entend par capitalisme affectif, c’est un modèle économique, avec création et exploitation de valeur, qui va être basé sur la capacité des individus à ressentir des émotions, à être affecté, et donc à avoir des comportements qui vont aller dans le sens de ce que veulent les entreprises du numérique.

Prenons un exemple célèbre : Facebook. Quand vous produisez du contenu, un statut, un like, etc. qui est partagé, vous permettez à Facebook de générer de la valeur à partir de vos actions, le site mettant à disposition l’outil de production, en l’occurrence son interface.

Comment les émotions sont-elles triées ?

Sur le plan technique, Facebook va faire du sentiment analysis, une étude des termes que vous employez dans vos commentaires, statuts et messages, afin de faire correspondre une connotation à chaque terme (colère, tristesse, joie, etc.). Autre point, dans les métadonnées que produit Facebook, il y aura par exemple une correspondance « personne qui sourit » sur un selfie d’une personne qui a l’air joyeuse. Leurs développeurs savent déjà faire ça avec la reconnaissance faciale.

Regardez les fameuses Facebook Reactions, qui offrent une gamme limitée d’expression des émotions. Ça permet à leur algorithme de vous présenter certaines informations en fonction du « marquage émotionnel » que vous avez pu faire sur d’autres. Ainsi ils peuvent mieux identifier ce qui vous fait passer à l’action ou pas, ce qui génère chez vous tel ou tel type de réaction.

20 Minutes a testé les nouveaux emojis Facebook
20 Minutes a testé les nouveaux emojis Facebook - DR

Comment monétisent-ils ces données ?

Ces plates-formes peuvent faire un ciblage et un profilage plus poussés qu’il y a quelques années, et ensuite proposer aux annonceurs un échantillon précis d’internautes potentiellement sensibles à un message spécifique.

Exemple avec la Russie qui aurait acheté des publicités sur Facebook pendant l’élection américaine. Un article du Guardian explique que les vétérans de guerre étaient particulièrement ciblés avec des images de guerre. On voit tout de suite l’intérêt au niveau publicitaire, politique, sociétal.

Vous écrivez que Facebook « semblerait chercher à "manipuler nos humeurs" ».

C’est une étude par des chercheurs de Facebook parue en 2014, qui est le déclencheur des questions que l’on se pose. Eux ne disent pas « manipuler », c’est notre terme, mais ils confirment qu’ils sont capables d’identifier les humeurs des utilisateurs et donc de les faire varier en exposant certains contenus en fonction.

>> A lire aussi : Rencontre avec Tristan Harris, l'homme qui veut empêcher nos smartphones de voler nos journées

Quel problème cela peut-il poser ?

Quand on formalise et qu’on donne des affects, à quel calcul cela participe-t-il ? Comment ces données sont traitées ? Après les entretiens qu’on a eus avec des développeurs, les brevets qu’on a lus, les discours qu’ont tenus les plates-formes, on a des gros points d’interrogation sur comment tout cela est calculé. D’autant qu’avec le numérique, il y a des moyens financiers, matériels, ingénieriques, qui sont bien plus puissants que ce qu’ont pu avoir les médias avant l’apparition de ces plates-formes.

Nous ne sommes pas là pour affoler les gens, mais pour ouvrir une réflexion sur ces questions. Où ces données partent-elles, comment sont-elles traitées, par qui ? Nos émotions, nos affects, nos ressentis nous appartiennent. À aucun moment ils ne doivent devenir un levier économique.

Qu’entendez-vous par « lutte des classes affectives » ?

C’est un clin d’œil. Quand on fait des études sur le capitalisme, on en revient tout de suite à des notions marxistes (rires). Sans entrer dans une vision idéologisée, vous avez d’un côté des individus qui auront un contrôle sur leurs affects car ils savent comment fonctionne tel ou tel site, ont un regard critique sur les médias, savent trier l’information et prendre du recul. Et vous aurez des individus complètement immergés dans un système où l’on va tout le temps jouer sur leurs émotions et leurs affects.

In fine, on crée différentes catégories d’individus au fil du temps : ceux qui arrivent à gérer ça, parce qu’ils ont l’éducation pour, les moyens de se déconnecter, et ceux qui ne peuvent s’informer que par impulsion émotionnelle (« regarde ça, tu seras choqué » par exemple).

Outre l’objectif marchant, vous avancez la possibilité que le traitement des données affectives devienne « un moyen de gouvernance ». C’est-à-dire ?

Certaines entreprises analysent leur intranet pour identifier si des salariés auraient utilisé des termes qui laisseraient dénoter qu’ils ne vont pas bien. Ça devient donc, dans ce cas, un moyen de gouvernance. Maintenant, à quel moment ça peut déraper ?

Il y a l’exemple de ce qu’il se passe chez Uber : dans certaines villes, l’entreprise propose de filmer les clients pour vérifier s’ils sourient assez, pour voir si le chauffeur est suffisamment agréable. Chez Uber, une ou deux mauvaises appréciations et le conducteur est viré de la plate-forme.

>> A lire aussi : Créateur du «J’aime» de Facebook, il plaide pour une désintoxication des réseaux sociaux

C’est la technologie qui s’adapte à l’humain ou l’humain qui doit se conformer aux besoins de ces plates-formes ?

Facebook et ses deux milliards d’utilisateurs représentent une infrastructure colossale à gérer. Or chaque individu veut en faire son propre usage, a ses propres besoins et attentes. Facebook ne peut pas personnaliser la plate-forme pour chacun. Mais l’un des combats de ces sites, au-delà de la question affective, c’est d’empêcher le « braconnage », le détournement des usages prescrits par ces plates-formes. Les individus doivent donc aussi s’y incorporer.

Prenons l’exemple central des Facebook Reactions : beaucoup demandaient un bouton « Je n’aime pas », mais Mark Zuckerberg ne voulait pas de ce type de négativité. Il a réfléchi à des boutons qui permettraient de répondre à une partie de cette demande, et ça a donné la gamme des réactions plus vastes que le like/dislike. Ensuite les utilisateurs s’en sont emparés, même si ce n’était pas exactement ce qui était demandé.

L’affect, c’est le principal carburant pour faire tourner cette économie de l’attention ?

Bien sûr. Pour schématiser, quand vous consommez, vous avez la phase de découverte (« j’ai envie »), la phase d’idéalisation (« je réfléchis si c’est faisable ») et la phase d’achat. Si on arrive à court-circuiter l’idéalisation, à passer du « ça me plaît » à « j’agis » sans transition de réflexion, d’un clic, en termes d’attention, c’est beaucoup plus efficace.

Il y a des perspectives intéressantes au développement de cette économie de l’affect ?

J’en reviens à la reconnaissance faciale d’émotions. Une partie des start-up qui créent ces technologies sont à la base des émanations de laboratoires scientifiques. Souvent ces outils ont un aspect thérapeutique. Les vétérans de guerre aux Etats-Unis ont souvent du mal à exprimer ce qu’ils ont ressenti à des moments traumatiques. Le fait de pouvoir analyser leurs émotions permet de mieux adapter l’action thérapeutique, car on a compris que tel élément est bloquant ou choquant.

Cet aspect-là est très fort et intéressant. Les études en neurosciences et psychologie sont encore contradictoires et embryonnaires là-dessus. Mais ces technologies, avant d’être embarqués à visée commerciale, peuvent être utiles pour les usagers lambdas afin de comprendre ce qu’on ressent en consommant de l’information, et voir ce qui ne nous convient pas, ce qui nous choque ou pas.