Cyberharcèlement: L’intelligence artificielle est-elle la pire ennemie des victimes?

PUNITION La proposition de loi contre la haine en ligne sera soumise au vote à l’Assemblée nationale mardi

Laure Beaudonnet

— 

Illustration harcèlement
Illustration harcèlement — GERALT / PIXABAY
  • A travers les différents témoignages recueillis dans le cadre de la série « Pris pour cible » de « 20 Minutes », certaines victimes ont été punies par les algorithmes des plateformes à la place de leurs cyber-harceleurs.
  • Alors que l’Assemblée nationale étudie la proposition de loi Avia (LREM) sur les contenus haineux en ligne, la question de l’efficacité de la modération des réseaux sociaux se pose.
  • L’Assemblée nationale a voté jeudi l’obligation pour les plateformes Internet et moteurs de recherche de retirer en 24 heures les contenus haineux signalés par des utilisateurs.

« Mon compte a été suspendu pendant une journée, avait raconté Aurélien Enthoven au mois de février dans le cadre de notre série de témoignages Pris pour cible. Le fils du philosophe Raphaël Enthoven et de l’ex Première dame, Carla Bruni, avait publié sur son compte les captures d’écran des messages d’insulte dont il était victime. Facebook est incapable de distinguer les propos que je tiens des propos que j’expose », s’était-il agacé.

De même, Alice, victime de cyberharcèlement, a vu son compte Twitter suspendu pendant plus d’une semaine après avoir répondu un peu violemment à ses harceleurs. Les algorithmes des réseaux sociaux arrivent souvent à détecter une situation de cyberharcèlement par eux-mêmes, mais ils peinent encore à distinguer la victime de son bourreau. 

A l’heure où l’Assemblée nationale examine la proposition de loi déposée par la députée LREM de Paris, Laetitia Avia, sur les contenus haineux en ligne, la question de l’efficacité du travail de modération de l’intelligence artificielle se pose. Est-elle toujours du côté des victimes ? Cela n’est pas toujours évident.

Des IA plutôt efficaces

La loi Avia impose aux plateformes le retrait ou le déréférencement des contenus « manifestement » illicites sous 24 heures (incitation à la haine, injures à caractère raciste ou religieuses, mais aussi proxénétisme, harcèlement, apologie du terrorisme…), sous peine d’une condamnation à des amendes jusqu’à 1,25 million d’euros. Si les réseaux sociaux ne sont pas toujours armés pour réagir avec pertinence à certaines publications, ces courts délais pourraient leur mettre de nouveaux bâtons dans les roues. Chez Fracebook, la modération repose sur deux piliers : les modérateurs humains (30.000 personnes travaillent sur la sécurité) et les algorithmes. Les technologies d’analyse de contenus, qui relèvent de l’intelligence artificielle, sont capables de détecter des situations de harcèlement toutes seules.

« Il existe plusieurs sous-catégories à caractériser, prévient Guillaume Gravier, directeur de recherches au CNRS spécialisé dans l’analyse des contenus multimédias. Par exemple, le discours haineux est une forme de harcèlement, les allusions sexuelles en sont une autre et ce n’est pas tout à fait la même chose ». Plus un algorithme est spécialisé, plus il est performant. Il faudrait presque entraîner un algorithme pour chaque sous catégorie afin d’être sûr de ne rien louper. « Il n’y a pas beaucoup de données qui permettent d’évaluer la performance des technologies d’analyse de contenus, on sait qu’elles arrivent à étiqueter correctement environ 80 % des messages, pointe Guillaume Gravier. Cela veut dire aussi qu’elles laissent passer 20 % des contenus, mais dans le milieu académique, à 80 %, on considère que ça marche à peu près ».

La difficile définition des contenus haineux

Et selon les chiffres publiés par Facebook, l’intelligence artificielle a identifié 65 % des discours haineux de manière proactive (sans signalement) au premier trimestre 2019. Quand il est question de terrorisme et de pornographie, les systèmes informatiques sont encore meilleurs. Alors comment se retrouve-t-on dans une situation où une victime est punie à la place de son harceleur ? « Ce qui est problématique ici, c’est l’absence de décision humaine, souligne le chercheur. C’est plutôt un problème d’éthique, les algorithmes ne sont pas parfaits, ils fonctionnent de manière statistique ».

« La question serait de savoir si on considère que le réseau social est un système critique [un système dont une panne peut avoir des conséquences dramatiques]. Imaginons grossièrement qu’on veut savoir si un missile est en train de nous viser ou pas, on va considérer que c’est un système critique, il y aura une intervention humaine pour valider », poursuit le scientifique. En effet, aucune arme automatique capable de repérer une cible ne tirera sans l’intervention d’un humain pour des raisons de responsabilité. Faudrait-il la même chose pour les contenus haineux sur les réseaux sociaux, un pré-tri par les algorithmes et la validation de l’intelligence humaine ? C’est déjà parfois le cas.

Comme on l’a noté, de nombreux humains travaillent déjà à la modération sur Facebook et il est également possible de faire appel d’une décision erronée. Mais l’œil humain n’est pas toujours plus efficace, notamment sur le terrain des messages haineux, plus difficiles à analyser qu’un contenu pornographique. La preuve : la définition des contenus haineux a créé de vifs débats dans l'hémicycle. La langue évolue, certains termes a priori anodins peuvent, dans un contexte différent, devenir insultants, et inversement. Il faut analyser le cadre dans lequel l’échange a eu lieu. Aujourd’hui, si les algorithmes n’arrivent pas à différencier le bourreau de la victime, ce n’est pas forcément pour des raisons techniques. « Ce ne serait pas très dur à régler », affirme Guillaume Gravier. Le problème, c’est plutôt que la science ne s’est pas posé cette question. Ce serait peut-être le bon moment.