Féministes suspendues par Twitter : Peut-on vraiment mettre « cette erreur » sur le dos de l’IA ?

DEFENSE Plusieurs comptes de militantes féministes qui ont repartagé la question « Comment fait-on pour que les hommes cessent de violer ? » ont été suspendus par Twitter

Laure Beaudonnet
— 
Twitter (illustration).
Twitter (illustration). — SOPA Images/SIPA
  • Twitter a suspendu plusieurs comptes de militantes féministes qui ont repartagé la question « Comment fait-on pour que les hommes cessent de violer ? »
  • Le réseau social a admis une erreur, pointant l’accroissement de l’utilisation du machine-learning et de l’automatisation.
  • L’intelligence artificielle est-elle si mauvaise pour différencier les contenus haineux des autres contenus ?

L’algorithme de Twitter est-elle vraiment le seul responsable ? La semaine dernière, le compte de la militante féministe et antiraciste Mélusine ainsi que plusieurs autres comptes ont été suspendus pour une simple question : « Comment fait-on pour que les hommes cessent de violer ? » Après une levée de boucliers sur le réseau social, Twitter a fini par reconnaître une erreur, mettant en cause son algorithme.

« Nous avons accru notre utilisation du machine-learning et de l’automatisation afin de prendre plus de mesures sur les contenus potentiellement abusifs et manipulateurs. Nous voulons être clairs : bien que nous nous efforcions d’assurer la cohérence de nos systèmes, il peut arriver que le contexte apporté habituellement par nos équipes manque, nous amenant à commettre des erreurs », a expliqué Twitter France jeudi à 20 Minutes.

L’humain derrière les algorithmes

Il est vrai que l'intelligence artificielle a encore des progrès à faire pour repérer les publications haineuses. Elle ne discerne pas l’ironie (parfois l’humain non plus, à vrai dire) et elle peine franchement à appréhender le contexte de certains échanges. Résultat : plusieurs tweets d’activistes LGBT ont récemment été censurés parce qu’ils contenaient les mots « gouines » ou « pédés », employés dans une réappropriation du stigmate. Les algorithmes sont-ils si mauvais que ça ?

« L’intelligence artificielle ne fera pas du 100 %, admet Isabelle Collet, chercheuse sur les questions de genre dans la tech et sur la pédagogie de l’égalité à l’université de Genève. Quand on fait de l’analyse de contexte, l’IA ne comprend pas le sens de la phrase mais elle peut faire des analogies avec des phrases considérées comme haineuses. » Par analogie, elle peut dire : il y a 90 % de chances que ce tweet soit haineux parce qu’il ressemble à 90 % à des tweets qui ont été certifiés comme haineux.

Dans le domaine de l’intelligence artificielle, les bases de données sont le nerf de la guerre. Plus il y a de données annotées, étiquetées, classées, plus l’algorithme est performant. Or, cette base est constituée par des humains qui vont décider ce qui constitue un contenu haineux ou insultant. « L’humain va placer le curseur », souligne la chercheuse. Une intelligence humaine a décidé, à la base, ce qui constitue ou non une insulte, et ce choix relève de la subjectivité. En somme, l’intelligence artificielle ne fait que suivre ce qu’on lui a appris.

« Comment violer une femme »

Dans le cas de la suspension des comptes féministes, pointer les limites de l’algorithme peut interroger. Au mois de mai dernier, un adolescent a publié un thread sur Twitter intitulé « Comment violer une femme ». « Pendant une quinzaine de tweets, il a réitéré ces questions et son compte n’a pas été suspendu, rappelle Isabelle Collet. Je m’interroge sur ce prétexte d’automatisation. L’algorithme aurait dû se déclencher sur "comment violer une femme" s’il se déclenche sur "comment faire pour que les hommes arrêtent de violer" ». De la même façon, @pastadaronne avait déjà utilisé le mot « gouine » dans des posts antérieurs à celui qui était masqué.

Certains pensent que ces suspensions aléatoires de comptes pourraient être le résultat de signalements en masse. La journaliste Titiou Lecoq fait ce lien dans Slate au sujet des comptes féministes. « On voit mal quels mots-clés ont déclenché la suspension, écrit-elle. D’autant que certains comptes qui l’ont reprise ont été suspendus et pas d’autres. (…) Ou alors, autre hypothèse, des militants masculinistes se sont concertés pour signaler les tweets (d’autant qu’il est fréquent dans ces milieux de posséder différents comptes, ce qui permet à chaque individu de démultiplier sa capacité de nuisance). »

Un autre problème d’automatisation

Alors que les campagnes coordonnées et les raids se multiplient en ligne, Twitter ne pourrait-il pas identifier les comptes qui sont à l’origine de ces signalements ? Il s’agit bien d’un problème d’automatisation, mais pas celui qu’on croit. « Prenons l’exemple du CSA, à partir d’un certain nombre de plaintes, il va regarder ce qu’il se passe. A l’inverse, Twitter coupe, note Isabelle Collet. C’est dommage parce qu’un grand nombre de signalements proviennent de groupes problématiques. »

Si Twitter s’est attaqué à des dizaines de milliers de comptes complotistes, pourquoi ne s’empare-t-il pas du problème des masculinistes, très organisés et en croisade sur le Web ?