Attentats de Christchurch: Les ratés de l'IA et de l'humain pour identifier et bloquer les vidéos violentes

TECHNOLOGIE Malgré les progrès informatiques et le renfort de milliers de modérateurs, les systèmes de Facebook et Google, conçus pour favoriser le partage et la viralité, ont encore une fois échoué

Philippe Berry

— 

Brenton T., l'auteur présumé des deux attentats contre des mosquées à Christchurch, en Nouvelle-Zélande, qui ont fait 50 morts.
Brenton T., l'auteur présumé des deux attentats contre des mosquées à Christchurch, en Nouvelle-Zélande, qui ont fait 50 morts. — AP/SIPA

Le double attentat de Christchurch a été annoncé en ligne sur le forum anonyme 8Chan, diffusé en direct en streaming sur Facebook pendant 17 minutes et partagé des centaines de milliers de fois sur YouTube et Twitter pendant 48 heures. Si les géants de la Silicon Valley jurent qu’ils font tout leur possible pour empêcher la diffusion de telles vidéos, leur incapacité à le faire, tragédie après tragédie, interpelle.

1,5 million de vidéos mises en ligne sur Facebook, jusqu’à un upload par seconde sur YouTube

Avec le bouton « partager » comme bloc de base de leur ADN, YouTube et Facebook ont été conçus pour la viralité. Chaque minute, plusieurs centaines d’heures de vidéos sont mises en ligne par les utilisateurs. « Dans les premières vingt-quatre heures, nous avons retiré 1,5 million de vidéos de l’attaque, dont 1,2 million bloquées lors de l’upload », précise Facebook. Cela fait donc 300.000 vidéos (20 %) qui ont été retirées après avoir été mises en ligne. Combien de personnes ont vu des images, parfois sans le vouloir, avec des vidéos en autoplay ? On ne saura pas.

Google, de son côté, a retiré « des dizaines de milliers de vidéos et fermé des centaines de comptes créés pour glorifier le tireur », selon un porte-parole. Qui précise : « Le volume de vidéos mises en ligne sur YouTube dans les vingt-quatre heures après l’attaque était sans précédent, par son intensité et sa rapidité, jusqu’à un upload par seconde. »

Les algorithmes ne détectent pas tout

Selon Google, au 4e trimestre 2018, plus de 70 % des vidéos qui ont été retirées de YouTube avaient été détectées par les algorithmes. Deep learning, réseaux neuronaux, vision machine… Les géants du Web mettent régulièrement en avant leur progrès dans l’intelligence artificielle. Des logiciels sont capables de décrire le monde à des aveugles et permettent à des voitures autonomes de circuler en reconnaissant les obstacles et les panneaux environnants. Mais les algorithmes ont parfois du mal à différencier des bandes jaune et noir d’un bus scolaire, ou une grille de petits rectangles d’une télécommande. « Les résultats dépendent non seulement des algorithmes mais aussi des centaines de milliers ou des millions d’exemples utilisés pour les entraîner. C’est d’autant plus dur qu’on n’arrive pas forcément à prévoir quel type de vidéo va poser problème », précise Frédéric Durant, du labo Intelligence artificielle du MIT (CSAIL).

Des progrès ont été faits pour bloquer certains contenus, comme les vidéos de décapitation de Daesh. Mais pour les armes à feu, c’est plus complexe. Il faut faire la différence entre des vidéos d’entraînement militaire, des films de guerre, des parties de paintball entre amis, un jeu vidéo et une tuerie. Dans le cas de Christchurch, les médias ont parfois également partagé des extraits de la vidéo, ce qui complique la tâche.

Une fois qu’une vidéo problématique est identifiée, un hash, une sorte d’empreinte digitale, est constitué afin de détecter les copies similaires. Au sein de l’alliance GIFCT (Global Internet Forum to Counter Terrorism), Google, Microsoft, Twitter et Facebook ont établi une base de données avec plus de 800 entrées différentes. Mais les trolls qui ont repartagé la vidéo de Christchurch ont parfois ajouté des effets graphiques et différents filtres pour passer entre les mailles du filet. « Il existe des algorithmes capables de faire la différence via des caractéristiques statistiques mais la qualité de l’image peut affecter les résultats », précise Lyu Siwei, directeur du laboratoire Vision machine de l’université Albany de New York.

Les humains ne réagissent pas toujours assez vite

Qu’une vidéo soit signalée par un algorithme ou un utilisateur, c’est en général un humain qui tranche. Depuis 2016, Facebook et YouTube ont embauché des milliers de modérateurs supplémentaires, mais ils ne réagissent parfois pas assez vite.

Motherboard s’est procuré des documents internes de Facebook. Lorsqu’une vidéo live lui est signalée, un modérateur a trois options : classer le signalement sans suite, le mettre en sourdine pour cinq minutes ou le transmettre à une unité qui s’occupe des cas sensibles. D’après les consignes officielles, le modérateur doit particulièrement prêter attention à toute image ou son d’arme ainsi qu’à tout signe de « désespoir humain » comme des « pleurs » ou des « supplications ». Dans les cas les plus graves (fusillade, terrorisme), Facebook dispose d’une cellule spéciale, la Law Enforcement Response Team, qui collabore avec les autorités. L’entreprise affirme à Motherboard qu’elle a été en contact avec les autorités néo-zélandaises dès le début de l’attentat de Christchurch. Visiblement, ça n’a pas suffi à bloquer une vidéo de 17 minutes où l’on voyait pourtant clairement un fusil automatique tirer et les corps s’empiler dans la mosquée Al-Noor.

Que faire pour améliorer le processus ?

La vidéo diffusée par le tireur présumé sur Facebook Live n’est pas un cas isolé : lors du meurtre de deux journalistes américains en Virginie en 2015, de la tuerie de Dallas de 2016 ou d’un père qui a tué son bébé avant de se suicider en Thaïlande en 2017, de nombreux internautes ont assisté à des morts en direct.

Dans ce jeu de chat et de la souris, Facebook et YouTube ont tenté d’agir sur les recherches « Nouvelle-Zélande », en mettant en avant des vidéos des journaux et des autorités. YouTube a également momentanément désactivé la recherche par ordre chronologique pour limiter la visibilité des vidéos récentes. De nombreuses voix réclament des mesures plus fortes, comme de désactiver momentanément, en cas d’attaque terroriste, la mise en ligne de vidéos provenant de nouveaux comptes, ou de comptes n’ayant jamais rien publié.

L’équation est complexe. Les géants du Web doivent trouver l’équilibre entre la censure et la liberté d’expression, entre leur business model et la protection du public. « Nous savons que nous avons encore beaucoup de travail », reconnaît Google. Entendu à chaque tragédie, le refrain commence à ressembler à un disque rayé.