Attentats de Christchurch: Comment l'assaillant a-t-il pu diffuser un Facebook Live sans être bloqué?

RESEAUX SOCIAUX Les réseaux sociaux ont été incapables de bloquer la diffusion mondiale de la vidéo des attentats en Nouvelle-Zélande

H. B. avec AFP
— 
Un policier lors des attentats de Christchurch, en Nouvelle-Zélande, le 15 mars 2019.
Un policier lors des attentats de Christchurch, en Nouvelle-Zélande, le 15 mars 2019. — Tessa BURROWS / AFP

Dix-sept minutes. La vidéo des massacres à Christchurch en Nouvelle-Zélande, qui ont fait au moins 49 morts, a été diffusée en direct sur Facebook par l'assaillant pendant de longues minutes avant d’être bloquée. La vidéo a ensuite été reprise sur YouTube et Twitter, et des séquences étaient encore visibles ce vendredi.

Les réseaux sociaux ont été incapables de bloquer la diffusion mondiale de cette vidéo, soulignant ainsi les défis auxquels ils doivent faire face aujourd’hui concernant la modération des contenus. Les grandes plateformes ont promis d’endiguer le partage d’images violentes et autres contenus inappropriés par le biais de systèmes automatisés et d’un contrôle humain. Mais cela ne fonctionne pas, estime certains observateurs.

« Aucune excuse »

« Il n’y a aucune excuse au fait que le contenu de cette transmission en direct soit encore en train de circuler sur les réseaux sociaux en ce moment », juge Lucinda Creighton, ancienne ministre irlandaise aujourd’hui conseillère au Counter Extremism Project, qui fait campagne pour retirer les contenus violents des plateformes internet. Ces derniers « disent avoir leurs propres technologies mais nous ne savons pas lesquelles. Il n’y a pas de transparence et ça ne marche clairement pas », poursuit-elle. Son organisation a développé une technologie qui combattrait certains types de contenus violents et l’a proposée à des compagnies d’internet, en vain.

L’équipe Facebook en charge de a Nouvelle-Zélande a affirmé que le réseau social avait œuvré à empêcher le partage de cette vidéo ultra-violente. « Nous ajoutons chaque vidéo que nous trouvons à une base de données interne qui nous permet de détecter et de retirer automatiquement des copies des vidéos une fois qu’elles sont de nouveau téléchargées », a expliqué Facebook dans un communiqué. « Nous appelons les utilisateurs à nous signaler (les vidéos) pour que notre système puisse bloquer de nouveaux partages ».

« Des plateformes sans modérateurs » ?

La police de Nouvelle-Zélande a exhorté dans un tweet vendredi à ne pas partager les « images extrêmement éprouvantes » des massacres de Christchurch qui ont circulé, selon des internautes, sur Reddit, 4chan et d’autres plateformes. Twitter et YouTube ont dit travailler à retirer les vidéos en question et tout contenu leur étant lié.

Twitter affirme avoir « une procédure rigoureuse et une équipe dédiée pour gérer les situations délicates et d’urgence comme celle-ci ». « Nous coopérons également avec la police pour faciliter ses enquêtes », a indiqué le réseau social. Quant à YouTube, la plateforme a fait savoir qu’elle « œuvrait activement à retirer toute vidéo violente » de ses pages.

Facebook a assuré avoir interrompu la transmission en direct de cette vidéo et l’avoir retirée à la suite d’une requête de la police, et avoir bloqué les comptes Facebook et Instagram du tireur. « Nous retirons également tout soutien ou apologie du crime et du ou des tireurs dès que nous en voyons », a précisé Facebook.

« Aucun algorithme » ne peut remplacer les modérateurs

Bien trop peu, selon Jennifer Grygiel, enseignante en communication à l’université de Syracuse qui suit de près les réseaux sociaux. « Facebook est une plateforme sans modérateurs où vous pouvez transmettre ce que vous voulez », accuse-t-elle, estimant qu’aucune mesure d’ampleur n’a été prise depuis la diffusion en direct sur Facebook en 2017 d’un meurtre à Cleveland, dans l’Ohio.

Il est devenu courant, selon Jennifer Grygiel, pour les auteurs de crimes d’utiliser les réseaux sociaux pour diffuser leurs actes, et ces derniers sont ensuite réenregistrés puis partagés, encore et encore. Selon elle, des plateformes comme YouTube ont la capacité de trouver et de retirer ces vidéos violentes avec des recherches par mots-clés, mais il faudrait davantage de personnes pour le travail de modération et de surveillance. Les outils d’intelligence artificielle peuvent aider, poursuit-elle, mais « aucun algorithme ne peut être conçu pour cela, parce qu’on ne peut pas prévoir l’avenir ».