Attentat de Christchurch : Deux ans après, les contenus violents et terroristes sont-ils mieux modérés sur les réseaux sociaux ?

SOMMET L’attentat perpétré en Nouvelle-Zélande contre une mosquée avait été diffusé en ligne sur les réseaux sociaux par son auteur

Hélène Sergent

— 

Le 15 mai 2019, la France et la Nouvelle Zélande appelaient les Etats, la société civile et l'industrie du numérique à s'engager contre la diffusion de contenus violents en ligne.
Le 15 mai 2019, la France et la Nouvelle Zélande appelaient les Etats, la société civile et l'industrie du numérique à s'engager contre la diffusion de contenus violents en ligne. — Raphael Lafargue-POOL/SIPA
  • Le 15 mai 2019, Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern réunissaient neuf chefs d’Etat, la Commission européenne et les dirigeants de sept entreprises du numérique pour lancer « l’appel de Christchurch ».
  • Imaginé après l’attentat perpétré en Nouvelle-Zélande contre une mosquée et diffusé en ligne sur les réseaux sociaux par son auteur, il avait pour objectif de lutter contre la diffusion de contenus terroristes et violents sur les réseaux sociaux.
  • Malgré des avancées significatives en la matière, des difficultés technologiques, économiques et politiques subsistent.

Le 15 mars 2019, l’horreur se répandait sur les écrans des internautes du monde entier. Diffusé en direct sur Facebook par son auteur pendant dix-sept minutes, l’attentat meurtrier contre deux mosquées à Christchurch en Nouvelle-Zélande, suscitait une vive émotion. Deux mois plus tard, en mai 2019, Emmanuel Macron et la première ministre néo-zélandaise, Jacinda Ardern, avaient souhaité apporter une réponse politique à la hauteur de l’émoi provoqué par l’événement. Réunis à Paris, ils lançaient un appel solennel à la communauté internationale, aux plateformes et à la société civile.

A l’époque, l'ambition affichée était grande : les contenus terroristes et violents doivent disparaître des réseaux sociaux. Deux ans après cet « appel de Christchurch », ses adhérents se réunissent ce vendredi lors d’un sommet en visioconférence. Sondés en amont pour mesurer l’avancée des engagements pris en 2019 en matière de modération, les Gafam* et les Etats feront un bilan des actions menées depuis deux ans et détermineront de nouveaux axes « prioritaires ».

Des acteurs plus nombreux et une gouvernance plus transparente

Premier apport notable depuis 2019, le nombre d’acteurs engagés dans la lutte contre les contenus violents et terroristes en ligne a considérablement augmenté. Une cinquantaine d’Etats ont adhéré à l’appel (contre neuf à l’origine), tout comme la Commission européenne, l’Unesco, le Conseil de l’Europe, dix entreprises du numérique et 47 représentants de la société civile. L’arrivée, le 7 mai dernier, des Etats-Unis au sein de l’appel de Christchurch a été particulièrement bien accueillie. « C’est symboliquement fort. Nous comptons sur cette adhésion pour contribuer utilement à la pression mise sur les plateformes », glisse une source à l’Elysée.

Berceaux de plateformes populaires comme Telegram, TikTok, WeChat ou VKontakte, deux pays majeurs dans l’économie du numérique manquent toutefois à l’appel : la Russie et la Chine. « Les Etats qui adhèrent à cet appel s’engagent en réalité dans une régulation de plateformes occidentales. Or, en Russie et en Chine, ces plateformes ont peu d’impact et de parts de marché. L’intérêt de la démarche pour ces deux pays est donc faible », explique le chercheur en sciences de l’information et de la communication à l’Université de Nantes, Olivier Ertzscheid.

Malgré ces absents, les Etats membres de l’appel ont engagé diverses réformes. La gouvernance du « Forum mondial de l’Internet contre le terrorisme » aussi appelé « GIFCT » s’est par exemple assainie. Crée en 2017 par Facebook, Microsoft, Twitter et YouTube pour mutualiser leurs efforts dans la lutte contre la diffusion de contenus extrémistes, le GIFCT était jugé peu transparent et trop lié à ces entreprises de la Silicon Valley. Acteur central de la coopération entre les firmes de l’Internet et les États, ce forum fonctionne désormais sous la forme juridique d’une ONG et un comité consultatif indépendant a été mis en place.

Des protocoles de crise et des politiques plus strictes

Pour faire face à la publication en ligne d’attentats ou d’actions violentes, ce forum mondial a défini des « protocoles de crise ». Activé par les plateformes en cas de diffusion massive d’une vidéo en direct ou dans les heures qui suivent une attaque, ce protocole a été utilisé à deux reprises depuis Christchurch. Une première fois en octobre 2019, lors de la diffusion sur Twitch (propriété d’Amazon) de l’attaque contre une synagogue à Halle en Allemagne, puis une deuxième fois en mai 2020 lors de la fusillade de Glendale, en Arizona. 

Dans le rapport d’étape de l’appel de Christchurch, consulté par 20 Minutes, les plateformes assurent également avoir modifié leurs politiques d’utilisation pour restreindre les possibilités de diffuser des contenus violents. Facebook a par exemple limité l’utilisation de son outil «Live» pour les personnes ayant déjà enfreint certaines règles de la plateforme. YouTube a mis en place des restrictions similaires et Twitch interdit depuis peu les contenus qui « représentent, encensent, encouragent ou soutiennent le terrorisme ou des acteurs ou des actes extrémistes violents ».

Les limites de l’intelligence artificielle

En parallèle, les réseaux sociaux communiquent plus régulièrement sur les retraits de ces contenus. Depuis Christchurch, Facebook indique avoir « banni » plus de 250 organisations suprémacistes blanches de sa plateforme. Entre octobre et décembre 2020, 16 millions de contenus violents ont aussi été «détectés»par le réseau de Mark Zuckerberg et 8,6 millions de contenus à caractère terroriste. YouTube, de son côté, revendique des progrès concernant l’exposition des internautes à la violence et au terrorisme. Selon la firme, début 2017, seules 8 % des vidéos retirées pour « extrémisme violent » avaient été vues moins de 10 fois au moment de leur retrait. Au quatrième trimestre 2019, cette proportion s’élevait à 90 %.

Mais la question de la détection de ces contenus reste centrale. Lors de récentes attaques, comme celle commise à Halle en Allemagne, l’alerte n'est pas venue des plateformes mais des internautes. Pour améliorer sa technologie de détection, Facebook a investi dans un partenariat universitaire à hauteur de 7,5 millions de dollars. L’entreprise a aussi passé un accord de coopération avec les gouvernements et les polices américaines et britanniques pour obtenir des vidéos tournées lors de séances d’entraînement au tir. L’objectif : améliorer sa capacité à détecter des vidéos filmées du point de vue d’un tireur, et éviter les erreurs de modération. « Mais les difficultés techniques et humaines sont les mêmes qu’il y a deux ans et même dix ans, expose Olivier Ertzscheid, le problème fondamental étant : Peut-on modérer des flux d’informations en temps réel ? La réponse est non, ou très difficilement ».

Le « darksocial » et les algorithmes

Si l’appel de Christchurch a eu pour effet d’enclencher une dynamique des plateformes dans la lutte contre l’extrémisme en ligne, les freins restent nombreux. « L’appel est creux, générique et plein de bonnes intentions. Il n’a aucune dimension contraignante pour les parties concernées », dénonce le chercheur nantais.

Par ailleurs, l’un des chantiers jugés prioritaires dès 2019, celui du rôle joué par les algorithmes des plateformes dans la diffusion de ces contenus violents a peu avancé. Pour une raison simple, avance Olivier Ertzscheid : «  Le premier ressort économique de ces entreprises, c’est la viralité. Tant que cette logique demeure, les contenus clivants, violents, radicaux ne disparaîtront pas. Embaucher des milliers de modérateurs et améliorer les filtres algorithmiques, cela ne règle pas le problème, ça permet simplement de circonscrire l’incendie ».

« L’appel de Christchurch n’a aucune dimension contraignante pour les parties concernées »

Autre difficulté, la coopération avec les plateformes du « dark social » comme les messageries cryptées (Signal, Telegram) ou les réseaux sociaux confidentiels peine à se faire. Plus difficiles à repérer, les contenus violents ou terroristes y sont, de fait, plus difficiles à réguler. « L’un des axes de travail, c’est augmenter le nombre de participants à l'appel et réussir à se rapprocher de ces petites et moyennes plateformes pour qu’elles puissent elles aussi prévenir le téléchargement et la diffusion de ces contenus », assure une source à l’Elysée.

Devenues en quelques années des espaces privilégiés de partage pour les internautes, certaines messageries ont toutefois pris des mesures pour ralentir la viralité. Sur WhatsApp, depuis janvier 2019, le nombre de partage simultané d’un contenu est par exemple limité à cinq conversations seulement. Selon Facebook, cette mesure a conduit à une baisse de 25 % du nombre de transferts de messages.

Nécessaire, la coopération seule entre plateformes et Etats ne suffit plus, conclut Olivier Ertzscheid : « La régulation évolue très lentement. Sauf, hélas, quand la stupéfaction saisit l’opinion publique comme ce fut le cas après Christchurch. Ces dernières années, les plateformes se sont senties obligées d’accélérer non pas sous l’effet d’injonctions politiques, mais seulement quand le grand public et les internautes les ont sommées de le faire ».

*Google, Amazon, Facebook, Apple, Microsoft