Pourquoi les contenus néo-nazis et racistes sont-ils plus accessibles en ligne que les contenus djihadistes?

MODERATION Après la diffusion en direct de l'attaque de Christchurch sur Facebook, les réseaux sociaux font l'objet de critiques et sont accusés de complaisance à l'égard des contenus racistes

Helene Sergent

— 

Depuis 2015, les contenus reliés à Daesh ou Al-Qaida sont massivement supprimés et modérés par les principaux réseaux sociaux.
Depuis 2015, les contenus reliés à Daesh ou Al-Qaida sont massivement supprimés et modérés par les principaux réseaux sociaux. — AP/SIPA
  • Selon Facebook, le premier signalement d’un utilisateur sur la vidéo originale de l’attentat de Christchurch a été réalisé 12 minutes après la diffusion en direct.
  • Un porte-parole de YouTube affirmait en début de semaine que des « dizaines de milliers de vidéos » de l’attaque avaient été retirées du site et que des centaines de comptes qui glorifiaient le terroriste suprémaciste blanc avaient été résiliés.
  • Twitter n’a publié aucune donnée chiffrée et s'est contenté de réaffirmer sa « politique claire en matière de comportements haineux » interdisant les « comportements violents » à l’égard des minorités.

Les chiffres publiés le 19 mars par Facebook ont de quoi donner le tournis. Dans les premières 24 heures suivant  l'attentat islamophobe de Christchurch en Nouvelle-Zélande, le réseau social a supprimé environ « 1,5 million de vidéos de l’attaque dans le monde ». Filmée et diffusée en direct pendant 17 minutes, l’attaque commise par un Australien dans deux mosquées de l’île et qui a causé la mort de 50 personnes a été massivement dupliquée puis relayée sur diverses plateformes.

Sommés de s'expliquer prochainement devant les parlementaires américains, les dirigeants de Youtube, Facebook, Twitter et Microsoft multiplient, depuis l’attentat, les prises de parole pour réaffirmer leur engagement dans la lutte contre les contenus violents. Mais les interrogations persistent. Si les GAFA semblent avoir pris la mesure de la propagande terroriste islamiste présente sur leurs sites depuis 2015, la place accordée aux propos, vidéos, images et comptes racistes, xénophobes, islamophobes ou suprémacistes blancs interroge.

Une volonté politique « puissante »

« Dès 2012, Daesh a pu utiliser les plateformes de façon efficace et il a fallu du temps pour assécher ce contenu très violent. A l’époque, les vidéos de décapitations ou les comptes de djihadistes actifs depuis la Syrie ou l’Irak étaient nombreux », rappelle Tristan Mendès France, enseignant au Celsa et spécialiste des nouveaux usages numériques. Comme l’auteur de l’attentat de Christchurch avant lui, le terroriste de Magnanville qui a assassiné deux policiers à leur domicile en juin 2016, revendiquait son acte au nom de Daesh en direct dans une vidéo diffusée sur son compte Facebook.

Longtemps taxés d'inaction à l'égard des organisations terroristes islamistes, les réseaux sociaux ont depuis 2017 et la création du « forum mondial d’Internet contre le terrorisme » accentué leur lutte contre les contenus djihadistes. « Depuis la vague d’attentats commis en 2015-2016 et avec l’émergence de Daesh, il y a eu une volonté politique extrêmement puissante aux Etats-Unis et en Europe pour faire pression sur ces plateformes pour que les contenus djihadistes diffusant une propagande violente soit éradiqués de la surface du web », analyse Karim Amellal, enseignant à Sciences-Po Paris et coauteur du rapport sur les contenus haineux en ligne remis en septembre dernier au Premier ministre.

Une volonté politique qui a depuis porté ses fruits si l’on se réfère aux chiffres publiés par ces sites. Entre juillet 2017 et décembre 2017, 274.460 comptes Twitter faisant l’apologie du terrorisme ont été définitivement supprimés par le site. Facebook revendique désormais de son côté le retrait de 99 % des contenus reliés à Daesh ou Al-Qaida avant même leur signalement par les utilisateurs du site. « Les plateformes se sont fait les dents sur la propagande en ligne de Daesh. Alors que cette propagande islamiste radicale s’est peu à peu asséchée, une autre idéologie extrémiste, xénophobe et suprémaciste blanche a, elle, gagné en attractivité », ajoute Tristan Mendès France.

La « zone grise »

Et le succès de cette idéologie raciste et xénophobe a su, selon les deux enseignants s’appuyer sur le droit américain. « La majorité de ces entreprises sont basées aux Etats-Unis et donc soumises à la juridiction américaine, note Karim Amellal, délégué général de l'association Civic Fab, or aux Etats-Unis, le 1er amendement de la Constitution sur la liberté d’expression permet à une frange très radicale, néonazi et suprémaciste blanche, de prospérer et de s’exprimer librement sans tomber sous le coup de la loi ». Cela inclut notamment les thèses révisionnistes ou antisémites. Les contenus djihadistes et pro-Daesh, qui appellent régulièrement au meurtre ou à la violence, ne relèvent pas de la liberté d’expression américaine et peuvent donc légalement être supprimés et réprimés.

« Le discours qui a aujourd’hui une certaine popularité dans de nombreux pays est un discours populiste, souvent perméable au suprémacisme blanc. Je ne pense pas qu’il y ait aujourd’hui beaucoup de personnalités publiques susceptibles de soutenir Daesh. En revanche, certaines personnalités peuvent avoir un regard conciliant avec le suprémacisme blanc, notamment aux Etats-Unis », estime Tristan Mendès France

Sur Twitter, David Duke, figure de l’extrême droite américaine, ancien leader du Ku Klux Kan et supporter de Donald Trump est aujourd’hui encore très actif. La branche française du site a, elle, pris la décision en février dernier de suspendre le compte Twitter de l’hebdomadaire d’extrême droite Rivarol après de nombreux signalements de propos antisémites et racistes.

Le site YouTube a récemment tenté d’apporter une réponse à cette problématique « zone grise ». Depuis plusieurs mois, le site réduit la visibilité de « contenus religieux ou suprémacistes controversés » en supprimant certaines fonctionnalités sous ces vidéos comme les commentaires ou les « likes ».

Des organisations moins structurées

Contrairement aux organisations djihadistes comme Al-Qaida ou Daesh, les mouvements suprémacistes blancs radicaux sont multiples, éparses et pas toujours identifiables pour les plateformes. « Il s’agit d’une mouvance décentralisée. Il n’y a pas d'"Internationale suprémaciste" alors que Daesh repose sur une structure définie avec des relais médiatiques établis », note Karim Amellal. Ce flou nécessite donc des moyens humains importants en matière de modération. Et si Facebook a annoncé le recrutement de 3.000 modérateurs supplémentaires pour lutter contre les contenus haineux, la tâche s’annonce immense.

« Le nombre de vidéos [de l’attentat] téléchargées dans les 24 heures qui ont suivi l’attaque était sans précédent, à la fois en termes d’échelle et de rapidité », reconnaissait ainsi en début de semaine un porte-parole du site de vidéos en ligne YouTube. « Le nombre de sources émettrices de contenus radicaux à tendance terroriste est probablement moindre sur les réseaux sociaux que les sources proches des suprémacistes ou perméables à ce discours », indique Tristan Mendès France.

Pour autant l’enjeu de communication que représente une telle bataille pour ces sites pourrait avoir un impact sur la Silicon Valley poursuit Karim Amellal : « L’attentat de Christchurch est un argument supplémentaire en faveur d’une modération plus stricte à l’égard des suprémacistes. Les plateformes ont tout intérêt à avancer sur ce sujet-là et des entreprises comme Facebook - dans un contexte de scandales à répétition - ne peuvent se permettre indéfiniment un tel déficit d’image ».