YouTube : Les contenus haineux toujours omniprésents, selon le rapport d’une association

MODERATION YouTube affirme avoir désactivé 235.000 chaînes enfreignant son règlement en matière de propos malveillants et limité la promotion des vidéos légales mais susceptibles d’attiser la haine

20 minutes avec agence

— 

La plateforme YouTube est régulièrement accusée d'attiser la haine. (Illustration)
La plateforme YouTube est régulièrement accusée d'attiser la haine. (Illustration) — STRF/STAR MAX/IPx/AP/SIPA

Malgré la mise en place de mesures visant à lutter contre les contenus haineux et discriminatoires, YouTube héberge encore trop de vidéos incitant à la violence, affirme l’Anti Defamation League (ADL). Cette association américaine tire ce constat d’une étude menée auprès de 915 personnes et relayée sur son site vendredi. Elle montre que 9 % des utilisateurs de la plateforme interrogés ont visionné au moins une vidéo extrémiste.

Les participants à l’enquête sont par ailleurs 22 % à avoir regardé un clip sur une chaîne YouTube susceptible de diffuser des images attisant la haine. L’étude a identifié 322 de ces chaînes mais aussi 290 autres qualifiées d’extrémistes ou prônant le suprémacisme blanc. 91 de ces 612 canaux ont été supprimés avant le 21 janvier. YouTube a d’ailleurs tenu à détailler ses efforts en la matière.

Des efforts insuffisants

« Nous avons une politique claire qui interdit les propos haineux et le harcèlement », a précisé l’entreprise dans un communiqué envoyé à The Hill. La plateforme a ainsi affirmé avoir désactivé en un trimestre 235.000 chaînes ne respectant pas ce règlement. « Depuis 2019, nous avons […] limité la portée du contenu qui n’enfreint pas les règles mais qui n’en est pas loin en faisant en sorte qu’il ne soit pas recommandé aux utilisateurs qui ne le recherchent pas », a également indiqué YouTube.

L’ADL a cependant jugé ces démarches insuffisantes. Par la voix de son président Jonathan Greenblatt, elle demande aux réseaux sociaux d’accélérer leurs efforts. « S’ils ne le font pas, alors ils devront être tenus responsables quand leur système, conçu pour attirer les utilisateurs, s’avère amplifier le contenu dangereux menant à la violence », a-t-il estimé.