On a testé la modération de TikTok (et c’est pas facile)
Coulisses•« 20 Minutes » a visité le « Transparency & Accountability Center » de TikTok. De la détection automatique à la décision humaine, immersion dans la modération du réseau socialQuentin Meunier
L'essentiel
- 20 Minutes a visité le centre de modération de TikTok à Dublin pour comprendre le processus de filtrage des contenus.
- Une majorité des contenus sont identifiés automatiquement par IA et le reste nécessite une modération humaine effectuée par 4.600 modérateurs européens dont 600 dédiés au français.
- TikTok supprime massivement les comptes d’utilisateurs trop jeunes (plus de 21 millions entre janvier et mars pour les moins de 13 ans), mais s’oppose à un relèvement de l’âge minimal à 15 ans proposé en France.
Sur TikTok, le pire n’est pas ce qu’on voit, c’est ce que l’on ne voit pas et que l’algorithme laisse passer. Pour en apprendre plus, 20 Minutes a visité le « Transparency & Accountability Center » (Centre Transparence et Responsabilité) de TikTok Europe, dans les locaux de la plateforme à Dublin. Ce département se charge des questions de sécurité, de protection des données, mais aussi de modération pour le réseau social, et proposait de jeter un oeil à quelques dispositifs. Parmi eux, une version de démonstration des outils utilisés par les modérateurs de TikTok.
La première étape, c’est un filtre qui scanne les vidéos mises en ligne sur la plateforme. L’algorithme estime ensuite si l’image contient des éléments qui contreviennent aux conditions d’utilisation de TikTok, selon des dizaines et des dizaines de paramètres. S’il détecte, par exemple, une cigarette, le drapeau d’une organisation terroriste ou un objet dangereux, le contenu est supprimé de manière préventive. En tout, 87 % des contenus retirés sont identifiés par IA. Pour ce qui reste, il faut faire confiance à la modération humaine, dont on a pu tester une version arrangée.
L’humain complète la machine… en tout cas il essaie
On s’installe au poste. Au centre de l’écran, une vidéo TikTok et des « captures d’écran » clés. A gauche, les informations liées : comptes à l’origine de la publication, description… A droite, une liste des items de la politique de TikTok à ne pas enfreindre. Un enfant qui se filme à la première personne sur une autoroute en trottinette électrique ? Comportement dangereux. Des images d’illustration d’une personne pendue ? Incitation au suicide. « Les humains sont meilleurs pour tout ce qui concerne le contenu qui demande du contexte, donc ce qui va concerner les discours haineux ou la désinformation par exemple », nous coache Adam Stairs, responsable sensibilisation et partenariats, confiance et sécurité pour l’Europe de l’Ouest et du Nord.
Dans d’autres cas, pourtant, ce n’est pas aussi facile. Dans cette vidéo d’un enfant qui boit un liquide transparent dans un verre à shot, y a-t-il de l’alcool ou c’est juste une blague avec de l’eau ? Quand une vidéo parle d’élection, comment faire la part des choses entre liberté d’expression et modération de la désinformation, d’autant plus qu’on n’a pas les moyens de faire le fact-checking en direct nous-même. Et les utilisateurs utilisent parfois un langage codé ou des memes pour contourner les filtres automatiques, comme l’euphémisme « unalive » (dé-vivant) pour remplacer « mourir » ou « tuer ». « On sollicite une collaboration externe pour la veille sur les façons de contourner le filtre », assure Adam Stairs.
En plus, on a du temps, alors que les vrais modérateurs doivent enchaîner les décisions, souvent à une cadence très soutenue. TikTok emploie 4.600 modérateurs dédiés aux langues européennes, dont 600 dédiés au français. La plate-forme l’assure, ces derniers traitent uniquement les contenus francophones d’Europe, et l’équipe est répartie entre des employés TikTok et des prestataires externes.
Une chasse aux utilisateurs trop jeunes
Mais il n’y a pas que les contenus qui sont modérés. Sur TikTok, interdiction d’avoir moins de 13 ans. L’application scanne donc les vidéos mises en ligne par les comptes suspectés d’appartenir à des enfants afin de les faire fermer. Et pour les comptes qui ne postent pas de contenus, la plateforme assure surveiller différents « comportements » tout au long de l’expérience TikTok. Entre janvier et mars, plus de 21 millions de comptes suspectés d’avoir moins de 13 ans ont été supprimés.
Cette limite de 13 ans pourrait-elle bientôt être rehaussée ? En France et dans l’Union européenne, un âge minimal relevé à 15 ans est en discussion. « A partir des avis que nous avons recueilli, nous ne pensions pas que des restrictions aussi lourdes et générales soient la solution, soutient Valiant Richey, directeur mondial de la sensibilisation et des partenariats, confiance et sécurité chez TikTok. Nous pensons que c’est pas la meilleure façon d’aller chercher les jeunes. »
La France, elle, semble avoir tranché. Le rapport de la commission d’enquête parlementaire sur les effets psychologiques de TikTok, remis le 11 septembre, a renouvelé cette proposition d’interdire l’accès aux réseaux sociaux aux moins de 15 ans, sauf pour les messageries. Comme quoi, les moyens techniques ne suffisent pas toujours à convaincre.



















