Comment TikTok essaye de rendre sa plateforme plus « safe » pour les ados
MODERATION•En cette rentrée scolaire, l’application préférée des ados a décidé de mettre en place de nouvelles fonctionnalités pour renforcer la sécurité de ses plus jeunes utilisateursHakima Bounemoura
L'essentiel
- Pointées du doigt pour leur manque de sécurité, les plateformes multiplient les mesures de protection envers leurs plus jeunes utilisateurs.
- Sur TikTok, « la messagerie directe va être désactivée par défaut pour les moins de 17 ans. Et les plus jeunes utilisateurs, âgés de 13 à 15 ans, ne pourront plus partager leurs vidéos qu’avec leurs abonnés ou leurs amis », détaille Julie de Bailliencourt, head of product policy chez TikTok.
- « Les mesures annoncées sont un début, mais je doute que cela soit suffisant. Nous allons regarder de très près leur traduction concrète au quotidien », explique Raphaël Bartlomé, responsable du service juridique de l’UFC-Que-Choisir.
Contenus violents, vidéos pédopornographiques, mais aussi cyberharcèlement et phénomène d’addiction… Pointées du doigt pour leur manque de sécurité, les plateformes multiplient les mesures de protection envers leurs plus jeunes utilisateurs. TikTok, l’application la plus téléchargée au monde en 2020, en a fait aujourd’hui sa priorité. Le réseau social, qui a bâti son succès grâce à l’engouement des jeunes pour son format de vidéos courtes, vient d’annoncer « d’importantes nouvelles mesures » visant à renforcer la sécurité et le bien-être des adolescents sur sa plateforme.
Des restrictions supplémentaires afin de mieux les protéger contre les dangers liés aux réseaux sociaux. « Ces nouvelles fonctionnalités ont pour objectif de restreindre l’exposition des mineurs aux contenus inappropriés, et de les responsabiliser sur la manière dont il utilise notre application. Nous souhaitons que notre jeune public se sente en confiance sur notre plateforme. C’est pour cela que nous pensons qu’il est important d’être plus proactif dans ce domaine », explique à 20 Minutes Julie de Bailliencourt, chargée de la sécurité des contenus et de la modération (Head of Product Policy) chez TikTok.
« La messagerie directe désactivée par défaut pour les moins de 17 ans »
Si TikTok tient à rappeler qu’il offre déjà « de nombreux paramètres de sécurité et de confidentialité », le réseau social chinois a décidé de passer à la vitesse supérieure en cette rentrée scolaire. « La messagerie directe va être désactivée par défaut pour les moins de 17 ans. Les plus jeunes utilisateurs, âgés de 13 à 15 ans, ne pourront plus partager leurs vidéos qu’avec leurs abonnés ou leurs amis, l’option « Tout le Monde » étant désormais désactivée. Il ne sera également plus possible pour ces ados d’utiliser les fonctionnalités « Duos » et « Collages » [ces options qui permettent de reprendre une vidéo et d’en filmer une autre en parallèle sont souvent utilisées pour dénigrer les vidéos de certains utilisateurs]. En outre, les 13-15 ans ne recevront plus de notifications après 21h, ni les 16-17 ans après 22h, pour favoriser des nuits plus reposantes », détaille Julie de Bailliencourt.
Des annonces insuffisantes pour certaines associations de protection de l’enfance qui estiment notamment qu’il est aujourd’hui encore trop simple pour un utilisateur de mentir sur son âge lors de son inscription sur la plateforme, qui rappelons-le, est interdite aux moins de 13 ans. « Nous avons encore du travail, certainement beaucoup de choses à améliorer. Nous recueillons le feed-back de beaucoup d’experts, de groupe d’études pour nous perfectionner. Mais nous essayons au maximum d’être proactifs, en allant chercher notamment les contenus abusifs, grâce à nos outils d’intelligence artificielle [machine learning…] », ajoute la responsable de la sécurité des contenus, qui tient à préciser que sur le premier trimestre 2021, près de 70 millions de vidéos inappropriées ont été supprimées, « 90 % d’entre elles l’ayant été avant même qu’il y ait un signalement », et que TikTok a supprimé plus de 7,2 millions de comptes soupçonnés d’appartenir à des enfants.
Des vidéos de décapitation, des contenus sexuellement explicites…
Ces nouvelles mesurent s’inscrivent dans un contexte de critiques très fortes à l’encontre de TikTok et de sa politique de modération des contenus vis-à-vis des mineurs. En juin dernier, une vidéo montrant une personne se faisant décapiter a largement circulé auprès des ados sur la plateforme. L’Académie de Dijon (Côte-d’Or) avait dû alerter l’ensemble de ses établissements et les associations de parents d’élèves sur la potentielle exposition des collégiens et lycéens à ces images. L’association de protection des consommateurs UFC-Que-Choisir et ses homologues européens ont quant à eux déposé en début d’année une plainte auprès de la Commission européenne contre TikTok, qu’ils accusent de ne pas suffisamment protéger les mineurs contre des « contenus potentiellement dangereux », notamment « des vidéos sexuellement explicites proposées aux utilisateurs après quelques minutes de visionnage ».
« Les annonces aujourd’hui faites par TikTok, et les nouvelles fonctionnalités mises en place, interviennent après le drame qui s’est passé en Italie [une fillette de 10 ans est morte asphyxiée après avoir participé à un challenge sur le réseau social], et le blocage de la plateforme dans le pays. Ça a été un signal fort envoyé au géant chinois, montrant que les autorités peuvent prendre des décisions rapides, sans attendre leur réaction », tient à rappeler à 20 Minutes Raphaël Bartlomé, responsable du service juridique de l’UFC-Que-Choisir, en charge de la plainte contre TikTok. « Les mesures annoncées sont un début, mais je doute que cela soit suffisant. Nous allons regarder de très près leur traduction concrète au quotidien, et rester vigilants sur leur politique de modération. La priorité aujourd’hui, c’est de protéger les plus jeunes, par tous les moyens ».
TikTok n’est pas la seule plateforme à se voir reprocher de ne pas suffisamment protéger les enfants. Pour éviter des scandales susceptibles d’entacher leur réputation et de les priver de recettes publicitaires, Google et Facebook mettent régulièrement à jour leurs règlements concernant les adolescents. YouTube (Google) a ainsi annoncé des mesures similaires à TikTok le 10 août dernier, rendant les vidéos mises en ligne par les 13-17 ans par défaut en mode « privé ». Mêmes types de mesures chez Instagram (Facebook), qui a annoncé fin juillet rendre les comptes en mode privé pour ses utilisateurs de moins de 16 ans, qui ne recevront également plus de notifications « push » à partir de 21 heures.


















