20 Minutes : Actualités et infos en direct
SpiraleSur les réseaux sociaux, des jeunes en souffrance enfermés dans des bulles

Santé mentale : Sur les réseaux sociaux, des jeunes en souffrance enfermés dans des bulles

SpiraleDe TikTok à Instagram, les plateformes utilisent un algorithme pour personnaliser ce que les utilisateurs voient, quitte à les matraquer de contenus néfastes
Les algorithmes des réseaux, et notamment de Tiktok, ont tendance à enfermer leurs utilisateurs dans des bulles qui peuvent devenir dangereuses pour la santé mentale des personnes déjà fragiles. (MONTAGE PHOTO)
Les algorithmes des réseaux, et notamment de Tiktok, ont tendance à enfermer leurs utilisateurs dans des bulles qui peuvent devenir dangereuses pour la santé mentale des personnes déjà fragiles. (MONTAGE PHOTO) - Canva / Canva
Diane Regny

Diane Regny

L'essentiel

  • Mardi, Amnesty International a publié un rapport estimant que le fil « Pour toi » de TikTok pousse parfois les jeunes vers du contenu dangereux pour la santé mentale.
  • Conçus pour garder les utilisateurs le plus longtemps possible sur leur plateforme, les réseaux sociaux ont tendance à proposer des contenus de plus en plus personnalisés.
  • Les utilisateurs qui souffrent de fragilité mentale se retrouvent alors parfois enfermés dans des bulles algorithmiques néfastes.

Dites-moi ce que contient votre page « Pour toi », je vous dirai qui vous êtes. Le fil continu de vidéos de cet onglet de TikTok s’élabore en fonction de vos intérêts et des données collectées par le réseau social chinois sur votre personnalité mais aussi votre état d’esprit du moment. A chacun sa bulle. Certains font défiler à l’infini d’adorables acrobaties canines, d’autres se passionnent pour la rénovation de vieux meubles. Mais pour les utilisateurs en souffrance psychologique, les murs de la personnalisation à l’extrême se referment rapidement. Et le fil « Pour toi » se transforme en véritable piège.

Des « bulles subies »

« Les réseaux sociaux sont conçus pour générer un maximum de temps de cerveau disponible pour les annonceurs. Ils vivent de la publicité et, en vous poussant le contenu le plus pertinent possible, ils vous font rester plus longtemps », explique Paul Midy, député de la 5e circonscription de l’Essonne et rapporteur général du projet de loi pour sécuriser Internet. Car si vous adorez les courses de Formule-1, vous avez bien plus de chances de rester scotché à votre écran de téléphone si TikTok vous propose des vidéos de drifts plutôt que des images de ballet. Océane Herrero, journaliste et autrice de Le système TikTok évoque des « bulles subies ». « Sur TikTok, l’application choisit le contenu pour vous dès la première utilisation. L’utilisateur perd la main sur ce qu’il va voir et donc sa capacité à décider », note-t-elle.

Sans un bruit, l’algorithme s’adapte aux changements d’humeur ou aux passions naissantes de ses utilisateurs. « Tout est pisté, jusqu’au niveau de bien-être des utilisateurs », alerte Katia Roux, chargée du plaidoyer technologie et droits humains chez Amnesty International. L’association a d’ailleurs publié mardi un rapport dans lequel elle accuse le fil « Pour toi » de pousser les jeunes vers des contenus délétères pour leur santé mentale. Michael Stora, psychologue et auteur de Réseaux (a)sociaux : découvrez le côté obscur des algorithmes, évoque des « algorithmes doudous », pensés pour vous montrer « des vidéos qui vous correspondent, censées vous faire du bien ».

Mais si les utilisateurs s’intéressent à des contenus liés à la santé mentale, en l’espace d’une heure seulement « de nombreuses vidéos recommandées idéalisent, banalisent voire encouragent le suicide », accuse Amnesty International, qui a fait le test pour son rapport. « TikTok va pousser les utilisateurs à rester, quitte à leur proposer des contenus nocifs, pour les pousser à continuer à scroller », regrette Katia Roux, accusant la plateforme de « faire de la rentabilité sur les émotions des gens ».

Des ronrons aux scarifications

« Il suffit de s’intéresser à un sujet pour qu’il soit boosté et qu’il envahisse le fil pour toi de Tik Tok », explique Katia Roux qui dénonce cette « spirale » qui, « quand elle est proposée à des personnes dans une situation difficile ou un état mental fragilisé, est dévastatrice ». Car l’engrenage n’a évidemment pas les mêmes conséquences lorsqu’il s’agit de chatons ou de contenus promouvant la scarification. « Les adolescents vivent une crise de santé mentale » et « les données suggèrent que l’essor des médias sociaux a joué un rôle » dans celle-ci, rappelle Sydney Bryn Austin, professeure de sciences sociales et comportementales à l’université de Harvard qui a travaillé avec Amnesty International.

« De 2009 à 2019, la dépression chez les adolescents a doublé et le suicide est devenu l’une des principales causes de décès chez les jeunes âgés de 10 à 14 ans », ajoute-t-elle. Les adolescents sont particulièrement sensibles à ces contenus. « Ils s’identifient beaucoup plus en miroir parce qu’ils sont fragiles à cette période », analyse Michael Stora qui ajoute que chez « un jeune en état de grande fragilité », regarder ce type de contenus « peut le faire sombrer à son tour ». « Les jeunes ont plus de difficulté à prendre du recul et TikTok est un réseau social en lequel ils ont confiance », abonde Océane Herrero. Si l’algorithme de TikTok ne fait évidemment « pas exprès de pousser des contenus déprimants à une personne suicidaire, c’est ainsi qu’il fonctionne » malgré tout, souligne Paul Midy.

Devenir plus fine qu’une feuille A4

« L’essor des médias sociaux visuels, comme TikTok ou Instagram, a aggravé les impacts négatifs sur les jeunes, notamment en ce qui concerne l’image corporelle, l’estime de soi et le risque de développer des troubles de l’alimentation [TCA] », regrette la Dr Austin qui ajoute que les TCA ont l’un des « taux de mortalité parmi les plus élevés de toutes les maladies mentales ». Or, les réseaux sociaux enfantent régulièrement des tendances délétères, suivies par des milliers de jeunes en quête d’eux-mêmes. « Les réseaux sociaux n’engendrent pas l’anorexie mentale mais à l’époque des sites pro-ana [pro-anorexie], on s’est rendu compte que certaines adolescentes suivaient parfois ces sites au point d’en bousiller leur santé physique », se souvient Michael Stora, qui a dirigé pendant sept ans la cellule psychologique de Skyrock. Sur TikTok, si une jeune fille montre de l’intérêt pour les contenus en rapport avec les TCA, sa page « Pour toi » finira par lui en proposer une myriade.

Le « thigh gap challenge » qui encourageait les jeunes filles à montrer l’écart entre leurs cuisses prônait déjà la minceur. Après avoir envahi les réseaux sociaux, le mot-clef est désormais banni de TikTok et, si vous le tapez dans la barre de recherche, l’appli vous propose des numéros d’aide d’urgence. « Sur Instagram, il y a aussi eu le challenge qui consistait à placer une feuille A4 devant sa taille et prouver que cette dernière ne dépassait pas », se souvient Océane Herrero qui ajoute toutefois que cette quête de la maigreur, surtout chez les femmes, « c’est le fond de l’air » de notre société. Les réseaux sociaux font office de miroir et déforment, parfois, nos obsessions sociétales. Qu’elles soient malsaines ou non.

Les hashtags, de l’interdiction à la réinvention

Mais les caisses de résonance que sont devenus les réseaux sociaux, sur lesquels bon nombre d’entre nous se suspendent des heures durant, chaque jour, ont leur part de responsabilité. « Au moment des Facebook files [en 2021], plusieurs études internes montraient la responsabilité des plateformes dans le renforcement du mal-être, notamment sur l’image que les jeunes filles ont d’elles-mêmes à cause d’Instagram », se souvient Océane Herrero. « En 2019, TikTok a assuré qu’il amenait à présent des vidéos "exploration" dans le fil "Pour toi" », rappelle la journaliste. De nombreux mots-clefs sont à présent aussi censurés comme « suicide » ou « eating disorders » (troubles du comportement alimentaire).

« Mais des créateurs de contenu détournent "ED" pour "Ed Sheeran" [le chanteur] afin de passer à travers les mailles de l’algorithme », illustre l’autrice, qui ajoute que bloquer des hashtags n’empêche pas les communautés d’en inventer de nouveaux, au contraire. « TikTok s’engage à assurer la sécurité et le bien-être de notre communauté adolescente. Nous nous efforçons de gérer avec nuance la complexité du soutien au bien-être de notre communauté sur notre plateforme », a répondu l’application à Amnesty International. Contacté par 20 Minutes dans le cadre de cette enquête, le réseau social n’a pas répondu.

Loi anti-bulle et renvoi de balle

Amnesty International demande aux réseaux sociaux de renoncer à la personnalisation à outrance et l’interdiction de la publicité ciblée partout dans le monde, au moins pour les jeunes. Dans l’Union européenne, elle l’est déjà pour les mineurs depuis l’entrée en vigueur du nouveau règlement européen sur les services numériques (DSA). En France, « on a fait voter la loi numérique qui oblige les plateformes à nous donner la possibilité de sortir de notre bulle et, donc, de nous proposer un fil qui n’est pas basé sur nos préférences », collectées par l’algorithme, explique Paul Midy qui précise que cette fonctionnalité sera effective à partir de l’année prochaine.

Le député enjoint les plateformes à appliquer la loi et les règlements européens, notamment en supprimant rapidement les contenus illégaux, mais aussi à « mieux calibrer leurs algorithmes ». « Si vous discutez avec ChatGPT et lui demandez une blague, l’intelligence artificielle le fera mais si vous demandez une blague raciste, elle dira non. C’est la même chose pour l’algorithme de TikTok, ils peuvent mettre en place des garde-fous », illustre Paul Midy. Et de conclure : « On a énormément avancé sur ces sujets. Même s’il reste beaucoup à faire, la balle est chez les plateformes aujourd’hui. »

Sujets liés