L’algorithme de Facebook encourage la désinformation et la toxicité, selon un rapport interne

ENQUETE En 2018, Facebook a modifié son algorithme de recommandation afin de supprimer les contenus toxiques présents sur sa plateforme, mais en réalité l’outil fait tout le contraire selon un rapport interne

avec agence
— 
Le logo du réseau social Facebook. (illustration)
Le logo du réseau social Facebook. (illustration) — SOPA Images/SIPA

Plusieurs documents internes de Facebook ont été publiés par le Wall Street Journal cette semaineIl a d’abord été question d’une modération moins stricte pour certains comptes « VIP » sur Instagram et Facebook, puis de la nocivité d’Instagram pour les jeunes filles. Mercredi, c’est l’algorithme de recommandation du réseau social qui est visé par ces documents, rapporte BFMTV.

En 2018, Facebook a modifié son algorithme de recommandation qui permet de nourrir le fil d’actualité des utilisateurs. Les équipes de Mark Zuckerberg voulaient accentuer « les interactions sociales qui ont du sens », c’est-à-dire entre amis, familles et proches. L’objectif était de moins confronter un utilisateur à un contenu « professionnel », qui peut altérer sa santé mentale.

« Notre approche a eu des effets collatéraux malsains »

Mais dans un rapport interne que le Wall Street Journal s’est procuré, un groupe de chercheurs au sein de l’entreprise américaine a démontré que l’algorithme se comportait en réalité bien différemment. Plutôt que de préserver l’utilisateur, celui-ci met en avant des contenus jugés violents, toxiques ou alors des fakenews.

« La désinformation, la toxicité et les contenus violents sont anormalement prévalents dans les contenus repartagés », est-il écrit dans l’un des mémos publiés par le quotidien américain. « Notre approche a eu des effets collatéraux malsains sur d’importantes parties des contenus, notamment en politique et en actualité. Notre responsabilité est grandissante », ajoutent les chercheurs.

D’après les conclusions de cette enquête, certains partis politiques ou médias ont ainsi orienté leur ligne éditoriale vers le sensationnalisme et l’outrage. L’objectif : provoquer de « l’engagement », un terme évoquant les partages, les « likes » ou les commentaires liés à une publication. « Beaucoup d’interlocuteurs nous ont dit qu’ils craignaient, sur le long terme, les effets négatifs que peut avoir cet algorithme sur la démocratie », a déclaré un chercheur dans un rapport interne.