Comment l’Europe tente de lutter contre la haine en ligne et la désinformation avec sa « Constitution numérique »

RESEAUX SOCIAUX Avec le « Digital Services Act », la nouvelle législation européenne imposera à toutes les plateformes « le devoir de coopérer » pour retirer les contenus haineux

Hakima Bounemoura

— 

Avec le « Digital Services Act », la nouvelle législation européenne imposera à toutes les plateformes « le devoir de coopérer » pour retirer les contenus haineux.
Avec le « Digital Services Act », la nouvelle législation européenne imposera à toutes les plateformes « le devoir de coopérer » pour retirer les contenus haineux. — John Schnobrich/Unsplash
  • Le Digital Services Act, qui sera présenté le 15 décembre par la Commission européenne, imposera pour la première fois des « obligations de moyens » aux réseaux sociaux dans la modération des contenus.
  • La Commission européenne va également réclamer aux plateformes numériques comme Facebook, Twitter ou Google la transparence sur la manière dont leurs algorithmes recommandent du contenu.
  • « D’une certaine manière, ce texte arrive au bon moment », estime Christine Balagué, professeure à l’Institut Mines-Télécom, en allusion aux évènements récents comme la crise du coronavirus ou les élections américaines.

« Les plateformes en ligne ont pris une place centrale dans notre vie, dans notre économie et dans notre démocratie. » Ce constat dressé par Thierry Breton, commissaire européen chargé du marché intérieur, suffit à résumer l’esprit du projet de législation qui sera présenté ce mardi par la Commission européenne pour mieux encadrer le monde numérique. Ce projet très attendu, qui comportera deux volets juridiques baptisés Digital Services Act (DSA) et Digital Market Act (DMA), entend imposer des règles plus strictes aux géants du numérique comme Google ou Facebook, afin de supprimer les espaces de non droit sur Internet et les abus de position dominante. « Ce sera une véritable Constitution numérique européenne » qui structurera le secteur « pour les prochaines décennies », indique le cabinet du secrétariat d’Etat chargé des Affaires européennes.

L’un des principaux volets du Digital Services Act porte sur l’encadrement des plateformes et des réseaux sociaux afin de lutter contre la haine en ligne et la désinformation. L’assassinat en France du professeur Samuel Paty, ciblé sur les réseaux sociaux, a souligné les dangers de l’anarchie numérique. La nouvelle législation européenne imposera désormais « à tous les services numériques le devoir de coopérer » pour retirer des contenus « dangereux » (discours de haine, terrorisme, pédopornographie…). « D’une certaine manière, ce texte arrive au bon moment », estime Christine Balagué, professeure à l’Institut Mines-Télécom, en allusion aux évènements des derniers mois – crise du Covid-19, élections américaines – qui ont montré les effets délétères que pouvaient avoir les réseaux sociaux.

La Commission européenne ne devrait pas toucher au statut d’hébergeur de ces plateformes, mais encadrera leurs pratiques de modération, tant au niveau du retrait des contenus illégaux (dont la définition restera propre à chaque Etat membre, étant donné les différences culturelles et historiques), qu’au niveau des techniques de mise en avant des contenus, ce qu’on appelle la gestion de la viralité, et qui comprend notamment tous les algorithmes mis en avant sur les fils d’actualité des différents réseaux sociaux.

« Obligation de moyens » dans la modération des contenus

Le Digital Services Act, imposera pour la première fois des « obligations de moyens » aux plateformes dans la modération des contenus. « Les réseaux sociaux aujourd’hui n’agissent pas assez vite et s’exonèrent de leur responsabilité en la matière », indique le cabinet de Cédric O. Le secrétaire d’Etat au Numérique pousse ainsi vers une régulation similaire à celle qui existe dans le domaine bancaire concernant les virements frauduleux. « Les banques ne sont pas responsables de chaque virement frauduleux effectué par leurs clients. Elles ont en revanche l’obligation, sous peine d’amendes significatives, de mettre en place des moyens adaptés pour détecter et signaler ces virements. »

Avec le Digital Services Act, le principe serait le même. En cas de moyens insuffisants ou inefficaces mis en place par les plateformes numériques pour lutter contre les contenus haineux ou violents, de lourdes sanctions, des amendes voir un blocage de l’accès d’une partie ou de la totalité des services pourraient être envisagés. « L’objectif est de contrôler la rapidité de la gestion de ces contenus et la fiabilité de leur priorisation [les plateformes devront traiter les contenus les plus graves en premier lieu]. Mais également de contrôler qu’il n’y a pas de sur-retrait afin de préserver la liberté d’expression », indique le cabinet du secrétariat d’Etat chargé du Numérique.

Cette mesure du DSA devrait être ajoutée par amendement au projet de loi destiné à lutter contre l’islam radical et les « séparatismes », qui a été présenté le 9 décembre en Conseil des ministres. Cette obligation « de moyens » avait été inscrite dans la proposition de loi Avia contre la haine en ligne, censurée en grande partie par le Conseil constitutionnel. « La volonté du gouvernement est de pouvoir », via le projet de loi « confortant les principes républicains, la traduire un peu par anticipation, compte tenu de l’urgence qu’il y a sur ce sujet », avait déclaré Cédric O lors d’une interview accordée mi-novembre à 20 Minutes.

« Transparence » des algorithmes utilisés pour recommander les contenus

La Commission européenne va également réclamer aux plateformes numériques comme Facebook, Twitter ou Google la transparence sur la manière dont leurs algorithmes recommandent du contenu. « Nous ne pouvons pas laisser les décisions qui affectent l’avenir de notre démocratie être prises dans le secret de quelques conseils d’administration d’entreprises », explique  la vice-présidente de la Commission européenne Margrethe Vestager. Ces plateformes devront « dire aux utilisateurs comment leurs systèmes de recommandation décident du contenu à montrer », ce qui leur permettra « de juger » s’ils doivent « faire confiance à la vision du monde qu’elles donnent ».

Elles devront aussi « fournir des rapports réguliers sur le contenu des outils de modération qu’elles utilisent » et « de meilleures informations sur les publicités que nous voyons », afin d’avoir « une meilleure idée de qui essaie de nous influencer ». « Aujourd’hui, nous ne savons pas combien de modérateurs en langue française officient chez Twitter. Et nous sommes incapables de vérifier les chiffres qui nous sont donnés par les autres réseaux sociaux. Ce n’est pas normal », expliquait Cédric O en novembre à 20 Minutes. Après l’assassinat du professeur d’histoire Samuel Paty, le secrétaire d’Etat français au Numérique avait clairement dénoncé dans une tribune « l’opacité » des algorithmes des réseaux sociaux.

Les algorithmes des géants du numérique sont régulièrement pointés du doigt. Certains ont déjà été manipulés, comme ce fut le cas avec Facebook lors du scrutin présidentiel de 2016 aux Etats-Unis ou lors du référendum sur le Brexit au Royaume-Uni. « Les réseaux sociaux disent être neutres politiquement, mais est-ce qu’ils le sont vraiment ? Personne ne peut observer aujourd’hui leur comportement », expliquait récemment lors d’un colloque Benoît Loutrel, qui a dirigé une mission d’étude de hauts fonctionnaires français chez Facebook. « Les réseaux sociaux ont un impact majeur sur les opinions des gens, explique Christine. Balagué. Ils sont donc redevables d’explications sur la manière dont ils diffusent l’information. »