Réseaux sociaux : « Il faut trouver un juste équilibre entre régulation et liberté d’expression », explique Romain Badouard

INTERVIEW La question de la modération des grandes plateformes est à nouveau au centre des débats en France. « 20 Minutes » a interrogé le chercheur Romain Badouard, qui vient de publier « Les nouvelles lois du Web. Modération et censure » aux éditions du Seuil

Propos recueillis par Hakima Bounemoura

— 

Publier un message de soutien sur Internet à l'auteur d'un acte terroriste est lourdement puni par la loi.
Publier un message de soutien sur Internet à l'auteur d'un acte terroriste est lourdement puni par la loi. — Jenny Kane/AP/SIPA
  • Depuis la mort de Samuel Paty dans une attaque terroriste à Conflans-Sainte-Honorine, la pression s’intensifie autour des grandes plateformes, accusées de laisser se propager la haine en ligne et les discours violents.
  • 20 Minutes a interrogé l’enseignant et chercheur Romain Badouard, qui publie Les nouvelles lois du Web. Modération et censure aux éditions du Seuil.
  • « Il est urgent d’inventer une régulation démocratique des contenus sur Internet, afin que celui-ci demeure pour tous et toutes un espace de débat, d’engagement et de liberté », explique le chercheur.

Pointés du doigt après l’assassinat de Samuel Paty dans une attaque terroriste à Confans-Sainte-Honorine, les réseaux sociaux sont aujourd’hui sur la sellette. Depuis quelques jours, la question de la modération des contenus par les grandes plateformes est à nouveau au centre des débats politiques en France. Et la pression s’intensifie autour des géants du Web, accusés de laisser se propager la haine en ligne et les discours violents. Comment empêcher aujourd’hui de tels contenus de tourner sur les réseaux sociaux et empêcher qu’ils ne deviennent viraux ?

« Face à la montée de la désinformation et des discours de haine, une régulation nouvelle doit aujourd’hui se mettre en place », estime Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’université Paris-II (Panthéon-Assas), et chercheur au laboratoire Carism de l’Institut français de presse. « Il est urgent d’inventer une régulation démocratique des contenus sur Internet, afin que celui-ci demeure pour tous et toutes un espace de débat, d’engagement et de liberté », ajoute-t-il. 20 Minutes a interrogé le chercheur, qui vient de sortir Les nouvelles lois du Web. Modération et censure au Seuil*.

La question de la modération sur les réseaux sociaux est au centre de l’actualité depuis la mort de Samuel Paty. Les plateformes ont-elles une responsabilité dans l’assassinat du professeur ?

Les réseaux sociaux ont une forme de responsabilité dans l’engrenage qui a mené à cet assassinat, de manière directe et indirecte. Plusieurs questions se posent, concernant notamment le compte  du terroriste sur Twitter, qui a été signalé plusieurs fois par des utilisateurs. Et la vidéo du parent d’élève qui elle a été signalée à la plateforme Pharos. Que s’est-il passé après ces signalements ? Est-ce que ces contenus ont été revus par des modérateurs ? Quelles ont été leurs décisions ? Pour l’instant, tout ça reste encore assez flou. En tout cas, ce qui s’est passé dans cette affaire montre bien qu’il est urgent d’agir pour renforcer la modération des grandes plateformes.

Que faudrait-il faire pour lutter contre la haine en ligne ? Mettre en place de nouvelles mesures, renforcer la plateforme Pharos…

Après l’assassinat de Samuel Paty, le gouvernement s’est empressé d’annoncer de nouvelles mesures. Mais il y a déjà des lois qui existent, notamment sur le cyberharcèlement. Pour moi, l’urgence, aujourd’hui, c’est plutôt quels moyens on accorde pour faire appliquer ce qui existe déjà. La plateforme Pharos, c’est seulement 25 à 30 fonctionnaires par rapport au flot de signalements reçus. C’est juste insuffisant. Cela fait des années également que l’on parle de la mise en place d’un parquet spécifique en France sur la question [le gouvernement a confirmé la mise en place prochaine d’un pôle spécialisé au sein du parquet de Paris, rescapé de la loi Avia].

Et puis il y a une question qui est tout aussi fondamentale : comment influer sur l’économie de l’attention [le fait de promouvoir des contenus radicaux, violents, indignés…], sur lequel repose le modèle économique de ces plateformes ?

Pour lutter contre les contenus haineux et le « cyber islamisme », Marlène Schiappa souhaite mettre en place « une cyber-brigade républicaine ». Est-ce une bonne idée de s’immiscer dans les discussions en ligne des internautes ?

C’est aussi une manière de réguler les réseaux sociaux. C’est une proposition intéressante qui montre que les internautes aussi doivent participer à l’effort de modération. Cette logique de contre-discours n’est pas nouvelle. Des associations et des groupes d’internautes s’organisent déjà pour porter la contradiction face aux discours haineux ou violents sur Internet. Leur but étant surtout d’attirer l’attention de ceux qu’on appelle la « majorité silencieuse », c’est-à-dire tous ces gens qui voient défiler les conversations sans y prendre part. C’est un travail nécessaire lorsque ça vient des internautes. Mais si c’est une forme de réponse organisée par l’État, je ne suis pas sûr que cela ait le même succès. Certains y verront une tentative d’intrusion du gouvernement dans les débats en ligne.

Vous expliquez dans votre livre qu’il est urgent d’inventer « une régulation démocratique » des contenus sur les réseaux sociaux. Mais de quelle manière ?

Les réseaux sociaux sont aujourd’hui devenus l’une des principales arènes du débat public. La question n’est pas de savoir s’il faut les réguler, mais comment et avec qui on le fait. Quand on parle de régulation, on a tendance à prendre cela sous l’angle des relations avec les plateformes. Mais c’est un sujet qui est beaucoup plus vaste, qui englobe aussi la question du fonctionnement du marché de la publicité sur Internet, et de quelle manière les annonceurs peuvent avoir un rôle à jouer dans la lutte contre les discours de haine et les fausses informations.

C’est aussi un sujet qui concerne les internautes eux-mêmes, et les associations de la société civile. Et donc tout l’enjeu aujourd’hui, c’est de créer des formes de gouvernance qui puissent prendre en considération ces différents acteurs. Mais aussi de trouver le bon équilibre entre la lutte contre la haine en ligne et la liberté d’expression.

Le problème de la haine en ligne, et donc de la modération, n’a pas de frontière, et touche tous les pays. Faut-il les légiférer au niveau national, au niveau européen ou même à l’échelle mondiale ?

Les États doivent participer à cette régulation, c’est une certitude. Pendant de nombreuses années, on a dit que les gouvernements étaient impuissants face aux plateformes, ce qui est faux. Les nouvelles législations qui se mettent en place, en France mais aussi en Europe, le prouvent aujourd’hui. Certes, la loi Avia a été rétorquée pour l’une de ces principales dispositions jugée liberticide, mais d’autres lois de régulation sont passées, comme celle sur « les fausses informations ».

Et puis lorsqu’on regarde au niveau européen, plusieurs pays ont déjà fait passer des législations qui imposent de nouvelles normes aux plateformes. Le rôle de l’État, c’est donc de fixer de nouvelles règles auxquelles les réseaux sociaux doivent se soumettre. Et c’est aussi le rôle de la Commission européenne avec le Digital Services Act [texte européen visant à réguler les plateformes et leurs contenus qui doit être présenté le 2 décembre] qui a pour objectif de fixer des règles communes de fonctionnement aux réseaux sociaux.

« L’opacité » des algorithmes et des systèmes de modération des réseaux sociaux pose aujourd’hui un réel souci. Comment contraindre les plateformes à plus de transparence ?

Il reste du chemin à faire en termes de transparence. Les plateformes ont toutefois progressé sur le sujet ces trois dernières années, certaines publient régulièrement des rapports de transparence et détaillent davantage leur politique de modération dans leurs conditions d’utilisation. Mais tout cela reste très opaque, et pose problème. Il faudrait que les pouvoirs publics puissent bénéficier d’un pouvoir d’audit par rapport à ce que font les plateformes : comment s’y prennent les modérateurs, comment les algorithmes hiérarchisent les contenus… C’est aujourd’hui fondamental de savoir comment fonctionnent les politiques de modération des plateformes pour pouvoir avoir une action efficace sur les contenus « problématiques ».

Justement, la modération à outrance peut aboutir à une forme de censure. Certains disent que les géants du Web pourraient devenir des ennemis de la liberté d’expression…

Si les plateformes n’en font pas assez, elles sont taxées de laxisme, et de laisser se propager la violence​ et la haine en ligne. Et si elles agissent trop, elles sont accusées de censure. C’est un équilibre difficile à trouver qui, selon moi, viendra de la capacité à associer les citoyens à la gouvernance des plateformes.

Ca peut paraître utopique, mais il faudrait donner aux usagers un droit à se faire entendre dans les décisions qui concernent les politiques de publication des réseaux sociaux, et le droit de pouvoir faire appel des décisions prises. Une plateforme comme Facebook évolue aujourd’hui dans ce sens-là, notamment avec la mise en place de sa « cour suprême », composée d’un collège de personnalités indépendantes qui disposent d’un pouvoir de contrainte sur les politiques de publication de Facebook.

On parle aujourd’hui beaucoup de modération. Mais le principal souci, n’est-ce pas plutôt la viralité des contenus ?

La modération, ce n’est pas que supprimer un contenu ou le laisser en ligne. C’est aussi circonscrire sa diffusion. De nombreuses plateformes, comme YouTube ou Facebook, jouent justement sur la visibilité de certaines informations jugées « nauséabondes » en limitant leur viralité, c’est-à-dire en ne les faisant pas remonter dans les fils d’actualités et en restreignant leur recommandation  par les algorithmes. C’est une technique très efficace pour justement limiter la publication d’un contenu problématique. Mais, comme on l’a déjà dit précédemment, il faudrait aujourd’hui de la transparence sur la gestion automatisée de cette modération.

Quand on voit que l’élection américaine va essentiellement se jouer sur les réseaux sociaux, est-ce que toute cette réflexion sur la régulation des plateformes n’arrive aujourd’hui pas un peu tard ?

Si ce sujet arrive aujourd’hui dans le débat, c’est parce que l’opinion publique s’est saisie de cette question-là. Aujourd’hui, les citoyens se sentent concernés, les journalistes en parlent, et les Etats aussi essayent de se faire entendre. C’est tout cela qui crée un climat propice à la régulation, ce qui n’était pas forcément le cas avant l’élection présidentielle américaine de 2016, où on ne se posait pas encore toutes ces questions de régulation. On voit tout le danger aujourd’hui que cela représente de ne rien faire. Même les plateformes, auparavant réticentes, ont compris qu’il fallait qu’elles se mettent autour de la table, notamment à cause de la pression nouvelle des annonceurs.

*Les nouvelles lois du Web. Modération et censure, de Romain Badouard, éditions du Seuil, 29 octobre 2020, 128 pages, 11,8 euros.