Municipales 2020 : Fake news, faux comptes, ingérence étrangère... Comment Facebook se mobilise pour les élections

POLITIQUE Facebook explique avoir tiré « des enseignements » des principaux scrutins de ces dernières années et promet de les appliquer pour les élections municipales françaises

Hakima Bounemoura

— 

Le logo Facebook sur smartphone.
Le logo Facebook sur smartphone. — LOIC VENANCE / AFP
  • Facebook a dévoilé cette semaine son « plan » pour éviter que ses utilisateurs soient influencés ou manipulés durant les élections municipales.
  • « Protéger l’intégrité du scrutin et le processus politique est une priorité », assure Anton Battesti, le responsable des affaires publiques de Facebook France.
  • Lutte contre les fausses informations, les faux comptes, les tentatives d’ingérence… Le réseau social affirme avoir mis en place plusieurs dispositifs qui devraient permettre de limiter les dérives.
  • « Toutes les mesures mises en place par Facebook ne sont que des effets d’annonce. Sur le fond, rien ne va changer », dénonce Fabrice Epelboin, spécialiste des médias sociaux, et enseignant à Sciences Po Paris.

A quelques semaines du premier tour des élections municipales, le 15 mars prochain, Facebook prépare le terrain. Le réseau social, qui souhaite « protéger le processus démocratique » contre la désinformation et les menaces d’ingérences étrangères, a dévoilé cette semaine son « plan » pour éviter que l’opinion publique soit influencée ou manipulée. « Protéger l’intégrité du scrutin et le processus politique est une priorité », a déclaré Anton Battesti, le responsable des affaires publiques de Facebook France.

Accusé d’avoir laissé proliférer sur sa plateforme de nombreuses fausses informations lors des derniers grands scrutins, le réseau social assure aujourd’hui avoir complètement revu sa copie, et tiré « des enseignements » des erreurs commises dans le passé. Lutte contre les fake news, les faux comptes, ou encore les tentatives d’ingérences étrangères, transparence autour des publicités portant sur un enjeu électoral ou politique… : la firme de Mark Zuckerberg, qui compte en France 36 millions d’utilisateurs, affirme avoir mis en place plusieurs dispositifs.

« Nous avons beaucoup appris après l’élection de Trump en 2016 »

Depuis le scandale Cambridge Analytica, qui a éclaté au printemps 2018, et les soupçons d’ingérences étrangères lors de la dernière présidentielle américaine, Facebook multiplie les efforts pour regagner la confiance du public et des autorités. « Nous avons beaucoup appris après l’élection de Trump en 2016 et, depuis cette date, nous avons énormément investi tant en moyens humains que technologiques pour faire face à ces défis » précise Anton Battesti. « Lutter contre les faux comptes et les tentatives d’ingérence dans les processus électoraux est un défi majeur pour Facebook », complète Elisa Borry, responsable des relations avec les institutions politiques et gouvernementales.

Le réseau social souhaite donc en premier lieu se montrer intransigeant à l’égard des faux comptes, souvent associés à des opérations de désinformation en ligne. « Nous bloquons chaque jour des millions de faux comptes dès leur création », précise Facebook. 99,7 % d’entre eux sont supprimés de manière pro-active, indique l’entreprise dans l’un de ses derniers rapports de transparence. Pour les trois premiers trimestres de 2019, la plateforme explique ainsi avoir supprimé près de 5,4 milliards de faux comptes, contre 2,1 milliards à la même période l’an passé. Le réseau social a également développé des outils de transparence afin que les internautes puissent voir « qui utilise la plateforme et s’assurer de son utilisation de manière authentique ».

« Sur le fond, rien ne va changer »

Même si ces annonces vont dans « le bons sens », de nombreux spécialistes estiment que ce dispositif est encore très insuffisant. « Toutes les mesures mises en place par Facebook ne sont que des effets d’annonce. Sur le fond, rien ne va changer », explique Fabrice Epelboin, spécialiste des médias sociaux, et enseignant à Sciences Po Paris. « Facebook se réveille un peu tard. La plateforme agit aujourd’hui sous une pression mondiale, celle des Etats et celle de l’opinion publique. Son action est imparfaite, et surtout insuffisante », estime de son côté Tristan Mendès-France, maître de conférences associé à l’université Paris-Diderot, spécialiste des cultures numériques.

Et pour preuve, l’enseignant cite l’existence de la page Facebook « Marine Le Pen 2022 » qui a fait l’objet de plusieurs signalements, mais qui aujourd’hui reste toujours active. « Cette page, gérée par des administrateurs en Ukraine, et qui repartage des articles de soi-disant médias français dont les serveurs sont localisés  en Russie, est un exemple typique d’ingérence étrangère qui passe sous les mailles du filet. C’est surtout un indicatif de tout ce qui passe sous les radars. Une myriade d’autres pages de cet ordre-là existent », précise Tristan Mendès-France, qui considère donc « comme nulle et non avenue toute communication de Facebook autour de la lutte contre les faux comptes et l’ingérence étrangère » tant que des pages de ce type resteront en ligne.

Page d'accueil de la page
Page d'accueil de la page - Capture d'écran Facebook

Les efforts entrepris par le réseau social se déclinent aussi du côté de la publicité politique. Facebook met en avant, pour les élections municipales, un outil déployé depuis plusieurs mois déjà :  sa bibliothèque publicitaire. « Quand vous voyez une publicité s’afficher dans votre fil d’actualité, vous pouvez désormais, en cliquant sur un simple bouton, savoir qui l’a financée, pour quel budget et qui en est la cible », explique Anton Battesti. De quoi mieux cerner la nature du discours qui apparaît dans son fil d’actualité. « Dans les faits, c’est très compliqué de s’y retrouver. Il faut fouiller, cliquer sur plusieurs liens… Il n’est pas évident d’avoir accès à ces données », explique Tristan Mendès-France.

Bibliothèque publicitaire de Facebook.
Bibliothèque publicitaire de Facebook. - Capture d'écran Facebook

« Les fake news ne sont que la partie immergée de l’iceberg »

L’autre grand objectif affiché de Facebook est de limiter la propagation des fausses nouvelles. « Nous avons beaucoup investi dans l’intelligence artificielle [les algorithmes], cela nous permet d’identifier très rapidement les contenus litigieux et les sources douteuses », ajoute Anton Battesti. « Les contenus suspects sont transmis à notre pôle de vérificateurs (« fact checkers ») », dont fait partie 20 Minutes. « Selon l'évaluation qui en sera faite par les fact-checkers, la visibilité du contenu sera réduite dans le fil d'actualité des utilisateurs, et sa viralité ainsi fortement limitée », détaille Elisa Borry.

Des mesures là encore très insuffisantes, selon les observateurs. « S’imaginer que Facebook pourrait lutter efficacement contre la désinformation serait un leurre », estime Fabrice Epelboin. « Il y a un vrai problème de diagnostic dans la menace, les fake news ne sont que la partie émergée de l’iceberg. Il est très facile de manipuler l’opinion publique simplement en "ciblant" de manière efficace certaines populations », ajoute le spécialiste des médias sociaux. Quoi que Facebook fasse, « ceux qui maîtrisent la mécanique marketing des outils de la plateforme ne seront jamais inquiétés, et continueront à interférer librement dans le débat public »…