Lutte contre la haine en ligne : La loi Avia, un risque pour la liberté d'expression ?

TECHNOLOGIE La proposition de loi de la députée LREM Laëtitia Avia, en cours d'examen au Parlement, entend combattre les contenus haineux sur Internet. Plusieurs spécialistes s'interrogent sur sa mise en application.

Marie De Fournas

— 

Controversé, le texte de Laëtitia Avia prévoit que plateformes et moteurs de recherche auront l'obligation de retirer les contenus haineux
Controversé, le texte de Laëtitia Avia prévoit que plateformes et moteurs de recherche auront l'obligation de retirer les contenus haineux — ATTA KENARE / AFP
  • L'article premier d'une proposition de loi LREM impose aux réseaux sociaux, plateformes collaboratives et moteurs de recherche de supprimer les contenus haineux dans un délai de 24 heures. 
  • Couplé à la peur d’une amende, ce mécanisme pourrait inciter les plateformes à supprimer plus de contenus avec moins d’attention et à recourir davantage à des algorithmes.
  • Avec un manque de transparence des réseaux sociaux concernant les modalités de modération, certains spécialistes craignent une entrave à la liberté d'expression.

Le Parlement doit adopter définitivement, d’ici la fin du mois de janvier, la proposition de loi de la députée LREM Laëtitia Avia, destinée à lutter contre les contenus haineux en ligne. Si le dernier examen du texte à l’Assemblée nationale a écarté les messages en lien avec la traite des êtres humains et le proxénétisme du champ de la loi, les députés n’ont, en revanche, pas touché à la mesure phare et controversée de la proposition de loi. Celle-ci oblige les plateformes et moteurs de recherche à retirer sous 24 heures les contenus « manifestement » illicites.

Parmi eux : les provocations au terrorisme, les incitations à la haine ou à la violence, les propos discriminatoires, ou encore les injures à caractère raciste, homophobes ou religieuses. Cette mesure est le principal point de friction entre l’Assemblée et le Sénat qui souhaite tout simplement la supprimer.

Vers une censure arbitraire ?

Elle suscite également des réserves auprès de différents organismes, comme le Conseil national du numérique, la Commission nationale consultative des droits de l’Homme ou encore de La Quadrature du Net, qui y voient une atteinte à la liberté d’expression. L’application de ce texte s’annonce en effet complexe, limitée et devant remplir certaines conditions, selon divers experts.

« La loi indique que ce sont aux plateformes et réseaux sociaux, qui sont des acteurs privés, de juger leurs contenus. Les termes de "manifestement illicite" impliquent une part d’arbitraire et laissent une marge d’appréciation », décrypte Nikos Smyrnaios, maître de conférences en sciences de l’information et de la communication à l’université de Toulouse-III. Il craint que le court laps de temps imposé pour supprimer ces contenus, couplé à la peur d’une amende – instaurée également par le texte et pouvant aller jusqu’à 1,25 million euros – ne pousse des plateformes à supprimer des contenus au moindre doute, participant à une généralisation de la censure.

L’intelligence artificielle ne peut pas tout

« Les plus petites plateformes n’ont pas les mêmes moyens que les grosses en termes de modération et ne sont donc pas en mesure de répondre correctement à ces exigences », poursuit le chercheur. Quant aux géants du Web, la réponse la plus efficace pour respecter le délai risque de reposer sur des algorithmes. Une technologie sur laquelle les experts invitent à la prudence.

Dans un rapport publié ce mercredi, l’organisation indépendante ISD (Institute for Strategic Dialogue) dresse un aperçu de la nature des propos haineux publiés sur les réseaux sociaux en France. Parmi leurs conclusions, les chercheurs ont constaté et mis en avant les limites des algorithmes de traitement du langage pour identifier et modérer un discours haineux en ligne. Les algorithmes élaborés pour l’étude ont atteint 85 % de précision dans l’identification des propos haineux. « Un niveau élevé pour ce type de recherche » précise le document, mais tout en précisant que « l’intelligence artificielle ne doit pas être considérée comme une panacée ». « Il existe toujours des zones grises en fonction du contexte », souligne Iris Boyer, responsable adjointe de la division technologie, communications et éducation de l’ISD.

« La satire, l’ironie, l’humour échappe à la technologie »

« Il y a cette espèce de fantasme qu’une intelligence artificielle pourrait filtrer les contenus à 100 % de manière automatique, mais ça n’existe pas, abonde Nikos Smyrnaios. Tous les algorithmes ont une marge d’erreur, tout simplement parce que le langage humain est trop complexe. La satire, l’ironie, l’humour échappe à la technologie. » Ce dernier évoque également les cas où un internaute reprendra une citation haineuse pour justement la dénoncer. On peut aussi citer les cas où une communauté ciblée décide de s’approprier une insulte afin de la détourner de son sens originel.

« Les approches visant à modérer un contenu haineux ou destinées à susciter la haine doivent inclurent un examen réalisé par un être humain », conseille l’étude ISD. Un système déjà mis en place par les gros réseaux sociaux, mais qui n’est pas sans faille. « Facebook, qui a des équipes de modérateurs, a par exemple censuré la photo historique de la petite fille brûlée au napalm pendant la guerre du Vietnam, jugeant qu’il s’agissait de pornographie infantile », rappelle Nikos Smyrnaios.

Plus de transparence

« Les grands réseaux sociaux ont déjà mis en place des infrastructures pour la modération, mais complètement désolidarisées de la société, des juges ou d’un gouvernement », constate Iris Boyer. Elle suggère que les plateformes en ligne travaillent main dans la main avec les acteurs issus des organisations de la société civile : « Si on veut avoir la garantie que les entreprises du web prennent en compte les nuances des discours, il faudrait par exemple que les associations représentant les personnes ciblées par ces discours haineux participent à la formation des modérateurs ». « On pourrait également imaginer la participation du public dans les décisions. C’est un peu ce qui se fait déjà avec Wikipédia, où la modération est gérée par les contributeurs », souligne Nikos Smyrnaios.

Derrière cette volonté d’ouvrir la modération à des acteurs extérieurs, les deux experts espèrent surtout plus de transparence sur les critères de modération. « Si les plateformes privées sont les seules juges, cela pourrait devenir encore plus opaque avec la loi, craint Nikos Smyrnaios. On connaîtra peut-être le nombre de contenus supprimés, mais sûrement pas les critères utilisés pour prendre la décision. » « La transparence des processus de modération de contenus et une plus grande supervision de la part d’un régulateur gouvernemental […] sont nécessaires pour garantir que la modération soit appropriée, précise et dotée de ressources suffisantes », recommande ISD.

Un délai restreint à une heure pour le contenus signalés par la police

«Alors que la loi exigeait initialement de retirer les contenus illicites en 24 heures, elle impose désormais aux plateformes de retirer en une heure les contenus que la police lui signalera comme relevant du terrorisme ou d’abus sur mineurs», dénonce l'association La Quadrature du Net dans un communiqué publié ce mercredi. Cette disposition a été ajoutée par amendement du gouvernement. «La police décidera seule des contenus relevant du terrorisme – sans le contrôle d’un juge», s'inquiète La Quadrature.