Lutte contre la haine en ligne : La loi Avia, un risque pour la liberté d'expression ?
TECHNOLOGIE•La proposition de loi de la députée LREM Laëtitia Avia, en cours d'examen au Parlement, entend combattre les contenus haineux sur Internet. Plusieurs spécialistes s'interrogent sur sa mise en application.Marie De Fournas
L'essentiel
- L'article premier d'une proposition de loi LREM impose aux réseaux sociaux, plateformes collaboratives et moteurs de recherche de supprimer les contenus haineux dans un délai de 24 heures.
- Couplé à la peur d’une amende, ce mécanisme pourrait inciter les plateformes à supprimer plus de contenus avec moins d’attention et à recourir davantage à des algorithmes.
- Avec un manque de transparence des réseaux sociaux concernant les modalités de modération, certains spécialistes craignent une entrave à la liberté d'expression.
Le Parlement doit adopter définitivement, d’ici la fin du mois de janvier, la proposition de loi de la députée LREM Laëtitia Avia, destinée à lutter contre les contenus haineux en ligne. Si le dernier examen du texte à l’Assemblée nationale a écarté les messages en lien avec la traite des êtres humains et le proxénétisme du champ de la loi, les députés n’ont, en revanche, pas touché à la mesure phare et controversée de la proposition de loi. Celle-ci oblige les plateformes et moteurs de recherche à retirer sous 24 heures les contenus « manifestement » illicites.
Parmi eux : les provocations au terrorisme, les incitations à la haine ou à la violence, les propos discriminatoires, ou encore les injures à caractère raciste, homophobes ou religieuses. Cette mesure est le principal point de friction entre l’Assemblée et le Sénat qui souhaite tout simplement la supprimer.
Vers une censure arbitraire ?
Elle suscite également des réserves auprès de différents organismes, comme le Conseil national du numérique, la Commission nationale consultative des droits de l’Homme ou encore de La Quadrature du Net, qui y voient une atteinte à la liberté d’expression. L’application de ce texte s’annonce en effet complexe, limitée et devant remplir certaines conditions, selon divers experts.
« La loi indique que ce sont aux plateformes et réseaux sociaux, qui sont des acteurs privés, de juger leurs contenus. Les termes de "manifestement illicite" impliquent une part d’arbitraire et laissent une marge d’appréciation », décrypte Nikos Smyrnaios, maître de conférences en sciences de l’information et de la communication à l’université de Toulouse-III. Il craint que le court laps de temps imposé pour supprimer ces contenus, couplé à la peur d’une amende – instaurée également par le texte et pouvant aller jusqu’à 1,25 million euros – ne pousse des plateformes à supprimer des contenus au moindre doute, participant à une généralisation de la censure.
L’intelligence artificielle ne peut pas tout
« Les plus petites plateformes n’ont pas les mêmes moyens que les grosses en termes de modération et ne sont donc pas en mesure de répondre correctement à ces exigences », poursuit le chercheur. Quant aux géants du Web, la réponse la plus efficace pour respecter le délai risque de reposer sur des algorithmes. Une technologie sur laquelle les experts invitent à la prudence.
Dans un rapport publié ce mercredi, l’organisation indépendante ISD (Institute for Strategic Dialogue) dresse un aperçu de la nature des propos haineux publiés sur les réseaux sociaux en France. Parmi leurs conclusions, les chercheurs ont constaté et mis en avant les limites des algorithmes de traitement du langage pour identifier et modérer un discours haineux en ligne. Les algorithmes élaborés pour l’étude ont atteint 85 % de précision dans l’identification des propos haineux. « Un niveau élevé pour ce type de recherche » précise le document, mais tout en précisant que « l’intelligence artificielle ne doit pas être considérée comme une panacée ». « Il existe toujours des zones grises en fonction du contexte », souligne Iris Boyer, responsable adjointe de la division technologie, communications et éducation de l’ISD.
« La satire, l’ironie, l’humour échappe à la technologie »
« Il y a cette espèce de fantasme qu’une intelligence artificielle pourrait filtrer les contenus à 100 % de manière automatique, mais ça n’existe pas, abonde Nikos Smyrnaios. Tous les algorithmes ont une marge d’erreur, tout simplement parce que le langage humain est trop complexe. La satire, l’ironie, l’humour échappe à la technologie. » Ce dernier évoque également les cas où un internaute reprendra une citation haineuse pour justement la dénoncer. On peut aussi citer les cas où une communauté ciblée décide de s’approprier une insulte afin de la détourner de son sens originel.
« Les approches visant à modérer un contenu haineux ou destinées à susciter la haine doivent inclurent un examen réalisé par un être humain », conseille l’étude ISD. Un système déjà mis en place par les gros réseaux sociaux, mais qui n’est pas sans faille. « Facebook, qui a des équipes de modérateurs, a par exemple censuré la photo historique de la petite fille brûlée au napalm pendant la guerre du Vietnam, jugeant qu’il s’agissait de pornographie infantile », rappelle Nikos Smyrnaios.
Plus de transparence
« Les grands réseaux sociaux ont déjà mis en place des infrastructures pour la modération, mais complètement désolidarisées de la société, des juges ou d’un gouvernement », constate Iris Boyer. Elle suggère que les plateformes en ligne travaillent main dans la main avec les acteurs issus des organisations de la société civile : « Si on veut avoir la garantie que les entreprises du web prennent en compte les nuances des discours, il faudrait par exemple que les associations représentant les personnes ciblées par ces discours haineux participent à la formation des modérateurs ». « On pourrait également imaginer la participation du public dans les décisions. C’est un peu ce qui se fait déjà avec Wikipédia, où la modération est gérée par les contributeurs », souligne Nikos Smyrnaios.
Derrière cette volonté d’ouvrir la modération à des acteurs extérieurs, les deux experts espèrent surtout plus de transparence sur les critères de modération. « Si les plateformes privées sont les seules juges, cela pourrait devenir encore plus opaque avec la loi, craint Nikos Smyrnaios. On connaîtra peut-être le nombre de contenus supprimés, mais sûrement pas les critères utilisés pour prendre la décision. » « La transparence des processus de modération de contenus et une plus grande supervision de la part d’un régulateur gouvernemental […] sont nécessaires pour garantir que la modération soit appropriée, précise et dotée de ressources suffisantes », recommande ISD.



















