Agression en direct sur Facebook: Comment est réalisée la modération des lives vidéo

INTERNET Facebook Live se retrouve une nouvelle fois au coeur d’une polémique…

F.F.

— 

Live Video, sur Facebook, permet de diffuser des vidéos en direct.
Live Video, sur Facebook, permet de diffuser des vidéos en direct. — FACEBOOK

Après la diffusion en direct sur le réseau social de l’agression d’un jeune handicapé à Chicago, la firme a réagi ce jeudi. « La glorification ou l’apologie de crimes sur Facebook est interdite et nous avons retiré cette vidéo pour cette raison. Pourtant, dans de nombreux cas, des internautes ont partagé ce type de contenu pour condamner ces actes ou sensibiliser leurs contacts. Lorsque c’est le cas, la vidéo n’est pas supprimée », a indiqué un porte-parole.

Le problème de la modération pour les live vidéo s’est posé dès la mise à disposition des outils comme Periscope sur Twitter ou Facebook Live, en 2015. Comment modérer de la vidéo en temps réel lorsque chaque jour, ce sont des millions de vidéos qui sont diffusées en live sur Facebook ? Un problème d’autant plus complexe que la modération sur Facebook est opérée par des humains, d’après l’agence de communication qui représente la société américaine.

Une équipe de modérateurs

Facebook dispose d’une équipe de modérateurs fonctionnant 24h/24 et 7 jours/7, mais dont le nombre et la répartition par pays restent inconnus. La firme américaine compte sur la vigilance de ses utilisateurs pour lui signaler des contenus violents. En juin dernier, une polémique était déjà apparue lorsque le terroriste Larossi Abballa s’était filmé en direct sur Facebook après avoir assassiné un policier et sa compagne à leur domicile de Magnanville (Yvelines). Des internautes avaient donné l’alerte et la vidéo avait été supprimée.

Un mois plus tard, une jeune femme filmait en direct la mort de son petit ami abattu par un policier dans le Minnesota. La vidéo était supprimée dans un premier temps avant de réapparaître. Pour Facebook, tout est une question de contexte. Une vidéo montrant des images de Daesh dans un but d’information (un reportage, par exemple) ne sera pas retirée d’après elle. En revanche, des images de propagande le seront dès que les modérateurs auront été alertés, affirme l’agence de presse de Facebook.

Ce qui apparaît sur Internet reste sur Internet

Ainsi, Facebook indique sur son blog que « si une personne filme un meurtre pour alerter ou bien identifier le tireur, nous l’autoriserons. En revanche, si quelqu’un partage la même vidéo pour se moquer de la victime ou faire l’apologie du meurtre, nous retirerons la vidéo ».

La modération de Facebook Live est en fait la même pour tous les contenus de la société. Une modération qui se fait si et seulement si un utilisateur signale le contenu comme choquant. Dans le cas de l’attentat de Magnanville, 90 personnes avaient vu la vidéo en direct avant qu’elle ne soit retirée. Le problème, c’est que les images sont restées disponibles ailleurs que sur Facebook, puisque des internautes ont pris soin d’enregistrer la vidéo et de la partager…

Facebook, comme Periscope, qui a également connu des excès, estime que « Facebook Live est un nouveau format. Nous avons beaucoup appris au cours des derniers mois et nous continuerons d’apporter des améliorations à cette expérimentation ».