Facebook : « Le rôle du conseil de surveillance sera de défendre la liberté d’expression, pas d’être la police »

INTERVIEW Julie Owono, l’une des vingt « sages » de l’instance indépendante qui arbitrera la modération sur le réseau, détaille les enjeux de ce défi

Propos recueillis par Philippe Berry

— 

Facebook a dévoilé les 20 premiers membres de son conseil de surveillance sur la modération.
Facebook a dévoilé les 20 premiers membres de son conseil de surveillance sur la modération. — FACEBOOK
  • Le conseil de surveillance de Facebook est une instance indépendante qui sera chargée de trancher les débats en matière de modération.
  • Les internautes et les organisations pourront le saisir, et Facebook sera contraint de respecter ses décisions.
  • Avec 2,5 milliards d’utilisateurs du réseau, la tâche s’annonce dantesque, sans parler des doutes sur les intentions de Facebook.

C’est une initiative sans précédent à cette échelle. Mercredi, Facebook a présenté les 20 premiers membres de son conseil de surveillance. Après des années de polémiques sur la modération, cette instance indépendante – par son statut mais aussi son financement – sera chargée de jouer les arbitres suprêmes. Les internautes ou les organisations contestant une décision de Facebook pourront faire appel devant le conseil, qui se saisira des dossiers les plus complexes touchant à la liberté d’expression, l’incitation à la haine et aux droits humains. Directrice de l’ONG Internet sans frontières, l’avocate camerounaise Julie Owono a rejoint l’organisation après avoir eu la garantie de pouvoir « garder (son) indépendance et sa liberté de ton ». Malgré le passif de Facebook, elle insiste : « C’est novateur qu’une entreprise privée accepte de céder une partie de souveraineté sur la question des contenus. »

Comment s’est passé votre recrutement ? Facebook a-t-il accepté des voix critiques ?

J’ai postulé et j’ai eu un entretien avec les quatre coprésidents (choisis par Facebook), avec une discussion axée sur les valeurs et sur la liberté d’expression. A titre personnel, j’ai été critique envers l’entreprise dans le cadre de mes recherches avec un rapport sur la modération de contenus haineux en Afrique subsaharienne.

Comment le conseil va-t-il décider de se saisir d’un dossier, avec 40 personnes (à terme) face à 2,5 milliards d’utilisateurs ?

Aussi bien les utilisateurs que Facebook pourront porter à l’attention du conseil les cas et les demandes d’appel. Les détails logistiques sont en cours d’élaboration. Mais c’est évident que sur les milliers, ou peut-être plus, de demandes qui seront reçues, 40 membres ne pourront pas tout traiter. L’idée, c’est de se saisir des affaires emblématiques, non seulement dans les problèmes juridiques qu’elles posent, mais aussi dans l’impact qu’elles pourront avoir sur les utilisateurs dans les situations similaires. Ces décisions pourraient créer une sorte de jurisprudence. On ne va pas prétendre avoir des réponses à tout. Comme des collègues l’ont dit, nous ne sommes surtout pas la police de Facebook, on ne pourra pas tout voir en temps réel.

Mark Zuckerberg pourra-t-il aller contre une décision du conseil ?

Les statuts prévoient que nos décisions s’imposeront au réseau social. Par exemple, si un poste a été supprimé et que nous lui demandons de le remettre, Facebook sera obligé de s’exécuter, sauf si des questions de législations nationales l’empêchent de le faire.

Le patron de Facebook, Mark Zuckerberg, en mai 2018.
Le patron de Facebook, Mark Zuckerberg, en mai 2018. - Yichuan Cao/Sipa USA/SIPA

Quels ont été les plus gros ratés de Facebook en quinze ans ? Quels sont ses défis les plus importants ?

En tant que militante d’une ONG de défense de la liberté d’expression, je ne m’exprime pas là au nom du board. Quand on parle de modération, c’est de savoir quand les plateformes doivent appliquer leur censure – c’est de ça dont il s’agit, il faut le dire – et quelle est la limite. Il y a des textes internationaux qui ont été ratifiés par les Etats et qui s’appliquent aux entreprises, au moins d’un point de vue moral – car il n’y a pas de police qui va vérifier que les droits humains sont respectés. En cas de dangerosité d’une publication, il faut se référer à ce que disent les textes internationaux. Ils rappellent que le principe fondamental doit toujours être la liberté d’expression. Ce n’est que dans certains cas très restrictivement définis par les autorités judiciaires que des limitations peuvent être appliquées. C’est notamment le cas lorsque des publications facilitent un génocide, comme on a pu le voir en Birmanie. Ce sont des décisions qui n’ont pas été prises à temps par Facebook. Ils l’ont reconnu. Ça restera une lettre écarlate sur le réseau social de ne pas avoir pu voir cela avant que ces violences ne soient commises.

Pourquoi n’ont-ils pas pu le voir ? Les progrès de l’intelligence artificielle ont-ils été exagérés ?

A l’époque, très peu du personnel de Facebook parlait birman. Et au-delà, il faut pouvoir comprendre et déceler les subtilités du vocabulaire. Un mot générique peut être utilisé dans un contexte très violent. Si vous avez une machine qui ne comprend pas les subtilités et des modérateurs qui parlent mal birman, on perd beaucoup de compréhension du contexte. Quand on parle de liberté d’expression, le contexte est toujours essentiel.

La question des « Fake News » est plus que jamais d’actualité avec le Covid et la présidentielle américaine de novembre. Facebook a-t-il tiré les leçons du passé ?

Les questions de désinformation continuent de poser problème pour la plateforme mais il y a eu des progrès. Facebook vient de publier un rapport pour expliquer qu’ils avaient encore supprimé des centaines de comptes liés à des puissances étrangères ayant des intentions malveillantes. Ça reste un souci global pour Facebook et d’autres.

Pour la modération, Facebook et les autres embauchent des milliers de contractuels qui travaillent dans des conditions difficiles, avec un impact psychologique lourd. Le conseil va-t-il réfléchir à des pistes d’amélioration ?

On n’a pas encore commencé ces travaux, mais ce qui est prévu dans les statuts, c’est que le conseil puisse faire des recommandations sur la politique des contenus de l’entreprise. Ces recommandations se distinguent des décisions qui, elles, s’imposeront.

Au-delà de la censure, la question du « reach », quels posts Facebook sont favorisés dans le Newsfeed, est primordiale. Il y a actuellement très peu de transparence. Est-ce que cela a vocation à changer ?

Les demandes de transparence sont presque unanimes quand on parle d’algorithmes, notamment sur la modération de contenu et le classement de l’information, et pas que pour Facebook. Là encore, je parle en tant que directrice d’une ONG qui s’est positionnée sur ces questions, il faut beaucoup plus de transparence.

Aux Etats-Unis, de nombreux conservateurs s’estiment victimes de censure et se disent sous-représentés dans ce conseil. D’autres craignent une « police de la pensée unique ». Les comprenez-vous ?

Quand on voit la composition du conseil, il y a des points de vue très opposés, et certains sont conservateurs. Nous aurons la capacité de mettre nos opinions personnelles de côté. Ce qui est important, c’est l’intérêt commun et la défense de la liberté d’expression pour tous.

Le logo de Facebook.
Le logo de Facebook. - AFP

Facebook a un lourd passif, et vous engagez votre crédibilité en rejoignant cette initiative. Êtes-vous convaincue qu’il ne s’agit pas que d’un effet d’annonce ?

La question de la gouvernance des contenus reste et restera un défi. Le board, c’est une expérimentation. Il n’y a jamais eu d’équivalent dans l’histoire du Web. Je trouve novateur qu’une entreprise privée qui, pour l’instant, n’était pas légalement obligée de le faire, accepte de céder une partie de sa souveraineté sur la question des contenus. Nous avons un mandat de trois ans, avec des rapports d’audit chaque année dans lesquels nous rendrons des comptes. Avant de dire oui, j’ai beaucoup réfléchi à ces questions sur l’indépendance et l’importance de ce board. L’indépendance, de mon point de vue, est totale. Ce n’est pas Facebook qui va l’administrer mais une entité qui a été créée, qui est elle-même indépendante et dispose d’un budget mis à disposition irrévocablement par Facebook dans un trust. L’entreprise s’est retirée mercredi de tout aspect opérationnel. Je n’aurais pas accepté ce poste pour être une décoration sur le mur ou en devant abandonner ma liberté de ton.

Malgré son indépendance théorique, le conseil risque-t-il d’être influencé par Facebook ou Mark Zuckerberg ?

Ce que Facebook ou Mark Zuckerberg pensent, ça ne compte plus tellement pour le board. Facebook – et c’est encore plus vrai avec le Covid – est devenu un espace public. La moitié de l’humanité est connectée sur Facebook ou sur une des plateformes de l’entreprise (Messenger, Instagram et WhatsApp). C’est au fond tout le défi : comment faire pour que cet espace public d’une entreprise privée nous permette de protéger les principes pour lesquels nous nous sommes battus depuis des générations. N’oublions pas que d’autres Nations sont en train de se battre pour conquérir ses droits et en faire une réalité.