« Les algorithmes ne sont ni bons ni mauvais, ils sont ce qu’on fait d’eux », explique Aurélie Jean, docteure en sciences numériques

INTERVIEW Après les révélations des « Facebook Papers », Aurélie Jean, docteure en sciences numériques, explique dans son livre « Les algorithmes font-ils la loi ? », pourquoi il est important de mieux réguler l'utilisation et le développement de ceux-ci

Propos recueillis par Hakima Bounemoura
— 
Les algorithmes sont présents un peu partout dans notre vie quotidienne.
Les algorithmes sont présents un peu partout dans notre vie quotidienne. — Geeko
  • Les récentes révélations de la lanceuse d’alerte Frances Haugen ont mis en lumière l’importance des algorithmes dans le fonctionnement des réseaux sociaux, et d’une manière générale, dans notre vie au quotidien.
  • 20 Minutes a interrogé Aurélie Jean, docteure en sciences numériques, spécialiste des algorithmes, qui vient de sortir Les algorithmes font-ils la loi ? (éditions de l’Observatoire).
  • La scientifique tord les idées reçues sur ces programmes informatiques qui rythment nos vies, et esquisse des pistes pour tenter de mieux encadrer leur développement.

Ils font aujourd’hui partie de notre quotidien… Les récentes révélations de Frances Haugen, ancienne ingénieure chez Facebook devenue lanceuse d’alerte, ont mis en lumière l’importance des algorithmes dans le fonctionnement des réseaux sociaux. Ces lignes de code informatique, propres à chaque plateforme ( Facebook, Twitter, TikTok…), mettraient selon elle en péril « nos démocraties ». Entre contenus polémiques, mise en avant  du « buzz » et manque de transparence, leur utilisation et leur développement font aujourd’hui l’objet de nombreuses critiques.

Pour mieux comprendre les enjeux qu’ils suscitent, 20 Minutes a interrogé Aurélie Jean, docteure en sciences numériques et entrepreneuse, spécialiste des algorithmes, qui vient de sortir Les algorithmes font-ils la loi ? (éditions de l’Observatoire). La scientifique, déjà auteure De l’autre côté de la machine – Voyage d’une scientifique au pays des algorithmes qui révélait la façon dont les algorithmes étaient biaisés, tord aujourd’hui les idées reçues sur ces programmes informatiques qui rythment nos vies, et esquisse des pistes pour tenter de mieux encadrer leur développement.

Les algorithmes sont présents un peu partout dans notre vie. Vous dites notamment que nous interagissons avec eux au quotidien, le plus souvent sans en avoir conscience…

Aurélie Jean, docteure en sciences numériques et entrepreneure, spécialiste des algorithmes.

Les algorithmes aident à nous déplacer, à communiquer, à travailler, ou encore à se soigner. Sans le réaliser, nous interagissons quotidiennement avec ces entités mathématiques et numériques dans notre vie privée mais aussi au travail. Par exemple, quand vous êtes en voiture et que vous calculez le chemin pour atteindre une destination, quand vous passez votre passe Navigo sur une borne du métro en région parisienne, quand vous allez faire une analyse biologique d’un échantillon sanguin au laboratoire, quand vous lisez votre journal sur l’application de votre téléphone portable, quand vous achetez un vêtement en ligne, et tant d’autres choses…

Selon la lanceuse d’alerte Frances Haugen, l’algorithme utilisé par Facebook lui aurait « échappé ». Selon elle, il menace aujourd’hui la santé mentale de nos enfants, la qualité des débats, la cohésion sociale, la démocratie…

Il y a plusieurs sujets. Tout d’abord l’impact psychologique des réseaux sociaux sur les plus jeunes à travers une mise en scène permanente et un certain diktat de l’apparence sur ces réseaux qui exposent ces jeunes de plus en plus au regard critique et parfois haineux des autres utilisateurs. Puis la mise en avant des contenus qui se partagent de manière accélérée, symptomatique des contenus haineux, transgressifs, polémiques voire complotistes, ce qui met en danger la démocratie en affaiblissant l’esprit critique et en fournissant une vision déformée voire fausse du monde. On peut aussi parler de la manipulation de l’opinion publique sur les réseaux. Enfin « l’effet bulle » qui est le résultat d’une catégorisation – mal maîtrisée et extrême – des utilisateurs qui les enferment dans des bulles d’opinion et d’observation.

Justement, qu’est-ce que « l’effet bulle » engendré par les algorithmes ?

Il existe des algorithmes dits de « catégorisation » qui vont classer les utilisateurs selon des similarités statistiques sur leur comportement. Cela inclut le type de contenus qu’ils partagent, qu’ils aiment, qu’ils commentent, ainsi que le type de commentaires et les profils des comptes qu’ils suivent. En retour, un algorithme de suggestion va proposer à un utilisateur un contenu qu’un autre utilisateur de sa classe – donc similaire à lui – aura aimé, avec en théorie qu’il lui plaise en retour. Lorsqu’on utilise cette catégorisation sans aucun test ou suivi, on risque au cours du temps de créer des classes rigides, dans lesquelles les utilisateurs ne passent pas d’une classe à l’autre. On parle alors « d’effet bulle », théorisé par Eli Pariser, qui enferme les utilisateurs dans des bulles d’observation et d’opinion. Ils ne voient alors le monde que sous le prisme des gens qui leur ressemblent.

Comment encadrer les algorithmes ? Peut-on vraiment les réguler, comme souhaite le faire l’UE avec le Digital Services Act ou bien encore le Congrès américain ?

On ne peut pas réguler un algorithme pour la simple et bonne raison qu’on ne peut bien souvent pas l’évaluer entièrement, en particulier les algorithmes d’apprentissage machine. Cela étant dit, et c’est ce que j’explique dans mon livre, on peut et on devrait réguler les pratiques de développement, de tests et d’usages des algorithmes. On parle aussi de gouvernance algorithmique. C’est pourquoi l’explicabilité algorithmique – qui est un des piliers du livre – est le sujet des prochains encadrements juridiques. 

Exiger de la part des acteurs qu’ils appliquent des méthodes de calcul d’explicabilité pour s’assurer qu’ils maîtrisent autant que possible la logique de fonctionnement – même partielle – de leurs algorithmes, est fondamental. Ainsi on anticipe les erreurs, les bugs, voire des discriminations technologiques liées à des biais algorithmiques provenant par exemple de biais dans les jeux de données d’entraînement. On applique ces méthodes de calcul d’explicabilité avant l’entraînement – sur les jeux de données –, pendant l’entraînement, ou une fois que l’algorithme est entraîné.

Et donc comment éviter le développement de ce que vous appelez « la jungle algorithmique » ?

Il faut encadrer juridiquement la discipline afin de garantir un bon développement, test et usage des algorithmes. Ce sur quoi l’Europe travaille actuellement. Il faut que nos dirigeants politiques et nos législateurs s’intéressent de près à cette discipline, qui évolue très rapidement. On observe une accélération des développements en recherche et de leur translation vers l’industrie. Ce qui explique la naissance croissante de start-up deeptech [qui proposent des produits ou des services sur la base d’innovations de rupture] sur la scène internationale. Les scientifiques et les ingénieurs doivent partager leurs connaissances en expliquant encore et toujours leur discipline à un public large.

De leur côté, les acteurs technologiques doivent s’assurer que les utilisateurs comprennent, même dans les grandes lignes, les tenants et aboutissants du fonctionnement de leurs outils. Quelles données sont collectées, dans quels objectifs (suggestion de contenu, proposition de mise en relation avec d’autres utilisateurs, test d’efficacité de l’outil…) ? En comprenant, même dans les grandes lignes, le fonctionnement de ces algorithmes, les utilisateurs ont un certain levier face aux acteurs. Ils se posent et posent les bonnes questions, challengent davantage les acteurs. Ils modifient également leur posture face aux outils en soulignant justement la valeur ajoutée du fonctionnement algorithmique, et donc en décidant ou pas d’utiliser un outil, ainsi que la manière de l’utiliser.

Vous expliquez également dans votre livre que les algorithmes ne peuvent pas faire la loi, mais peuvent l’influer…

Les algorithmes influencent la loi de diverses manières, souvent subtiles. À travers leurs usages dans l’exercice de la justice, mais aussi à travers l’orientation de l’organisation sociale dans nos rapports avec les autres, ou dans nos choix. La science algorithmique n’est pas manichéenne, elle n’est ni bonne ni mauvaise, elle est ce qu’on fait d’elle. Nous avons alors un rôle à jouer, peu importe notre position sur l’échiquier technologique (concepteurs, utilisateurs, dirigeants politiques, législateurs…), pour garantir les bénéfices tout en écartant les menaces.

Votre précédent livre parlait du biais algorithmique. Le problème est-il toujours aussi prégnant aujourd’hui ? Faut-il craindre les algorithmes en période pré-électorale, notamment à l’approche de la présidentielle en France ?

Toujours et peut être encore plus aujourd’hui. Les algorithmes sont plus abstraits, et sont de plus en plus présents dans nos vies. Il faut donc s’assurer qu’une bonne gouvernance algorithmique est appliquée chez chaque acteur technologique pour garantir le bon fonctionnement de ces technologies. Il est difficile de dire qu’il n’y a aucun risque de biais, mais il est facile de se responsabiliser en développant et en testant correctement ses algorithmes.

Pour l’élection présidentielle à venir, il faut craindre l’effet bulle qui a tendance à enfermer les gens dans des croyances, des mensonges voire des complots en tout genre. Une question de biais de confirmation décuplé. De manière générale, il faut également craindre ce que les gens peuvent faire avec ces algorithmes dans le but d’orienter les opinions, on l’a très bien vu par le passé avec l’affaire Cambridge Analytica [exploitation frauduleuse de données d’utilisateurs Facebook par une société britannique, au profit de la campagne de Donald Trump et de celle pour le Brexit].