Twitter : L'algorithme de recadrage des photos accusé de racisme

RESEAUX SOCIAUX Selon de nombreux internautes, l'algorithme de recadrage des photos publiées sur la plateforme privilégierait les visages de personnes blanches. Mais cela reste difficile à vérifier

Paul-Guillaume Ipo

— 

Illustration du réseau social Twitter
Illustration du réseau social Twitter — Clément Follain / 20 Minutes
  • Ce week-end, l’algorithme de Twitter chargé de générer l’aperçu des photos publiées sur la plateforme a été accusé d’inclure des biais racistes.
  • Des utilisateurs ont remarqué que le système favorisait presque constamment les personnes blanches en occultant celles dont la peau est noire. Une hypothèse réfutée par une étude réalisée dans la foulée par un chercheur américain.
  • Twitter a indiqué n’avoir décelé aucun biais lié à la race ou au genre lors de la mise au point de cet algorithme. Le réseau social concède toutefois avoir encore « du travail d’analyse à réaliser ».

Nouvelle polémique autour des biais racistes que peuvent comporter les systèmes d’intelligence artificielle. Cette fois, c’est le réseau social Twitter qui est épinglé en raison de l’algorithme utilisé pour recadrer automatiquement les photos publiées sur la plateforme. Des Etats-Unis au Brésil, en passant par la France, plusieurs internautes ont dénoncé le « racisme » opéré par ce système. Au cours des derniers jours, de nombreux utilisateurs ont ainsi mené des expériences afin de vérifier si des biais liés à la couleur de peau existent vraiment. Selon eux, lorsqu’une photo réunit une personne noire et une seconde personne blanche, cette dernière serait, dans la majorité des cas, mise en avant aux dépens de celle dont la peau est noire.

Dimanche, Tony Arcieri, un ingénieur américain, a par exemple tenté différentes combinaisons avec les photographies de l’ancien président des Etats-Unis Barack Obama et de Mitch McConnell, sénateur (blanc) du Kentucky et chef de la majorité républicaine au sein de la chambre haute du Congrès américain. Peu importe l’ordre des clichés et l’échange de la couleur de leurs cravates (bleue et rouge), c’est constamment le visage du sénateur McConnell qui sert d’aperçu. Seule l’inversion des couleurs, qui occultera donc les teintes de peau, permettra à Barack Obama d’être mis en valeur.

Un problème de contraste ?

Tout a commencé samedi, lorsqu’un doctorant américain souhaitant dénoncer un biais raciste de la plateforme d’appel vidéo Zoom a posté sur Twitter une capture d’écran de sa visioconférence avec un collègue noir. Il se rend alors compte que sur l’application mobile Twitter, l’algorithme choisit automatiquement sur son visage pour créer l’aperçu, et ce même lorsqu’il fait pivoter l’image. « Une idée de la raison pour laquelle Twitter a décidé de ne montrer que le côté droit de la photo sur la version mobile ? », interroge-t-il.

L’hypothèse exprimée a toutefois été remise en cause par d’autres expériences. En particulier, Vinay Prabhu, chercheur à la Carnegie Mellon University, à Pittsburgh, dit avoir conduit une étude « systématique » pour vérifier la véracité de ces biais. Il a ainsi créé un programme dont les résultats contredisent la théorie du caractère raciste de l’algorithme. Il s’est ainsi appuyé sur une grille d’images composée de clichés standardisés d’hommes noirs et d’hommes blancs mis côte à côte et séparés par une image vierge. Sur les 92 images, Twitter a mis en avant le modèle noir 52 fois, contre 40 pour le modèle blanc.

Face à la controverse suscitée au cours du week-end, certains cadres de Twitter ont réagi dès dimanche. Dantley Davis, à la tête du pôle design de Twitter, considère par exemple que la photo de Colin Madland a été mise en avant par l’algorithme en raison du contraste entre sa barbe foncée et sa peau assez pâle. Il a posté la même capture d’écran en éclaircissant la barbe de Madland afin de prouver que son interlocuteur était finalement mis en valeur.

« Nous avons encore du travail d’analyse à réaliser »

Selon Liz Kelley, du service communication, Twitter n’avait « pas décelé de biais liés à la race ou au genre » lors de tests exercés en amont. Dans son tweet, cette dernière le concède : « Il est évident que nous avons encore du travail d’analyse à réaliser. » De son côté, Zehan Wang, un ingénieur de la plateforme a affirmé que « l’algorithme n’utilise pas la reconnaissance faciale », avant de confirmer qu’aucun « biais significatif » n’avait été trouvé à l’époque.

Ce n’est pas la première fois qu’une telle anomalie est pointée dans un algorithme mis en place par un géant de la Silicon Valley. En 2015, Google avait dû supprimer son application d’image après que celui-ci a confondu des Afro-Américains avec un gorille. Plus récemment, une étude du prestigieux Massachusetts Institute of Technology (MIT) avait démontré en 2018 d’énormes disparités dans les taux de réussite des logiciels de reconnaissance faciale de Microsoft ou d’IBM entre les clichés d’hommes blancs ou ceux de femmes et de personnes aux peaux plus foncées.

Pour Winston Maxwell, directeur d’études en droit et numérique à Télécom-Paris, il est important d’exclure « l’idée que des biais racistes ou sexistes seraient volontairement inclus dans un algorithme. » Au regard de ce spécialiste de la régulation des données et de l’IA, le dysfonctionnement peut venir de ce que l’on appelle les biais statistiques. « Pour éduquer un algorithme, si l’on utilise une base de données qui dispose de bien plus d’images de chiens que d’images de chats, la machine sera de fait plus performante lorsqu’elle rencontre la photo d’un chien », explique-t-il.

Un besoin de transparence et d’exigence

Selon Winston Maxwell, il est primordial de ne pas faire d’amalgames entre les algorithmes, comme celui de Twitter, et les logiciels de reconnaissance faciale, bien plus poussés et difficiles à entraîner. « Le cas d’usage de Twitter est certes gênant, il donne au réseau social une très mauvaise image de marque, mais les répercussions possibles sont moindres par rapport à l’usage de la reconnaissance faciale, qui mènerait à l’arrestation par erreur d’un Afro-Américain. »

Pour Winston Maxwell, « dire qu’un algorithme ne comporte pas de biais est généralement faux ». Alors que la demande de transparence augmente, cet ancien avocat considère que les ingénieurs à la base des logiciels devront être « plus exigeants sur les tests » et avertir des biais qui subsistent « comme le ferait une notice, par exemple ».