Google Traduction : Une nouvelle approche pour limiter les a priori liés au genre

INTELLIGENCE ARTIFICIELLE L’intelligence artificielle de l’outil de traduction de Google utilise une toute nouvelle approche qui va limiter encore plus les a priori liés au genre

20 Minutes avec agence

— 

Google (illustration).
Google (illustration). — M.C./20 MINUTES

Google explique avoir travaillé plusieurs années sur l’algorithme utilisé par Google Trad afin de limiter les a priori dans les résultats donnés par l’outil de traduction. Le géant californien s’est particulièrement intéressé aux biais de genre et avait déjà apporté une première série de modifications à son intelligence artificielle. Sur son blog​, l’entreprise a annoncé ce mercredi une nouvelle amélioration du système.

Celle-ci repose sur « une meilleure approche qui utilise un modèle totalement différent pour éliminer les a priori liés au genre ». Le programme d’apprentissage automatique qui permet le fonctionnement de Google Trad va en effet « corriger ou réécrire la traduction initiale » si nécessaire. Cette façon de procéder présente l’avantage d’être évolutive, se félicite l’entreprise. Elle est désormais utilisée pour les traductions en anglais du contenu entré en finlandais, en hongrois, en perse et en turc.

La problématique des langues au genre neutre

Les résultats proposés par l’outil intelligent lors de ces traductions tiennent désormais compte du genre. Il s’agit d’une problématique fréquemment rencontrée lors d’un travail entre une langue au genre neutre et une autre possédant des genres masculin et féminin. En se nourrissant de données extérieures, l’algorithme de Google avait par le passé tendance à s’inspirer des clichés de genre répandus dans la société.

Lorsque la langue source ne précisait pas le genre, Google Trad fournissait par exemple une traduction en turc partant du principe qu’une personne exerçant la profession de médecin était un homme, mais choisissait le féminin pour le métier d’infirmier. Les ingénieurs avaient cependant corrigé ce type de biais dans une version de l’outil sortie en décembre 2018 qui proposait les résultats dans les deux genres lorsque le contenu initial était neutre.