Intelligence artificielle: Amazon débranche son «robot-recruteur» misogyne

HIGH-TECH Le programme avait tendance à moins bien traiter les candidates…

M.C.

— 

Un logo Amazon.
Un logo Amazon. — LIONEL BONAVENTURE / AFP

Quand l’intelligence artificielle devient misogyne. Amazon a décidé d’abandonner un programme utilisé par le service des ressources humaines du géant de la vente en ligne pour trier les candidats, après avoir découvert que celui-ci n’aimait pas les femmes, révèle l’agence Reuters.

Une équipe travaillait depuis 2014 sur des programmes informatiques capables de trier les CV des candidats pour sélectionner les meilleurs, rapporte l’agence. Suivant la voie de l’automatisation comme pour la gestion de ses entrepôts ou le choix des prix des marchandises, l’entreprise avait mis au point un outil qui se servait de l’intelligence artificielle pour noter les postulants à un emploi sur une échelle de une à cinq étoiles, sur le même format que les évaluations de clients sur le site.

« Tout le monde voulait ce saint Graal. Ils voulaient un programme auquel on pourrait donner 100 CV, qui en garderait cinq, et on n’aurait plus qu’à embaucher ces cinq candidats », raconte l’un des membres de cette équipe à Reuters.

L’IA saquait les CV comportant le mot « femmes »

Mais ce DRH informatique avait des tendances sexistes. C’est ce qu’a découvert l’équipe en charge du projet en 2015. Le robot avait ainsi tendance à moins bien traiter les candidates, surtout celles dont le CV comportait le mot « femmes », comme dans « club d’échecs femmes » ou « université pour femmes ».

Le programme n’était pas né comme ça : l’intelligence artificielle se nourrit et apprend à partir des exemples qu’on lui présente, et les CV reçus au cours des dix dernières années, qui avaient été rentrés dans la machine, venaient en majorité d’hommes, reflet du peu de diversité de l’industrie high-tech.

Des tentatives ont été faites pour rendre l’IA plus neutre, mais rien n’indiquait qu’elle ne s’appuierait pas sur d’autres critères tout aussi discriminatoires, explique un ex-membre de l’équipe à Reuters. Une source interne à Amazon, sollicitée par le site The Verge, affirme cependant que le programme n’avait été utilisé que pour des tests, et jamais en autonomie complète, et que le sexisme n’était qu’une des raisons de l’abandon du projet. Quoi qu’il en soit, l’équipe qui pilotait ce développement a été dissoute l’an dernier, et l’industrie high-tech tout entière peut maintenant méditer sur cette histoire, alors que le rôle des IA dans les prises de décisions ne devrait faire que croître ces prochaines années.