Siri, Alexa... Pourquoi les IA ont presque toujours une voix de femme ?
Dis Siri•Les IA les plus connues ont majoritairement une voix féminine. Ce choix reflète des stéréotypes de genre bien ancrés et pose des questions éthiques sur l’humanisation des machinesQuentin Meunier
L'essentiel
- Les assistants d’intelligence artificielle sont souvent féminisées car on projette sur elles les stéréotypes genrés du monde du travail.
- Cette féminisation révèle un besoin d’humaniser l’IA, en particulier à travers l’empathie ou la gentillesse, des qualités encore majoritairement attribuées au féminin.
- Cette humanisation comporte toutefois des risques majeurs comme la répétition des stéréotypes, l’objectification des femmes, et la manipulation.
Elles s’appellent Siri, Alexa ou Cortana. Derrière la voix aimable des assistances d’intelligence artificielle se cache une question moins anodine qu’elle n’y paraît : pourquoi l’IA que l’on sollicite, qui aide, qui obéit, est-elle si souvent féminisée ?
« On projette sur l’IA les stéréotypes genrés que l’on a déjà dans le monde du travail », explique Sylvie Borau, professeure en marketing éthique et comportement du consommateur à TBS Education. Secrétaires, assistantes, aides à la personne... Depuis des décennies, ces fonctions sont associées aux femmes. L’IA reprend cette logique bien connue, tout en jouant sur d’autres ressorts.
L’humanisation par la féminité
« Les assistantes féminines sont jugées plus chaleureuses, plus sensibles, plus à l’écoute », souligne la chercheuse. Cette féminisation n’est pas seulement un héritage culturel, elle répond aussi à une logique d’acceptabilité. « L’IA est perçue comme froide, rationnelle, déshumanisée. En y injectant de la féminité, on y injecte une dose d’humain », analyse Sylvie Borau. Elle dresse un parallèle avec la publicité, où les clichés sexistes ont longtemps été utilisés pour rassurer ou séduire les clients. Ici, l’IA propose une image de la femme rassurante, empathique, disponible. Une stratégie efficace pour susciter la confiance, et donc l’adoption.
Mais cette évolution révèle aussi un renversement plus profond. « Avec les progrès de l’IA, on ne définit plus l’humain par la rationalité ou les compétences, mais par l’émotion », observe la professeure. L’humain devient ce qui ressent, ce qui est empathique : des qualités que l’on attribue encore majoritairement au féminin.
Des risques de manipulation
Cette humanisation n’est pas sans risques. Sylvie Borau en identifie trois majeurs : la répétition des stéréotypes, la manipulation et l'image de la « femme-objet ». « À court terme, l’IA peut aider à lutter contre la solitude, reconnaît-elle. Le problème commence quand on ne fait plus la différence entre humain et non-humain. » Si les IA les plus utilisées - ChatGPT, Gemini ou Mistral - restent aujourd’hui non genrées, la tendance pourrait évoluer avec l’essor des agents personnalisés. Cette prochaine étape promet des assistants personnels, capables de faire vos achats en ligne ou d’anticiper certains de vos besoins.
Pour la chercheuse, le cadre actuel est insuffisant. « Les retouches dans la publicité sont encadrées. Les algorithmes devraient l’être aussi. » Elle va plus loin : « Il faudrait légiférer pour interdire l’anthropomorphisme de l’IA. C’est déceptif, et dans un contexte de solitude, des personnes risquent de se faire manipuler par des relations qui sont, in fine, avec des entreprises. » Non, les IA ne sont pas les femmes de vos vies.



















