Intelligence artificielle : Les Européens mal protégés face aux préjugés et aux erreurs de l’IA

DISCRIMINATION Les risques sur la vie privée ou les discriminations sont au cœur de ce rapport qui pointe du doigt la fragilité de l’IA, très utilisée dans certains pays

20 Minutes avec AFP

— 

Une exposition basée sur l'intelligence artificielle au Brésil (image d'illustration).
Une exposition basée sur l'intelligence artificielle au Brésil (image d'illustration). — MAURO PIMENTEL / AFP

Face au déploiement de l’intelligence artificielle (IA), l’Europe doit protéger les droits fondamentaux de ses habitants, prévient un rapport rendu ce lundi, montrant que cette technologie peut en effet être source d’erreurs et de discriminations.

« Une grande partie de l’intérêt se concentre sur son potentiel de soutien à la croissance économique. La manière dont elle peut affecter les droits fondamentaux a reçu moins d’attention », écrit l’Agence européenne des droits fondamentaux (FRA), basée à Vienne, en Autriche dans ce document d’une centaine de pages.

Prague dans le top

L’intelligence artificielle, expression quelque peu fourre-tout, désigne des technologies permettant aux machines d’imiter une certaine forme d’intelligence réelle, d'« apprendre » en analysant leur environnement au lieu d’exécuter de simples instructions dictées par un développeur humain.

Ces logiciels, qui regroupent un vaste champ d’applications (assistants vocaux, systèmes de reconnaissance vocale et faciale, robots évolués, voitures autonomes…), sont désormais utilisés aussi bien par les pouvoirs publics que par le milieu médical, le secteur privé et l’enseignement. En moyenne, 42 % des compagnies européennes ont recours à l’IA. La République tchèque (61 %), la Bulgarie (54 %) et la Lituanie (54 %) sont les pays où elle est la plus répandue.

Un déploiement accéléré par le Covid

L’intelligence artificielle est particulièrement prisée des publicitaires pour cibler les consommateurs en ligne grâce aux algorithmes et « l’épidémie de coronavirus a accéléré son adoption », selon le rapport. Les enquêteurs de la FRA ont réalisé environ 90 entretiens avec des organismes publics et privés en Espagne, en Estonie, en Finlande, en France et aux Pays-Bas.

« L’un des risques, c’est que les gens adoptent aveuglément de nouvelles technologies, sans en évaluer l’impact avant de les utiliser », a expliqué David Reichel, l’un des auteurs du texte. L’intelligence artificielle peut ainsi violer la vie privée, en révélant l’homosexualité d’une personne dans une base de données par exemple. Elle peut aussi mener à des discriminations face à l’emploi, si certains critères excluent des catégories de population sur la base d’un nom de famille ou d’une adresse.

Algo et préjugés

Lorsqu’ils reçoivent un diagnostic médical erroné ou se voient refuser une prestation sociale, les citoyens européens ne savent pas toujours que la décision a été prise de manière automatique par un ordinateur. Ils ne sont donc pas en mesure de pouvoir la contester ou d’introduire une plainte, et ce, alors que des erreurs peuvent intervenir : l’intelligence artificielle, créée par l’être humain, n’est pas infaillible.

Dans un exemple récent, la Cour d’appel de Grande-Bretagne a estimé que le programme de reconnaissance faciale utilisé par la police de Cardiff pouvait faire preuve de préjugés raciaux ou sexistes. « La technologie évolue plus vite que la loi. Nous devons maintenant nous assurer que le futur cadre réglementaire de l’UE pour l’intelligence artificielle soit basé sans équivoque sur le respect des droits humains et des droits fondamentaux », souligne le directeur de la FRA, Michael O’Flaherty.