Union européenne : L’intelligence artificielle peut-elle préserver la vie privée et les droits humains ?

BIG DATA La Commission Européenne travaille à un projet de régulation de l’intelligence artificielle mais la production du texte final est freinée par toutes sortes de complexités techniques, juridiques et politiques

Mathilde Saliou
Intelligence artificielle (illustration).
Intelligence artificielle (illustration). — Pixabay / geralt
  • La Commission européenne a soumis un projet de loi pour encadrer l’usage de l’intelligence artificielle.
  • Plusieurs milliers d’amendements ont déjà été déposés par les différents pays.
  • De nombreuses questions divisent les partenaires européens, dont la définition même de l’intelligence artificielle et le cadre acceptable de ses usages.

En avril 2021, la Commission européenne dévoilait un projet de régulation de l’intelligence artificielle (IA) ambitieux. Avec le Parlement, la Commission cherche une approche juridique qui soutiendrait l’innovation, mais respecterait les « valeurs européennes » : la vie privée et les droits humains.

Problème : la définition même de ce qu’est l’intelligence artificielle varie d’un interlocuteur à l’autre… Ce ne sont ni des logiciels, ni des méthodes statistiques. Certaines IA sont faibles (hyperspécialisées), d’autres seraient fortes ou générales (capables de déplacer les capacités acquises dans un domaine à un autre, tout à fait différent). S’accorder sur une loi impliquera pourtant de tomber d’accord sur une manière précise de la qualifier. Puis lui succéderont une ribambelle de questions, à commencer par celle de la responsabilité : en cas de problème, vers qui faudra-t-il se tourner ? Les constructeurs ? Les fournisseurs du logiciel final ? D’autres encore ?

Quels risques pour quels systèmes ?

Dans sa proposition de loi, la Commission européenne a introduit une catégorisation des outils algorithmiques selon quatre types de risques : l’inacceptable, qui entraînera l’interdiction ; le risque élevé, qui obligera de se conformer à différentes directives avant d’être déployé ; le risque limité, qui appellera la transparence pour pouvoir être corrigé, et le risque minimal. Parmi les interdits, la Commission européenne a listé la manipulation subliminale ou la notation sociale, telle qu’elle est utilisée en Chine, ou encore la police prédictive. Mais cela n’empêchera pas d’ardents débats : la sécurité fait partie des champs dans lesquels les pays de l’Union n’aiment pas se voir dicter leur politique.

Les autres catégories rassemblent aussi des problématiques très diverses sur lesquels il faudra s’harmoniser. Sont par exemple considérés à « haut risque » les systèmes utilisés pour des examens, pour faciliter le recrutement ou pour aider aux décisions juridiques. C’est aussi dans cette classification que tombent beaucoup d’éléments relatifs à la surveillance dans l’espace public, question particulièrement inflammable.

Le règlement européen empêchera-t-il la surveillance dans l’espace public ?

Que faire des algorithmes de reconnaissance biométrique : est-ce qu’on se permet de les utiliser dans certains cas précis, en cas d’attaque terroriste, pour retrouver des victimes de kidnapping ? Est-ce qu’on interdit tout, comme y enjoint un groupe d’associations européennes ? En octobre, des membres du Parlement Européen ont appelé au bannissement pur et simple de la reconnaissance faciale dans les espaces publiques et des technologies de police prédictive comme celles testées par Palantir. La résolution visait aussi les banques de données privées comme celle de Clearview AI. L’Allemagne fait aussi partie des pays qui poussent pour l’interdiction complète de ces technologies, dans les espaces publics et privés, au motif que cela instaurerait une surveillance de masse.

Les réactions ne se sont pas fait attendre, qui soulignent un risque de dépendance de l’Union à d’autres pays si ses lois bloquent l’innovation de ses propres entreprises. En France, où plusieurs expérimentations ont été menées dans des cadres plus ou moins légaux, et posent la question de l’usage de la reconnaissance faciale. Le raisonnement des auteurs d’une récente étude sur les usages de la reconnaissance faciale en Europe ou des trois sénateurs auteurs d’un rapport sur les technologies biométriques est le suivant : authentifier quelqu’un, comme lorsque PARAFE compare la photo de votre passeport à celle qu’il prend de vous, à l’aéroport, ne soulève pas les mêmes enjeux qu’identifier une personne dans la foule, comme la police londonienne peut le faire.

Que recouvrent les risques de discrimination ?

Une autre grande thématique à laquelle doit s’attaquer la réglementation européenne est celle de l’encodage des inégalités. Aux Pays Bas, par exemple, des algorithmes de gestion de la fraude aux aides sociales ont conduit à accuser 26.000 familles à tort et à les faire rembourser des dettes qu’elles n’avaient pas contractées, les conduisant parfois au péril financier. Si l’affaire a mené à la démission du gouvernement, début 2021, elle se place aussi en archétype des risques sociaux posés par l’intelligence artificielle.

L’outil a par ailleurs été accusé de profilage racial, ce qui soulève un autre grand axe de discrimination algorithmique contre lequel doit se protéger l’Union Européenne. Si elles sont régulièrement améliorées, il est de notoriété publique que les technologies de reconnaissance faciale fonctionnent moins bien sur les peaux sombres que sur les peaux claires, par exemple. Or plusieurs cas américains ont montré que des résultats biaisés conduisaient à poursuivre des personnes à tort, en raison de leur couleur de peau. Des acteurs comme l’ONG Access Now appellent à un encadrement urgent, ne serait-ce que parce que l’Union teste différents outils algorithmiques aux frontières, dans la gestion des populations migrantes.

D’autres gros sujets de débats ?

La simple classification de certains outils algorithmiques soulève son lot de discussions : si la Commission européenne a rangé ceux de reconnaissance des émotions dans la catégorie « faible risque », par exemple, des entités comme la CNIL les qualifient au contraire d’ « hautement indésirables ». Et quid des systèmes de pistages publicitaires ? Sont-ils à haut risque, ou seulement de niveau modéré

Un autre gros défi est celui posé par le degré de transparence et d’explicabilité des algorithmes. Les entreprises technologiques sont relativement réticentes à l’idée de donner accès à leur code source à des représentants extérieurs (auditeurs, régulateurs), d’une part. Mais le règlement européen prévoit aussi que les jeux de données qui servent à entraîner les algorithmes soient exempts d’erreurs, pour faciliter la justification des résultats fournis. Cela paraît très complexe à réaliser quand on sait que les dix jeux de données les plus utilisés par l’industrie en sont truffés.

Quel est le calendrier ?

Pour les associations de protection des droits humains, le texte proposé en avril 2021 était loin d’être suffisamment précis pour assurer la préservation des droits des Européens. À l’opposé, la Commission spéciale sur l’intelligence artificielle à l’ère numérique du Parlement européen exprime dans un rapport de novembre 2021 son inquiétude face à une possible limitation de l’innovation. Après moult discussions, la commission du marché intérieur et la commission des libertés civiles du Parlement ont repris ensemble le projet de loi.

Théoriquement, les législateurs devraient dégager des compromis sur les amendements déposés d’ici la mi-octobre, pour voter une version finale en novembre. Le texte pourra ensuite entrer en phase de trilogue, c’est-à-dire de négociation entre le Parlement, le Conseil et la Commission européenne. Mais certains observateurs doutent de la possibilité de tenir un tel calendrier, vu le caractère hautement sensible des sujets que couvre cette régulation. Le 1er juin, le journaliste spécialisé Luca Bertuzzi annonçait que près de 3.200 amendements avaient été déposés, ce qui laisse présager d’intenses discussions à Bruxelles cet été.