Reconnaissance faciale : « Il faut clarifier le débat pour se pencher d’abord sur les usages les plus dangereux », recommande Théodore Christakis

INTERVIEW À l’occasion de la publication du rapport « Cartographie de l’usage de la reconnaissance faciale dans l’espace public européen », « 20 Minutes » a interviewé Théodore Christakis, directeur de la chaire Régulation de l’intelligence artificielle à l’Institut interdisciplinaire en intelligence artificielle grenoblois (MIAI)

Propos recueillis par Mathilde Saliou
— 
Grâce à l'intelligence artificielle, les systèmes de reconnaissances faciale peuvent facilement identifier une personne, mais les failles sont nombreuses et de plus en plus utilisées.
Grâce à l'intelligence artificielle, les systèmes de reconnaissances faciale peuvent facilement identifier une personne, mais les failles sont nombreuses et de plus en plus utilisées. — CC0

En novembre 2019, la Commission nationale de l’informatique et des libertés réclamait pour la reconnaissance faciale « un débat à la hauteur des enjeux ». En avril 2021, alors que Politico dévoilait un projet de réglementation européenne sur l’intelligence artificielle, les débats ont repris de plus belle, 51 associations pour la sauvegarde des droits individuels appelant à interdire la « surveillance de masse biométrique ».

C’est dans ce contexte – et alors que le Sénat vient de publier un rapport appelant à la création d’un cadre pour l’usage de la reconnaissance faciale dans l’espace public – que la Chaire AI Regulation de l’université Grenoble – Alpes publie une cartographie en six chapitres des usages de reconnaissance faciale en Europe. 20 Minutes a interviewé Théodore Christakis, directeur de l’équipe qui a travaillé sur ce projet au long cours.

« Le débat actuel est parfois faussé par une mauvaise connaissance de [la reconnaissance faciale] et de ses modalités exactes de fonctionnement », déclarait la CNIL en 2019, ce que vous citez dès l’introduction de votre étude. En quoi ce constat a-t-il influé sur votre travail ?

Lorsque la CNIL a déclaré qu’il fallait « un débat à la hauteur des enjeux », nous constations aussi que les débats sur la reconnaissance faciale mêlaient souvent énormément de choses différentes. Dans certaines discussions, on allait jusqu’à mentionner la reconnaissance des émotions ou la vidéosurveillance, alors que ces deux pistes ne sont pas la reconnaissance faciale. Pourtant il y a de vraies questions à poser…

Les technologies utilisées par PARAFE, lorsque vous êtes à l’aéroport, ou par la police britannique, pour repérer une personne dans une foule, reposent toutes les deux sur de la reconnaissance faciale mais ne soulèvent pas du tout les mêmes risques.

Avec mon équipe, nous avons donc décidé d’apporter notre démarche scientifique à la discussion : notre volonté était de clarifier les choses d’un point de vue technique, de détailler les pratiques existantes à travers l’Europe et d’en tirer les enseignements pour permettre aux législateurs, aux politiques, aux journalistes, aux citoyens, de débattre sereinement.

Extrait de la classification des usages de la reconnaissance faciale établie par la Chaire Régulation de l'IA de l'Université Grenobles-Alpes
Extrait de la classification des usages de la reconnaissance faciale établie par la Chaire Régulation de l'IA de l'Université Grenobles-Alpes - MAPFRE / AI Regulation / Grenobles-Alpes MIAI

Vous proposez une classification des usages de la reconnaissance faciale en trois grandes catégories : la vérification, l’identification et l’analyse faciale – qui n’est pas de la reconnaissance faciale au sens propre, mais joue tout de même sur l’usage d’éléments du visage. Pourquoi faut-il différencier les trois ?

La première catégorie (en bleu sur l’illustration) est aussi appelée authentification. Elle consiste à comparer une image à une autre : votre photo de passeport biométrique avec celle que prend PARAFE lorsque vous passez la porte à l’aéroport, par exemple. La machine regarde si les deux correspondent, si oui, elle ouvre les portes, et puis elle supprime les données. Cela n’empêche pas la présence de risques ou d’usages problématiques : quand ce type de technologie a été utilisée dans deux lycées de Marseille et Nice, par exemple, la CNIL a estimé que ça n’était pas acceptable.

Mais ça reste différent des systèmes d’identification, utilisée seulement au Royaume-Uni pour le moment. Là, on parle de caméras que les policiers posent sur la route ou aux abords d’une gare, qui scannent la foule pour y chercher des correspondances avec une liste préétablie de quelques milliers de criminels. Dans un cas pareil, les problématiques sont très différentes : l’individu n’a pas le pouvoir de refuser d’être soumis à la technologie, la surveillance est effectuée sans contrôle… Cela dit, ce type de technologie est aussi utilisé dans des expérimentations comme Mona, à l’aéroport de Lyon. Là, si l’utilisateur le souhaite, il peut enregistrer son visage sur son smartphone pour ensuite passer tous les contrôles – le dépôt de bagage, la douane, l’embarquement – sans jamais sortir sa carte d’embarquement. Il a le choix, donc la question, même si elle concerne l’identification faciale, est encore différente de celle posée par la police britannique.

Dans la troisième partie de votre rapport, qui porte sur la reconnaissance faciale dans l’espace public, vous soulignez la différence entre « consentir à » et « être volontaire pour » l’usage d’une technologie de reconnaissance faciale. Quel est l’enjeu ?

D’abord, il faut souligner que même si un usage est dit « consensuel » ou « volontaire », ça n’empêche pas qu’il pose problème. Dans le cas des lycéens de PACA, par exemple, on a considéré que leur consentement posait problème parce qu’ils étaient sous le pouvoir de leur école. Ensuite, si on reprend l’exemple des aéroports : quand vous arrivez à Paris ou à Lyon, vous pouvez choisir de passer par la porte équipée de systèmes de reconnaissance faciale, mais vous avez une alternative. C’est ça le volontariat : il y a toujours un autre choix possible. Le consentement, lui, doit être donné par des gens bien informés, en capacité de consentir, etc (le RGPD lui prévoit quatre conditions cumulatives : il doit être libre, spécifique, éclairé, univoque, ndlr). La subtilité est importante, notamment lorsque le débat tourne dans la direction « interdisons toute reconnaissance faciale ». Cette manière d’aborder le problème oublie que la technologie a des fonctionnalités utiles : certains l’utilisent pour déverrouiller leur smartphone et si d’autres ne le veulent pas, ils utilisent un code pin. Un choix est possible.

Quoi qu’il en soit, en tant qu’utilisateur, ces deux propositions me soumettent à un risque très différent de lorsque je suis soumis à un système qui me considère comme un criminel potentiel parce que j’ai traversé une route devant une caméra de la police.

La quatrième partie de votre rapport porte sur l’usage de la reconnaissance faciale dans les investigations criminelles. Quels sont les termes du débat, selon vous ?

Il y a beaucoup d’usages différents, dans ces cas-là. Imaginons d’abord qu’il y ait un vol ou un meurtre. Le criminel a été filmé par une webcam allumée. Dans ces cas-là, la France a légiféré pour autoriser la police à comparer l’image du criminel au fichier de Traitement des antécédents judiciaires (TAJ, dont l’existence même est débattue, ndlr). C’est de la vérification faciale : ça soulève son propre lot de question, mais c’est assez différent de l’application d’algorithmes de reconnaissance faciale à des flux vidéo, comme ç’avait été testé pendant un carnaval à Nice – sur la base du consentement – ou comme c’est utilisé en Grande-Bretagne.

La dernière partie de votre étude portera sur les usages d’analyse faciale dans l’espace public, encore peu présents, mais qui devraient se multiplier, selon vous. Pourquoi est-il important de s’en préoccuper ?

Des modèles de détection du port du masque comme celui proposé par Datakalab, ce n’est pas de la reconnaissance faciale car il n’y a pas de création de ce qu’on appelle des « gabarits biométriques ». Mais il s’agit tout de même d’analyse du visage, donc il est évident qu’il faut s’en préoccuper. C’est pareil pour les technologies de reconnaissance d’émotion. Quand il s’agit de détecter si quelqu’un s’endort au volant, c’est très bien, ça peut sauver des vies. Mais quand on vous dit qu’on va permettre de détecter la personnalité ou les mensonges, on est quasiment dans la pseudoscience ! (À ce sujet, lire le chapitre dédié aux émotions dans l’Atlas of AI de Kate Crawford : Théodore Christakis se déclare « tout à fait d’accord » avec l’analyse de la chercheuse, ndlr). Faire des statistiques sur le port du masque, pourquoi pas. Mettre de l’analyse faciale à chaque entretien d’embauche, c’est plus discutable.

Quelles sont vos principales recommandations, pour les législateurs et/ou les citoyens ?

Faire en sorte de clarifier le débat. S’informer – c’est pour cela que nous avons fait ce travail – mais aussi et surtout bien préciser les cas dont on parle. Cela permettra de se pencher d’abord sur les usages les plus dangereux de la reconnaissance faciale. C’est important : le Sénat vient de remettre un rapport sur la question, il plaide pour la création d’un contrôleur européen, il faut que chacun puisse s’emparer de la question avec précision, en s’intéressant à chaque type d’utilisation de ces technologies. Cela permettra aussi de mieux voir où il y a déjà des lois qui permettent de cadrer un minimum et où les manques sont les plus criants.