Incidents au Stade de France : La reconnaissance faciale permettrait-elle vraiment d’améliorer la gestion des foules ?

SURVEILLANCE Quelques jours après le fiasco du Stade de France, Christian Estrosi appelait à utiliser la reconnaissance faciale pour gérer les foules. Derrière la petite phrase, un vaste débat sur les technologies de surveillance.

Mathilde Saliou
— 
Des supporteurs de Liverpool au Stade de France avant la finale de la Ligue des champions contre le Real Madrid ce samedi.
Des supporteurs de Liverpool au Stade de France avant la finale de la Ligue des champions contre le Real Madrid ce samedi. — Franck Fife / AFP

Trois jours après l’échec du maintien de l’ordre aux abords du Stade de France, le maire de Nice Christian Estrosi appelait à utiliser la reconnaissance faciale pour faciliter la gestion des grands événements. Mais qu’est-ce que des algorithmes auraient bien pu apporter à une gestion des foules visiblement désorganisée ? À un an de la Coupe du monde de rugby, deux ans des Jeux olympiques de Paris et en plein travail sur une réglementation européenne de l’intelligence artificielle, l’interrogation n’a rien d’anodin.

Technosolution ou technodiversion ?

Il y a la question de l’organisation de la finale de la Ligue des champions, d’abord. Le ministre de l’Intérieur Gérald Darmanin a rapidement évoqué 30.000 à 40.000 supporteurs britanniques détenteurs de faux billets, une estimation si improbable que le président du club de Liverpool exige des excuses du gouvernement. Au Real Madrid, même chose : on veut des explications sur le chaos du 28 mai, et vite. Parler de reconnaissance faciale dans un tel contexte est une stratégie de diversion, estime Arthur Messaud, de l’association de protection des droits numériques La Quadrature du Net : « C’est une manière d’éloigner le débat vers des détails plutôt que de le laisser focalisé sur des questions d’organisation humaine, que la technologie ne permettrait de toute manière pas de réparer. »

Auteur d’une étude sur l’efficacité des systèmes de vidéosurveillance utilisés par la gendarmerie, Guillaume Gormand abonde : « Le problème n’est pas tant d’avoir un outil que la manière dont il est utilisé. Exploités convenablement, les systèmes de surveillance présents aux abords du stade auraient potentiellement été suffisants. » Mais si l’organisation ne suit pas, aucune caméra ni aucun algorithme ne viendront pallier les défauts de gestion.

Derrière les algorithmes, la vidéosurveillance

Tout de même, la proposition de Christian Estrosi s’insère dans un contexte précis, celui d’une inflation des dispositifs de surveillance dans l’espace public, d’abord, que Guillaume Gormand détaille comme concomitant à un lobby des acteurs privés. « Après la légalisation de 1995, on a d’abord vu les grandes communes s’équiper, puis le marché stagner. Il a redécollé lorsque Nicolas Sarkozy a fait une promotion idéologique de la vidéosurveillance, pendant sa campagne puis son mandat. » En 2019, la Gazette des communes comptait 11.470 caméras dans 47 des plus grandes villes de France, soit 2,4 fois plus qu’en 2013. Sauf que celles-ci ne sont qu’une base, continue le chercheur : « Aujourd’hui, on y ajoute plein d’outils, des logiciels de comptage, des algorithmes, pour faire des expérimentations. Sauf que tester, c’est bien, mais il faut ensuite vérifier si cela fonctionne. »

Or, l’efficacité des deux technologies – la vidéosurveillance pure, d’abord, celle des algorithmes qu’on y applique, ensuite – est sujette à débat. En 2018, le sociologue Laurent Mucchielli rapportait que seulement 1 à 3 % des infractions commises sur la voie publique étaient résolues grâce aux images des caméras. En 2020, la Cour des comptes soulignait que les montants dépensés dans ces dispositifs s’accroissaient sans cesse, alors que très peu d’études prouvaient leur efficacité. Dans le travail que lui a commandé le Centre de recherche de l’École des officiers de gendarmerie, Guillaume Gormand constate de son côté que la vidéosurveillance n’a aucun effet de dissuasion ou de déplacement de la délinquance. Par ailleurs, les images recueillies n’ont servi que dans 1,13 % des enquêtes de son corpus. Tout de même, précise-t-il, la vidéosurveillance « peut avoir une utilité dans la gestion de gros événements parce qu’elle permet aux autorités de se projeter sur le terrain », de voir en direct ce qu’il s’y passe.

Réguler pour éviter les mauvais usages ?

De ce point de vue là, des dispositifs vidéo pourraient donc avoir une utilité. Quoique, indique encore le chercheur, « dans les événements sensibles, les acteurs de terrain se retournent vers ce qu’ils maîtrisent le mieux : la radio, le direct, les informations récupérées sur place… Les nouvelles technologies passent au second plan. » Et puis cela ne résout pas la question des algorithmes. Les utiliser pour identifier des individus « interdits de stade » et aller « les cueillir au petit matin » comme le propose Christian Estrosi, cela s’insère dans le contexte d’expérimentations technologiques plus ou moins régulées des événements sportifs. En janvier 2019, les supporteurs du FC Metz avaient par exemple eu la surprise d’apprendre par voie de presse qu’ils avaient été soumis aux tests des algorithmes de la société Two-I.

C’est précisément pour éviter ce type de problème que trois sénateurs ont rendu le 10 mai un rapport sur la reconnaissance biométrique dans l’espace public. En 30 propositions, ils préconisent de « tracer des lignes rouges pour éviter la société de surveillance et de passer une loi d’expérimentation sur trois ans, pour tester différents cas d’usage », résume le corapporteur Marc-Philippe Daubresse (LR). Parmi les limites proposées : interdire la reconnaissance faciale en temps réel sans possibilité de recueillir le consentement des personnes, « sauf pour l’accès à un site dangereux comme les sites nucléaires, ou à de grands événements avec des risques de débordement ou d’attentat terroriste, comme les Jeux olympiques ». De fait, une telle proposition rouvre le débat de l’usage de la reconnaissance faciale en 2024, quand bien même la perspective avait été écartée en octobre 2021 par le délégué interministériel aux Jeux olympiques.

La petite musique des technologies de surveillance

Surtout, les sénateurs appellent à préciser le débat en fonction des cas d’usage de ce type de d’algorithmes. En cela, ils rejoignent les chercheurs de la chaire Implications légales de l’intelligence artificielle de l’université Grenobles-Alpes, auteurs d’une cartographie détaillée des usages de la reconnaissance faciale en Europe. En substance, ces acteurs déclarent qu’authentifier un utilisateur avec son consentement (par exemple, comparer son visage à l’entrée d’un stade avec une photo qu’il aurait prise depuis son smartphone quelques jours plus tôt) a des implications bien moindres qu’identifier une personne au sein d’une foule comme le fait la police londonienne.

Mais pour Arthur Messaud de La Quadrature du Net, « c’est précisément dans ces moments où il y a peu de débats idéologiques sur l’intérêt d’une bonne organisation, d’une réduction des files d’attente, que le gouvernement ou la police sont les plus aptes à pousser des technologies dangereuses pour la vie privée. » Adopter des outils de reconnaissance faciale pour fluidifier le flux des supporteurs, ça a l’air inoffensif, relativement neutre, mais cela habitue la population à des technologies invasives. « Que Christian Estrosi propose de la reconnaissance faciale au Stade de France, c’est presque absurde en fait. Mais proposer ce genre de chose tous les six mois, cela nous accoutume à la petite musique de la surveillance. »

En toile de fond, la régulation de l’intelligence artificielle

Si Marc-Philippe Daubresse et ses corapporteurs Arnaud de Belenet (LREM) et Jérôme Durain (PS) appellent à encadrer la reconnaissance biométrique pour en autoriser certains usages et en interdire d’autres, du côté de La Quadrature du Net, on est donc résolument contre. Début juin, l’association a même lancé une campagne pour porter une plainte collective auprès de la CNIL contre la « Technopolice », terme derrière lequel elle rassemble beaucoup des technologies promues par Christian Estrosi – vidéosurveillance, algorithmes de reconnaissance faciale ou encore détection automatisée des comportements.

En cela, les deux illustrent parfaitement l’un des débats qui risque non seulement de secouer les préparatifs des Jeux olympiques, mais aussi le Parlement européen, au moment de réguler les technologies de surveillance algorithmique : vaut-il mieux les interdire complètement, comme y enjoint l’Allemagne, notamment ? Ou plutôt en accepter certaines applications, sous réserve d’expérimentations ?