Intelligence artificielle : L’Onu alerte sur les dangers d’un développement sans garde-fous

DROITS DE L'HOMME « Le risque de discrimination lié à des décisions basées sur l’intelligence artificielle n’est que trop réel », affirme Michelle Bachelet, la Haute-commissaire des droits humains de l’Onu

20 Minutes avec agences
— 
La Haut-Commissaire de l'ONU aux droits de l'homme, Michelle Bachelet, le 18 décembre 2019 à Genève
La Haut-Commissaire de l'ONU aux droits de l'homme, Michelle Bachelet, le 18 décembre 2019 à Genève — Martial Trezzini/AP/SIPA

L’Onu a appelé ce mercredi à imposer un moratoire sur certains systèmes d'intelligence artificielle comme la reconnaissance faciale, le temps de mettre en place des garde-fous pour protéger les droits humains. « Les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques s’ils sont utilisés sans prendre en compte suffisamment la manière dont ils affectent les droits humains », a déclaré Michelle Bachelet, la Haute-commissaire des droits humains de l’Onu.

Bannir les technologies les plus dangereuses

Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s’appuient sur l’intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d’expression. La responsable conseille ensuite de bannir, ou en tous les cas de réglementer fortement, celles qui présentent les plus grands dangers.

Mais en attendant que ces évaluations puissent être menées à bien, « les Etats devraient imposer un moratoire sur les technologies qui présentent potentiellement un grand risque », a souligné l’ancienne présidente chilienne, lors de la présentation d’un nouveau rapport de ses services consacré à ce sujet. Elle a notamment cité en exemple les technologies qui permettent des prises de décision automatiques ou encore celles qui établissent des profils.

« Les systèmes d’IA sont utilisés pour déterminer qui peut bénéficier de services publics, décident de qui a une chance d’être recruté pour un emploi et, bien sûr, ont une influence sur l’information que les gens peuvent voir et partager en ligne », a-t-elle souligné.

Des arrestations d’innocents à cause de systèmes mal entraînés

Ce rapport, qui avait été demandé par le Conseil des droits humains – la plus haute instance de l’Onu dans ce domaine – s’est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n’ait été correctement évalués.

Les dysfonctionnements de l’IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou ont mené à des arrestations d’innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple.

« Le risque de discrimination lié à des décisions basées sur l’intelligence artificielle – des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine – n’est que trop réel », a insisté Michelle Bachelet. Le rapport a souligné que ces intelligences artificielles sont entraînées avec l’aide d’énormes bases de données, dont la constitution se fait souvent de manière opaque.

« Nourrir les violations des droits humains à une échelle gigantesque »

Le rapport soulève en particulier l’usage de plus en plus fréquent de systèmes basés sur l’IA par les forces de l’ordre y compris des méthodes prédictives. Quand l’IA utilise des bases de données biaisées, cela est reflété dans les prédictions et a tendance à affecter des zones identifiées à tort comme à risque élevé. La reconnaissance faciale en temps réel et à distance est aussi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens.

« Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l’AI et permettre qu’elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup », a insisté la Haut-commissaire, même si elle reconnaît que « le pouvoir de servir les gens de l’IA est indéniable ». « Mais il en va de même de l’habilité de l’IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible », a-t-elle mis en garde.