Cédric Villani: «Ce n’est pas l’intelligence artificielle qu’il faut craindre, mais les humains»

INTERVIEW Cédric Villani a dévoilé ce jeudi son rapport tant attendu sur l’intelligence artificielle...

Propos recueillis par Laure Beaudonnet

— 

Cédric Villani à Paris le 26 mars 2018.
Cédric Villani à Paris le 26 mars 2018. — E. PETIT / 20 MINUTES
  • Chargé d’une mission de réflexion sur le développement stratégique de l’intelligence artificielle (IA), Cédric Villani a remis son rapport final au gouvernement ce 29 mars.
  • Le rapport définit quatre secteurs prioritaires : la santé, l’écologie, le transport et la défense.

La France a bien l’intention de jouer dans la cour des grands. Le plus célèbre des mathématiciens français Cédric Villani dévoile ce mercredi son rapport tant attendu sur l’intelligence artificielle (IA) à Emmanuel Macron. Le député LREM de l’Essonne a été chargé par le président de la République et le Premier ministre de mener une large réflexion sur ces technologies qui, en donnant aux machines de nouvelles capacités d’analyse et d’apprentissage, promettent de bouleverser la manière dont fonctionnent bon nombre d’industries et de services.

>> A lire aussi : Robots-tueurs, chômage de masse... L'intelligence artificielle vous fait peur? Mounir Mahjoubi veut instaurer «la confiance»

A l’heure où ces technologies de simulation de l’intelligence humaine alimentent les fantasmes les plus fous, le lauréat de la médaille Fields nous a présenté les grandes lignes de sa stratégie. Entretien.

Qu’est-ce que vous avez appris sur l’Intelligence artificielle en travaillant sur ce rapport ?

Mon regard a changé entre le début et la fin de la mission. D’abord ma définition de l’IA est devenue beaucoup plus floue. J’ai compris que la partie la plus délicate, ce n’était pas l’IA en elle-même, mais la façon dont nous, humains, nous allions interagir avec elle. La grande leçon, c’était la compréhension qu’un sujet sur l’IA est en fait un sujet sur la société. Comment l’Etat doit-il s’immiscer de manière à faciliter le partage des données ? Qui a le droit d’utiliser quoi ? Qui fait confiance à qui ? Avec le scandale de Cambridge Analytica et Facebook, il est vraiment question de qui fait confiance à qui.

>> A lire aussi : Qui est Cambridge Analytica, ce consultant de l'ombre qui se vante d'influencer des élections?

On sent une vraie urgence sur la question de l’IA, sommes-nous déjà dépassés par ces technologies ?

On n’est pas encore dépassé. Nous, la France, ne sommes pas dans le peloton de tête. Le peloton de tête, ce sont les Etats-Unis, la Chine… Maintenant le Canada, l’Angleterre, Israël. En revanche, nous avons la possibilité de revenir dans le peloton de tête, et surtout de bouger l’Europe pour qu’elle s’installe comme un continent qui compte. La France sans l’Europe sera impuissante, mais l’Europe a aussi besoin de la France pour avancer. Dans cette compétition internationale, on insiste sur deux sujets urgentissimes dans ce rapport. L’organisation de la recherche pour éviter que par manque d’attractivité, nos chercheurs soient tous débauchés par les grands acteurs étrangers. Et le deuxième, c’est la question de la structuration et des données.

Vous envisagez de doubler les salaires des chercheurs. Est-ce suffisant pour stopper l’hémorragie ?

Ça ne compensera pas. C’est plutôt fois trois que fois deux actuellement et il faudra encore les monter. Mais ce n’est pas la mesure sur laquelle il faut se focaliser. Ce n’est pas qu’une question d’argent, sinon cela ferait longtemps qu’on serait tous aux Etats-unis avec des postes qui sont payés trois fois plus pour des charges de travail plus simples.

« A l’échelle de l’Europe, l’investissement qui est à faire se compte en dizaine de milliards »

Vous avez remis le rapport, c’est quoi la suite ?

Il va y avoir un suivi du rapport. On recommande la mise en place d’un coordinateur pour l’ensemble de la politique de l’intelligence artificielle qui serait placé au sein du ministère du numérique. Ce serait un poste d’expert de haut niveau plutôt qu’un poste politique. Il y a une question de mise en œuvre sur la durée qui va être importante. Et la question de la politique européenne, à la fois en travaillant avec la commission européenne, avec l’union européenne en général, et en fédérant les initiatives nationales. Ça va être un gros chantier.

Avez-vous évalué les investissements qu’il va falloir faire ? La France a-t-elle les ressources suffisantes ?

Il faut mesurer les ressources au niveau de l’Europe et si elle s’en donne la volonté, elle a toutes les ressources qu’il faut : humaines, financières. Au niveau européen, il y a de grandes possibilités. Le plus urgent, c’est la partie recherche, la structuration des données, ce n’est pas ça qui coûte le plus cher. A l’échelle de l’Europe, l’investissement qui est à faire se compte en dizaine de milliards. A l’échelle de la France, il se compte en milliard. Il y a des choses à mettre en branle immédiatement et d’autres qui peuvent attendre quelques années.

L’intelligence artificielle fait peur, on parle de robots tueurs, de chômage… Et vous, de quoi avez-vous peur ?

Ce n’est pas l’intelligence artificielle qu’il faut craindre, mais les humains. Cela peut être l’utilisation de tel ou tel outil par un groupe terroriste ou par une puissance étrangère. Le scandale de Cambridge analytica autour des élections américaines, c’est de l’IA. Ça parle de publicité profilée, de manipulation d’élection. Ça a déjà eu lieu et c’est déjà dangereux, pas parce que l’IA va nous tuer mais parce qu’il y a des gens qui l’utilisent pour manipuler. Il faut se donner les bonnes protections et ça veut dire des lois, c’était l’enjeu du Règlement européen sur la protection des données (RGPD).

Dans le rapport, on a le sentiment que la question des armes autonomes est moins préoccupante que celle des biais ?

Aux Etats-Unis, on a vu des exemples ravageurs. Les biais ont participé dans certains cas à accroître les inégalités, les injustices. La façon dont la justice a été plus ou moins sévère en fonction de la couleur de peau.

Comment éviter les biais quand un humain, lui-même, porte des jugements biaisés ?

L’algorithme hérite des biais de l’humain [les préjugés racistes, sexistes, religieux etc. parfois inconscients], donc il faut activement le débiaiser. A travers l’algorithme, on en apprendra plus sur nous-mêmes. Si on identifie un biais, on peut l’éliminer, mais il peut toujours y avoir un truc auquel vous ne pensez pas. Ça va être une compétence en soi : savoir expertiser des bases de données, vérifier, statistiser, repérer les biais. Les biais peuvent être partout sans qu’on s’en rende compte. Ils peuvent être liés au niveau de richesse, à la religion, à la provenance ethnique.

« On devrait enseigner l’informatique dès le CP. Et au lycée, il va y avoir un cours qui s’appellera « Humanités scientifiques et numériques ». »

Vous définissez quatre secteurs prioritaires : la santé, l’écologie, le transport, la défense… Et l’éducation dans tout ça ? Va-t-on apprendre les bases de l’IA en primaire ou au collège ?

On devrait déjà le faire. On devrait enseigner l’informatique dès le CP. Il faut savoir comment, en tant que citoyen, on l’aborde : la relation avec les données personnelles, les bons réflexes, les bons usages, la sécurité… C’est l’un des axes de la réforme du lycée. Il va y avoir un cours qui s’appelle « Humanités scientifiques et numériques » dont l’intitulé pourrait évoluer, qui sera enseigné sur un mode culture générale. Il va nous en falloir davantage.

>> A lire aussi : 939 mails non lus? Pour sauver la planète, commencez par nettoyer vos boîtes

Vous parlez de faire une IA écologique, n’est-ce pas antinomique -et un peu naïf- quand on voit l’impact des mails sur l’environnement ?

La grande majorité des gens n’ont pas conscience de l’impact d’un mail. Il y a un mythe selon lequel comme c’est dématérialisé, ce serait plus écologique. Mais l’impact, si on raisonne en coût complet, on le retrouve dans la construction industrielle, dans le matériel, dans les problèmes de recyclage. Il faut que ça vienne imprégner les différents étages de décision, qu’on s’habitue à ne pas aller vers la solution la plus consommatrice.

Selon vous, l’intelligence artificielle va-t-elle détruire nos emplois ?

Cela arrivera dans certains secteurs, sans doute. Bien malin celui qui peut dire exactement ce qui va être détruit. Les économistes disent des choses très différentes, on va de l’apocalyptique au très optimiste. Il n’y a pas de raison de se précipiter vers l’option la plus pessimiste. Elle serait paralysante voire tétanisante. Si l’Etat est bien informé, si on accompagne les choses, il n’y a pas de raison qu’on n’arrive pas à se débrouiller comme des grands. L’apparition de nouvelles technologies, c’est un problème de société, c’est se demander ce que nous voulons faire. Dans le rapport, l’Etat revient sans arrêt. On est persuadé que l’Etat a un rôle important à jouer dans l’organisation du travail.

« Dans certaines situations, l’IA va accroître les inégalités, aussi parce qu’elle va tout de suite équiper les acteurs qui sont en haut du panier. »

Comment envisagez-vous la collaboration, dont vous parlez dans le rapport, entre l’homme et la machine ?

Le joueur d’échec Garry Kasparov l’explique bien. Quand on fait des tournois mixtes homme-machine, les équipes qui tirent leur épingle du jeu sont celles qui ont bien réfléchi au partage des rôles, en particulier celles où l’homme aide la machine de façon intelligente. Dans les transports, je pense à l’exemple de la livraison : on pense que c’est un problème de convoi, conduire d’un point A à un point B, et que le véhicule autonome -les drones, les voitures autonomes- va venir réparer ça. Mais quand vous réfléchissez à la livraison, c’est aussi vérifier l’état du colis, assurer la réception, se frayer un chemin à l’arrivée, composer le code, trouver l’interphone. Le métier de livreur ne va pas forcément disparaître tout de suite, il va s’adapter.

>> A lire aussi : «Dans le futur, seuls les gens très intelligents et très doués trouveront du travail»

Comment fait-on pour éviter de creuser les inégalités avec l’émergence de l’IA ?

Il n’y a pas de solution miracle. Sur certains sujets, l’IA va spontanément être en augmentation de l’égalité, sur d’autres, elle va être en réduction. Catie O’Neil a publié How Big Data Increases Inequality and Threatens Democracy [comment le big data augmente les inégalités et menace la démocratie] où elle analyse un certain nombre de situations dans lesquelles l’IA accroît les inégalités, aussi parce qu’elle va tout de suite équiper les acteurs qui sont en haut du panier : les mieux instruits, les plus intelligents, ceux qui ont accès à la technologie. Mais on pense aussi au fait qu’une IA peut apporter des conseils à des gens qui n’ont pas accès à l’information. Une intelligence artificielle conçue pour mieux faire circuler l’information a tendance à réduire les inégalités.

L’image du geek a-t-elle évolué dans la société ?

C’est complexe les questions d’images. D’un côté, on a déjà des cas où des gens doivent la vie à un traitement médical dans lequel l’intelligence artificielle est intervenue. De l’autre côté, le scandale de Cambridge analytica montre qu’on peut être manipulé par l’IA sans en avoir conscience. L’image du geek célèbre, Mark Zuckerberg, a été très écornée ces derniers temps. Et il y a l’image du geek à fond dans l’IA, comme un Yann LeCun, directeur du laboratoire IA chez Facebook, qui en train de devenir un héros de la sphère geek. Son grand copain, Yoshua Bengio au Québec, l’un des pionniers de l’IA, est depuis longtemps une grande star dans l’espace public. Rémi Quirion, le scientifique en chef du Québec, a dit en parlant de Yoshua Bengio : « C’est la Céline Dion des sciences, tout le monde le connaît ».

Un peu comme vous…

Peut-être. Je vais dire « non » pour éviter que dans les dix années à venir, on m’appelle la Céline Dion des sciences, après m’avoir appelé la Lady Gaga… Mais c’est important d’avoir des geeks dans l’espace public.