Intelligence artificielle: «Dans le futur, on pourrait voir une machine pleurer»

INTERVIEW A l’occasion de la sortie de «La plus belle histoire de l’intelligence», Yann Le Cun, considéré comme l’un des pères du deep learning, nous parle du futur de l’intelligence artificielle…

Propos recueillis par Laure Beaudonnet

— 

Yann Le Cun, co-auteur de
Yann Le Cun, co-auteur de — ROBERT LAFFONT
  • La plus belle histoire de l’intelligence, co-écrit par Yann Le Cun, chercheur en intelligence artificielle, Stanislas Dehaene, chercheur en psychologie et en neurosciences cognitives, et le journaliste Jacques Girardon est paru jeudi.
  • L’ouvrage retrace l’histoire de l’organe de la pensée, des origines jusqu’à l’apparition de l’intelligence artificielle.
  • Nous avons poursuivi cette discussion avec la star de l’IA Yann Le Cun, considéré comme l’un des pères du deep learning.

Le cerveau humain est-il en train de se faire doubler par la machine ? Un programme informatique -AlphaGo- a déjà battu le champion du monde de Go, les voitures ne sont plus très loin de conduire sans notre aide et les traducteurs informatiques vont plus vite que nous. Combien de temps reste-t-il avant que l'intelligence artificielle mette notre organe de la pensée hors service ? Dans La plus belle histoire de l'intelligence publié jeudi (Robert Laffont), Stanislas Deahene, chercheur en psychologie et en neurosciences cognitives, à la tête de NeuroSpin, et Yann Le Cun, directeur de la recherche en intelligence artificielle chez Facebook (FAIR), retracent l'histoire de l'intelligence qui remonte aux origines de la vie.

Interrogés par le journaliste Jacques Girardon, les deux scientifiques explorent les fondements de l’intelligence et les grands défis qui restent à surmonter. Pour poursuivre cette discussion, nous avons rencontré Yann Le Cun, considéré comme l’un des pères du deep learning, une méthode d'apprentissage des machines qui s’inspire du fonctionnement de nos neurones et de leurs réseaux.

Première chose : c’est quoi l’intelligence ?

J’aimerais bien avoir la réponse parce que ce n’est pas facile à définir. Les tâches qu’on attribue aux animaux et aux humains, en général, incluent la perception de l’environnement, le raisonnement et l’action. Avoir un cerveau est corrélé à la capacité de bouger. Quand un animal ne bouge pas, il n’a pas de cerveau. Il existe des petits animaux marins qui ont un cerveau. Ils se déplacent, se fixent sur un caillou et à ce moment-là, ils digèrent leur propre cerveau. Ils n’en ont plus besoin. Même les animaux qui n’ont pas de cerveaux mais qui sont capables de réagir à leur environnement ont une certaine intelligence, y compris les plantes, les tournesols qui se tournent vers le soleil. Il y a une forme d’intelligence primaire.

Chez Fair, le laboratoire de Facebook dédié à l’intelligence artificielle, vous collaborez avec le neurolinguiste Emmanuel Dupoux qui s’intéresse à l’apprentissage des nourrissons. Que peuvent nous apprendre les bébés en matière d’intelligence artificielle ?

Il travaille notamment sur l’apprentissage de concepts de base et sur l’apprentissage du langage. Ce qui m’intéresse, c’est l’apprentissage des modèles du monde par observation, ce que les nourrissons semblent capables de faire et qu’on ne peut pas reproduire avec les machines. En quelques heures, les bébés apprennent à suivre les visages, à détecter les mouvements. Au bout de deux mois, ils comprennent la notion de permanence des objets. Quand un objet est caché, il n’a pas disparu. Entre-temps, il a fallu qu’ils comprennent que le monde est tridimensionnel, que des objets peuvent être devant d’autres objets. Vers l’âge de 8 mois, ils comprennent qu’un objet qui n’est pas soutenu va tomber. La gravité, l’effet de l’inertie… La physique intuitive s’acquiert à l’âge de 8 ou 9 mois.

« Si une machine peut s’entraîner à prédire ce qui va se passer, c’est qu’elle a compris quelque chose de la structure du monde »

Où en êtes-vous de cette collaboration ?

On a essayé d’imaginer des scénarios à l’aide de vidéos synthétiques pour entraîner une machine à comprendre les concepts de base. En montrant suffisamment de scénarios à la machine, peut-on l’entraîner à différencier ce qui est possible de ce qui est impossible ? Pour l’instant, c’est difficile. Ce qui semblerait mieux, ce serait d’entraîner la machine à prédire ce qui pourrait se passer dans une vidéo naturelle. On lui montre un segment de vidéo et on lui demande de prédire ce qui va se passer. Si elle peut s’entraîner à prédire ce qui va se passer, c’est qu’elle a compris quelque chose de la structure du monde. Le problème essentiel, c’est que le monde n’est pas entièrement prédictible. On peut imaginer un tas de futurs possibles. Comment dire à la machine « Ceci est une représentation de toute une panoplie de choses qui peuvent se passer » ? On ne sait pas vraiment faire ça.

En travaillant sur l’intelligence artificielle, qu’avez-vous appris sur l’intelligence humaine ?

La motivation de gens comme Stanislas Dehaene, moi, et bien d’autres, c’est de comprendre l’intelligence. On espère qu’il y a des principes sous-jacents qui pilotent l’intelligence animale et humaine ainsi que l’intelligence des machines. De même que l’aérodynamique explique à la fois comment volent les avions et les oiseaux. Les avions sont, d’une certaine manière, inspirés des oiseaux. Ils utilisent les mêmes principes sous-jacents mais ils n’ont pas de plumes ni de muscles. Comme dirait le célèbre physicien américain, Richard Feynman, on ne comprend pas vraiment quelque chose tant qu’on ne l’a pas construit soi-même.

« L'intelligence humaine a un modèle prédictif du monde. On sait que si on tombe d’une falaise, rien de bon ne va se passer. »

Que reste-t-il à accomplir à l’IA pour ressembler à notre intelligence ?

La capacité à apprendre des modèles dont je vous parlais. Avec l’apprentissage supervisé, on donne à la machine une image de chien et on lui dit : « c’est un chien ». On lui donne la réponse. Il y a une autre forme d’apprentissage, c’est l’apprentissage par renforcement. On laisse la machine faire des essais et des erreurs et, elle se corrige toute seule. Par exemple, on peut la laisser s’entraîner sur Atari. La seule chose qu’elle doit faire c’est maximiser son score. Par essai et erreur, elle arrive à trouver une suite d’actions à produire pour maximiser son score. Le problème, c’est qu’il lui faut l’équivalent d’une centaine d’heures de jeu pour atteindre un niveau de performance qu’un humain atteindrait en un quart d’heure.

Ce n’est pas génial…

Non. Par contre, à la fin, ça marche vraiment bien. Si on veut utiliser cette méthode pour entraîner un système à conduire une voiture, il faudrait qu’il conduise une centaine de milliers d’heures, tombe d’une falaise quelques milliers de fois, écrase quelques milliers de piétons pour apprendre à éviter de le faire. Qu’est-ce qui fait que, nous, humains, pouvons apprendre à conduire une voiture en une vingtaine d’heures d’entraînement sans jamais causer d’accident -pour la plupart d’entre nous- ? Il nous manque quelque chose. Une hypothèse : si on arrive à apprendre plus vite c’est qu’on a ce modèle prédictif du monde. On sait que si on tombe d’une falaise, rien de bon ne va se passer. Ce qui nous manque, c’est de permettre aux machines d’apprendre ces modèles prédictifs. Et on se heurte au même problème : le monde n’est pas entièrement prédictible…

« L’Intelligence artificielle va nous permettre de faire plus avec la même quantité d’effort. »

L’intelligence artificielle ne risque-t-elle pas de nous rendre bête ?

Non, c’est exactement le contraire.

Mais si la technologie nous assistait trop, elle nous empêcherait de faire travailler notre mémoire…

L’IA, comme toute technologie, est un outil qui amplifie le pouvoir de l’humanité. Dans le passé, les outils ont amplifié notre force physique. Maintenant, la technologie amplifie notre force mentale. Quand les lunettes sont apparues, les gens se sont dit : « On va être des assistés, on va devoir porter des lunettes pour voir ». L’apparition des lunettes à complètement transformé la société, elles ont permis aux gens de plus de 40 ans de faire des métiers qu’ils ne pouvaient plus faire car ils ne voyaient rien. On ne va pas manquer de travail, de tâches intéressantes à faire parce qu’on ne va pas manquer de problèmes à résoudre. L’IA va nous permettre de faire plus avec la même quantité d’effort.

Dans le livre, vous abordez la question de l’émotion. Une intelligence artificielle pourra-t-elle avoir de l’émotion dans le futur ?

Dans le futur, cela ne fait pas de doute. Le système contre lequel vous jouerez au Go ou le système qui pilotera votre voiture n’aura pas d’émotion. Par contre, on aura peut-être des systèmes intelligents autonomes. Sa tâche n’est pas explicitement définie par un programme mais par un système de valeurs. Ce qui définit la tâche de ce robot, ce sera : aide l’humanité de telle manière. Un but très général. La machine définira elle-même les moyens par lesquels elle remplira ses pulsions et son système de valeurs. Si on se place dans la biologie, les émotions sont des calculs. Il y a un ensemble de formations dans le cerveau, les ganglions de la base, l’amygdale, qui calculent notre niveau de contentement.

Pourrait-on voir une machine pleurer dans le futur ?

On pourrait si cela a un intérêt. On pleure parce qu’on est des animaux sociaux, il faut qu’on exprime notre sentiment à nos semblables. Sinon, le pleur ne servirait à rien. Nos pulsions, c’est ce système de valeurs qui est, en grande partie, pré-câblé dans notre cerveau. C’est lui qui nous dit qu’il faut respirer, manger, se reproduire. On survit grâce au support de nos semblables, donc il faut qu’on ait une certaine influence sur eux. Tous ces comportements ne sont pas liés à l’intelligence mais à la nature humaine. Comment va-t-on construire des machines autonomes ? En déterminant ces pulsions, ces systèmes de valeurs, de manière à ce que leur comportement s’aligne avec les valeurs humaines. C’est pour ça que je ne crois pas à un scénario à la Terminator où automatiquement les machines intelligentes voudraient nous dominer.