Laboratoire de Google: «L’IA soulève des problèmes beaucoup plus concrets que celui des robots-tueurs»

INTERVIEW Olivier Bousquet est chargé de monter le laboratoire parisien de Google dédié à l'intelligence artificielle. On l'a rencontré...

Propos recueillis par Laure Beaudonnet

— 

 Illustration : Logo Google : Station F
Illustration : Logo Google : Station F — NICOLAS MESSYASZ/SIPA
  • Google a choisi Paris pour son deuxième laboratoire dédié à l'intelligence artificielle.
  • Olivier Bousquet responsable du «machine learning» au laboratoire de recherche de Zurich, est chargé de monter le projet.

En ouvrant son deuxième centre européen consacré à l’intelligence artificielle (IA) à Paris, Google prouve -après Facebook- que la France est « ze place to be » quand on parle d’IA. Si Olivier Bousquet, directeur de recherche en machine learning à Zurich qui prend la direction du projet, s’interdit de crier « cocorico », il se félicite de l’écosystème hexagonal.

>> A lire aussi : Robots-tueurs, chômage de masse... L'intelligence artificielle vous fait peur? Mounir Mahjoubi veut instaurer «la confiance»

Un pied en France, l’autre en Suisse, ce scientifique d’à peine plus de 40 ans nous a accordé une petite heure dans les locaux parisiens de Google pour nous en dire un peu plus sur les objectifs de ce laboratoire en recherche fondamentale. Il a imaginé avec nous le futur des algorithmes et s’est penché sur les problèmes que posent ces technologies de simulation de l’intelligence humaine dont tout le monde se préoccupe ces derniers mois. Rencontre.

Olivier Bousquet

Google a choisi Paris pour lancer son laboratoire de recherche fondamentale en IA. Est-ce pour concurrencer Facebook ?

Disons que Facebook AI Research (FAIR) a pris un peu d’avance sur nous dans la reconnaissance du potentiel français. C’est une bonne indication. On s’est peut-être inspiré de leur positionnement, mais il y en a dans d’autres pays en Europe. Par exemple, il y a Amazon à Berlin. En Angleterre, il y a Deep Mind. Il n’y a pas que la France.

>> A lire aussi : L'intelligence artificielle de Deepmind (Google) apprend en se souvenant

Quelles applications de l’IA devrait-on voir arriver très vite ?

L’IA va avoir un gros impact sur la santé. Il y a beaucoup de notes écrites à la main par les médecins qui ne sont pas traitées. On ne sait pas extraire des informations d’une pile de notes. Si on arrive à structurer ces données, à les mettre dans un ordinateur, on va pouvoir faire des recherches très rapidement. Si on regarde l’historique d’un patient, il est possible que quelque part, il y a deux ans, il ait fait une réaction à un médicament. Cette information se trouve dans une note manuscrite, mais on ne l’a pas enregistrée. Si on a un outil qui permet de chercher l’information rapidement, ça permettrait d’éviter certaines erreurs. L’une des applications les plus immédiates, c’est tout ce qui est à base d’images. Typiquement, l’image du fond de la rétine. On peut détecter des signes précurseurs de cécité pour les diabétiques. On a pris des photos de la rétine de milliers de gens, elles ont été classifiées par un système d’IA. La machine peut détecter des signes qu’un médecin ne pourrait pas voir à l’œil nu.

>> A lire aussi : Votre selfie est une œuvre d’art mais vous ne le savez pas encore

Et pour les cancers ?

On peut identifier des cellules cancéreuses à partir d’image. Plutôt que de dépendre de la qualité du médecin, tous les médecins seront très bons puisqu’ils auront cet outil.

D’ici quelques années, l’IA sera-t-elle capable de parler comme un humain ?

Dans l’histoire de l’intelligence artificielle, on a eu beaucoup de déconvenues, en particulier sur la capacité des ordinateurs à converser avec les humains. Je ne me risquerais pas à faire un pronostic. C’est envisageable dans la mesure où on peut déjà avoir des ordinateurs qui comprennent, dans une certaine mesure, le langage naturel. Mais de façon très limitée et très superficielle. On ne sait pas encore fournir du sens commun à l’ordinateur. La compréhension telle qu’elle est faite, avec les techniques actuelles, c’est repérer des motifs dans des phrases. Quand je dis, « je pose cette bouteille sur la table », c’est assez naturel. Alors que si je dis, « je pose cette bouteille sur le ciel », ça n’a pas de sens. On n’a jamais vu quelque chose posé sur le ciel. La machine va repérer qu’après « posé sur », on n’utilise pas trop le ciel, on utilise plus souvent la table. Cela ne veut pas dire qu’elle a une représentation de ce qu’est une table. Pour pouvoir converser de façon vraiment naturelle, il faut développer une technologie qui a accès à plus d’informations que simplement des motifs statistiques dans du texte.

Comment fait-on ?

Il faudrait que la machine évolue dans un monde au lieu de simplement l’observer. Les enfants, on leur parle et, en même temps, ils évoluent dans le monde, ils interagissent. C’est ce qu’il faudrait reproduire pour arriver à une machine capable de faire le lien entre le texte et le sens de ce texte. Il faut s’inspirer de l’apprentissage humain, mais il ne faut pas non plus être contraint. On n’a pas fait des avions en imitant les oiseaux. Même si on utilise des réseaux de neurones, quand on fait du machine learning, on fait de l’identification plutôt que de l’apprentissage au sens biologique.

Peut-on imaginer qu’on n’aura bientôt plus besoin d’apprendre une langue ?

Ce serait bien pratique pour moi qui vis dans un pays germanophone et qui ne parle pas allemand ! La traduction automatique est de bonne qualité pour un large domaine d’applications. Pour comprendre la phrase et pour la traduire, il faut comprendre le monde, sinon la traduction ne marche pas. Exemple : « The trophy did not fit into the luggage because it was too big ». « It » peut signifier le trophée ou la valise. Ici, il faut comprendre qu’un trophée, c’est quelque chose d’une taille raisonnable qui peut entrer dans une valise. « It was too big » désigne le trophée. Par contre, si on dit « it was too small », « it » désigne alors la valise. En français, le genre donne une indication, mais avec l’anglais, on a besoin du sens commun. La traduction pour une conversation de tous les jours, (chercher un chemin), c’est assez facilement atteignable. On a fait d’énormes progrès en traduction du son en texte, du texte en texte et en synthèse de voix. On pourrait imaginer avoir des outils de traduction instantanée. Pixel Buds -les écouteurs Bluetooth de Google- le font en partie.

>> A lire aussi: Google dans ton oreille, une bonne idée plombée par un design raté

L’étape d’après, ce serait une technologie capable de lire dans les pensées et de traduire instantanément dans toutes les langues ?

Il y a beaucoup de recherches à travers les interfaces homme-machine. Elles ont, selon moi, des applications plus nobles : l’aide des personnes handicapées. En lisant l’activité électrique du cerveau de façon non-invasive (avec un casque), on peut les entraîner à faire bouger un curseur sur un écran pour taper un texte. Elles pensent droite et le curseur va à droite. Pour l’instant, c’est fastidieux et lent mais elles peuvent écrire un texte. Le but de ce genre d’interfaces est de décrypter l’activité du cerveau pour que la personne puisse, grâce à sa pensée, écrire du texte ou communiquer. Avec une technologie assez puissante, on pourrait imaginer un casque capable de taper un texte sans qu’on ait besoin de lire.

Quand Elon Musk et Stephen Hawking mettent en garde contre les dangers de l’IA, que répondez-vous ?

A court terme, il faut voir l’IA comme un outil dont on a le contrôle plutôt que comme une entité autonome. Mais il faut l’utiliser de la bonne façon. Ce qui est important dans ces mises en garde, ce n’est pas l’extrapolation futuriste. L’IA soulève un tas de problèmes beaucoup plus concrets que le problème des robots-tueurs. Ces technologies sont basées sur des données. Si les données sont biaisées, le résultat va être biaisé. C’est toute la discussion autour de l’utilisation de ces technologies pour accorder un crédit à une personne. Même si les données reflètent un biais : le fait que les gens qui remboursent leur crédit habitent dans tel arrondissement plutôt que dans tel autre. Il ne faut pas que le modèle utilise cette information pour accorder un crédit, ce serait de la discrimination. C’est un sujet de recherche important. Maintenant qu’il n’est plus question de science-fiction, il faut se poser ces questions.

>> A lire aussi : Puces, immortalité virtuelle, robots tueurs… Le cauchemar peut-il voir le jour?

Raymond Kurzweil, directeur de l’ingénierie chez Google, attend la singularité [le jour où l’intelligence des machines aura dépassé celle des hommes et où nous serons relégués au rang des animaux face à une IA forte] pour 2029, qu’est-ce que vous en dites ?

Raymond Kurzweil a ses propres opinions qui ne sont pas les miennes, ni celles de Google. Mon opinion personnelle, c’est qu’il est très difficile de faire des pronostics. Comme je le disais, on a eu beaucoup de déconvenues dans l’histoire. Dans les années 1950, on prédisait l’apparition d’un ordinateur intelligent capable de parler pour 1960, puis 2000. On connaît une accélération des technologies, on a des outils de plus en plus puissants et polyvalents. Le pas qu’on a fait récemment, c’est la polyvalence des outils. Est-ce qu’il va y avoir un moment où ça va exploser ou ça va nous remplacer ? C’est un peu trop futuriste pour moi.