L'Assistant «next generation» de Google est dix fois plus rapide que son prédécesseur

GOOGLE I/O Il sera lancé «plus tard» cette année sur les prochains Pixel et sera capable de se passer du Cloud en fonctionnant directement sur le smartphone

Philippe Berry

— 

Google a lancé le Pixel 3a le 7 mai 2019 lors de la conférence Google I/O, à Mountain View.
Google a lancé le Pixel 3a le 7 mai 2019 lors de la conférence Google I/O, à Mountain View. — J.CHIU/SIPA

De notre correspondant en Californie,

Il veut laisser Siri dans les starting-blocks. A la conférence I/O, mardi, Google a fait une démonstration impressionnante des capacités de ce qu’il appelle pour l’instant son Assistant « nouvelle génération ». Annoncé comme 10 fois plus rapide que son prédécesseur pour comprendre les commandes vocales et les exécuter, il fonctionne « on device », directement sur le smartphone, sans avoir besoin du Cloud, ce qui devrait limiter la quantité des données collectées par l’entreprise. C’est un changement de stratégie majeur pour Google, qui suit là la tendance initiée par Apple sur la vie privée et veut rassurer le public, inquiet d’avoir un appareil espion qui les écoute en permanence.

Jusqu’à présent, les différents assistants n’ont pas tenu leurs promesses. Le contrôle vocal reste lent et pas toujours précis, et répéter 10 fois « OK Google » est pénible (même s’il est possible d’enchaîner des commandes par « et »). Du coup, ceux qui ont une enceinte Google Home ou Echo d’Amazon les utilisent pour des fonctions basiques : mettre un minuteur pour faire bouillir les œufs, écouter un podcast, jouer une playlist ou faire sonner son téléphone égaré sous le coussin du canapé.

En quasi-temps réel

« Hey Google. Ouvre le calendrier. Lance la calculatrice. Mets un timer de cinq minutes. Allume le flash. Affiche le compte Twitter de John Legend. Réserve-moi un Lyft. Prends un selfie… » Sur scène, la démonstratrice a enchaîné une douzaine de commandes en 30 secondes, sans accroc. La reconnaissance vocale est, selon Google, 10 fois plus rapide qu’avant, et cela va « transformer le futur de l’Assistant », assure Sundar Pichai, directeur général de l’entreprise.

La dictée d’un email ou d’un SMS est par exemple retranscrite en quasi-temps réel. « Répondre : ''J’étais avec ma famille dans le Yellowstone. C’était magnifique''. Afficher mes photos du Yellowstone. Celles avec les animaux. Envoie-la à Justin. » « Wow ! », se sont exclamés les 5.000 développeurs d’une seule voix. Google ne laissait cependant pas les journalistes mettre à l'épreuve sa technologie.

« On device »

A l’heure actuelle, le système de reconnaissance vocale de Google, qui a fait d’immenses progrès grâce au machine learning – via l’analyse de millions de commandes – fonctionne dans le Cloud. Du coup, il y a du lag et les requêtes sont analysées par les serveurs de l’entreprise. Mais selon Pichai, les ingénieurs ont réussi à réduire le modèle nécessaire à la compréhension du langage de 100 Go à 0,5 Go. De quoi le faire fonctionner « on device », directement sur le téléphone, même en mode avion, sans réseau téléphonique ou de wifi.

Selon Google, cet Assistant « next gen » sera lancé plus tard cette année sur « les nouveaux Pixel » qui seront présentés à l’automne. Fonctionnera-t-il sur les anciens téléphones de Google ? « On n’en est pas encore sûrs. Ce que vous avez vu hier était… assez difficile à faire », répond avec le sourire Rick Osterloh, vice-président de l’entreprise en charge de la division « hardware et services ». Selon lui, Google en dira davantage dans les prochains mois et n’a « pas de projet, pour le moment, de le déployer au-delà du Pixel ». A ton tour, Apple.