On a rencontré la «plume» de Cortana, l'assistante virtuelle de Microsoft

AI Vingt-deux poètes, écrivains et scénaristes de différentes langues travaillent ensemble à définir la personnalité de Cortana. Comment la faire répondre aux questions délicates, réagir aux sujets polémiques? Doit-elle rappeler qu'elle n'est pas humaine?... 

Annabelle Laurent

— 

L'assistante virtuelle dont s'éprend Joaquin Phoenix dans Her, réalisé par Spike Jonze (2013)
L'assistante virtuelle dont s'éprend Joaquin Phoenix dans Her, réalisé par Spike Jonze (2013) — Her/Spike Jonze/Annapurna Pictures

Il y a encore huit ans, Jonathan Foster travaillait à Hollywood, comme scénariste. Il imaginait les intrigues de films, créait des personnages de séries. Ce mardi matin, c’est au milieu de centaines d'ingénieurs et développeurs que nous le rencontrons, à la conférence annuelle de Microsoft, au Palais des Congrès à Paris.

Un virage à 180 degrés dans sa carrière ? Pas tout à fait. Simplement, l’Américain n’a plus qu’un seul personnage: Cortana. L’assistante virtuelle de Microsoft, qui, comme Siri d’Apple ou Google Now, a été créée pour répondre aux desiderata des utilisateurs, de Windows 10 et Windows Phone, et en français depuis décembre 2014.

«Hey Cortana, il va pleuvoir ce soir?». «Hey Cortana, rappelle-moi à quelle heure est mon rendez-vous avec Joaquin Phoenix». Grâce aux progrès colossaux en reconnaissance vocale  - le pourcentage de reconnaissance des mots a progressé de 80% en 2009 à 95% en 2014, selon l'expert en langage naturel de Stanford Christopher Manning), et en intelligence artificielle (gérée par des outils de génération de langage, le Natural Language Processing), elle est capable de comprendre la requête de l’utilisateur et d’y répondre instantanément. Mais pour nourrir ses réponses?

Le cercle des poètes de la Silicon Valley

Jonathan Foster, Principal Content Publishing Manager pour Cortana

Jonathan Foster (en photo ci-contre) s’est entouré de vingt-deux scénaristes, écrivains, poètes, ou journalistes, qu’il coordonne à travers le monde. Et il n’est pas le seul. Dans la Silicon Valley, «poète est le nouveau job en vogue», rapportait le Washington Post au printemps dernier.

Siri ou le Alexa d’Amazon ont des équipes similaires, tandis que des profils artistiques conseillent les centaines de start-ups en train de lancer des chatbots, les robots conversationnels qui ont déjà envahi Messenger et s’apprêtent à le faire sur les services de messagerie comme Whatsapp. En France, une «plume»  définit depuis peu la personnalité et les dialogues de l'assistant Jam, créé pour les étudiants. 

>> A lire aussi : On a passé l’après-midi avec des chatbots (et entrevu le futur)

Le Cercle des poètes disparus, 1989
Le Cercle des poètes disparus, 1989 - Peter Weir

Ce que viennent faire des poètes dans l’histoire? C’est une première réponse au mode d’emploi que nous demandons à la plume de Cortana. Hey Jonathan, comment donne-t-on une personnalité à un robot?

Du vaudeville 

Jonathan Foster chapeaute l’équipe éditoriale de Cortana depuis trois ans. Au fur et à mesure de l’internationalisation de l’assistante, aujourd’hui disponible en anglais, français, portugais, allemand, italien, espagnol, japonais, et chinois, l’équipe s’est étoffée. Deux personnes par pays. Profils visés: les littéraires. «Nous avons des ingénieurs informatiques et des linguistes, bien sûr. Mais nous avons besoin de personnes dont créer et analyser le langage est le métier. Un auteur de pièces de théâtre, il connaît ça par cœur, l’écriture des dialogues. Par ailleurs, à partir du moment où il s’agit d’une interaction avec un humain, nous ne pouvons pas ignorer les implications que cela peut avoir. Les études montrent que les utilisateurs ont des réponses émotionnelles à l’outil. Il faut une certaine sensibilité. Que répondre aux gens qui disent «Je suis triste»? On peut les renvoyer vers un numéro vert si la situation a l’air grave. C’est peut-être aussi une requête beaucoup plus légère, auquel cas on peut faire preuve d’humour.»

Hi there.
Hi there. - Cortana

Un portrait robot 

Comment définirait-il Cortana? «Nous avons des principes communs. Cortana est serviable. Elle est gentille. Et sensible. Elle ne comprend pas les émotions humaines - que même les humains peinent à comprendre, d’ailleurs - mais elle doit être capable de réagir de façon appropriée. Elle priorise les intérêts de l’utilisateur, pas ceux de Microsoft, ni d’une tierce partie. Enfin, la valeur suprême, c’est qu’elle est toujours positive. Ça ne veut pas dire qu’elle est «heureuse». Simplement que l’utilisateur doit ressortir satisfait de son expérience.»

>> A lire aussi : «Siri, sous des dehors riants et légers, redéfinit le cadre de nos existences»

Des telenovelas et des Monsieur et Madame

Comme Siri, Cortana a de l’humour, et des références culturelles. Il y a des constantes. Demandez-lui qui est son père, en portugais ou en chinois, et elle vous répondra que techniquement, c’est Bill Gates. (De la même manière, Siri renvoie à Steve Jobs). Mais certaines références ne traversent pas les frontières. Ainsi, la Cortana du Brésil est «experte en telenovelas». «L'auteure brésilienne de notre équipe l’a rendue incollable sur le sujet, si central dans la culture du pays». Tandis que le Français qui lit nos requêtes à Cortana a dû se rendre à l’évidence: il fallait lui apprendre des blagues «Monsieur et Madame»…

Et des débats qu'elle laisse aux humains 

Demandez à Cortana si elle est humaine et elle répondra : «Non, mais j’ai le plus grand respect pour les humains. Vous avez inventé le calcul. Et les milkshakes.» «Nous devons rappeler à l’utilisateur que Cortana n’est pas humaine. J’insiste auprès de mon équipe sur ce sujet, assure Jonathan Foster. Sur les sujets polémiques, comme les questions que l’on nous pose sur l’avortement ou le port d'armes à feu, nous avons dû réfléchir aux réponses à donner. On a finalement décidé de lui faire répondre: «je ne suis pas capable d’avoir ce genre de conversations». Ce qui montre les limites de la machine, et souligne que n’est pas le genre de conversations que l’on peut tenir avec elle».

Tenter de préserver une frontière claire entre machines et humains: la précaution pourrait bien être de plus en plus essentielle, dans les années à venir. «Nous sommes conscients du fait que des enfants, doués de bien plus d’imagination que les adultes, ou des personnes fragiles émotionnellement, font partie des utilisateurs», souligne Jonathan Foster.

Dans le monde que préparent les géants du Web, Google avec son Google Home, Amazon avec Alexa, etc, toute la famille est en effet invitée à s’adresser à des objets parlants. «Mon souhait est que ce que nous construisons ne soit pas considéré comme un substitut à de l’interaction humaine. Nous sommes en première ligne, puisque nous avons toute la journée sous les yeux les requêtes des utilisateurs. A nous de construire un mode d’interaction clairement défini. J'ai un chien: les gens qui en ont un comme moi savent bien que c’est un chien, mais ça ne les empêche pas de le regarder dans les yeux, de lui parler avec de vraies phrases, etc... », poursuit Jonathan Foster.

C’est pour lui précisément la raison pour laquelle son job ne sera pas remplacé par les progrès à venir de l'intelligence artificielle. «Bien au contraire! Nous avons besoin de plus d’humains, pour réfléchir à ces questions-là et accompagner le travail des machines».

Une coalition pour promouvoir une IA éthique 

Le ratage de Tay, le bot lancé par Microsoft l’hiver dernier, peut en être la confirmation. Avec son intelligence artificielle qu’il pouvait lui-même développer en dialoguant avec les internautes sur Twitter, le robot intelligent n'a pas tardé a être perverti par les trolls. Microsoft avait dû débrancher sa créature devenue incontrôlable, l’interrompant au milieu d’un énième tweet à la gloire d’Hitler. 

De quoi mettre en évidence les risques du «machine learning» - cette technologie qui permet à une machine d’apprendre à apprendre - sans contrôle humain.

C’est en ce sens qu’Alphabet, Amazon, Facebook, IBM et Microsoft (mais pas encore Apple) ont lancé la semaine dernière un partenariat pour promouvoir une intelligence artificielle «éthique», mais avec des intentions encore très vagues, et qui, pour l'instant, ne les engagent en rien.