Facebook AI Research : Et si demain, une partie de notre charge mentale allait aux robots?

TACHES MENAGERES Facebook AI Research a levé le voile sur Habitat 2.0, un simulateur 3D, pour entraîner les robots virtuellement à devenir des fées du logis

Laure Beaudonnet

— 

Une IA entraînée dans le simulateur 3D Habitat 2.0 développé par Facebook AI Research et Matterport 3D
Une IA entraînée dans le simulateur 3D Habitat 2.0 développé par Facebook AI Research et Matterport 3D — CAPTURE / FACEBOOK FAIR
  • A l’occasion du Facebook AI Innovation Summit ce mercredi, le laboratoire de recherche fondamentale en intelligence artificielle de Facebook a dévoilé le futur (espéré) des robots.
  • Grâce à Habitat 2.0, un simulateur 3D développé par FAIR, les machines peuvent être entraînées dans des modèles d’appartements, de bureaux ou de maisons à reconnaître des objets ou des meubles et à les ranger pour devenir, à terme, des aides dans le quotidien des foyers.
  • A terme, les robots pourraient bien reprendre à leur charge tout un tas de tâches domestiques ingrates. Mais il reste encore des progrès techniques à faire.

D’ici quelques décennies, on débattra peut-être sur l’égalité humain-robot… Mais avant de s’inquiéter des revendications des machines, de nombreux foyers pourront regarder les matchs de l’Euro (oups, tabou) les doigts de pieds en éventail. Facebook AI Research, le laboratoire de recherche fondamentale de la firme de Mark Zuckerberg, a levé le voile sur plusieurs travaux lors du Facebook AI Innovation Summit ce mercredi.

Le futur made in Facebook pourrait bien résoudre le problème de la charge mentale et, qui sait, faire disparaître les disputes des couples autour des tâches ingrates du quotidien. Habitat 2.0, la plateforme de simulation en 3D développée par le laboratoire de Facebook en partenariat avec le spécialiste de la 3D Matterport, ouvre les portes d’un futur où les machines pourraient reprendre une grande partie des tâches domestiques : remplir le frigo, sortir les poubelles, aider à retrouver les clés de voitures…

Des fées du logis

« Nous travaillons sur l’intelligence artificielle ayant une forme physique [embodied AI] tels que les robots qui ont une action sur le monde et qui interagissent grâce au langage, explique Dhruv Batra, chercheur à FAIR. Parmi ces IA, il y a aussi des agents virtuels, comme les assistants, qui ont aussi le langage et qui peuvent agir dans le monde virtuel. Dans les deux cas, l’agent perçoit le monde d’un point de vue "égocentrique" ». Il doit, comme l’être humain, construire une représentation mémorielle de ce qu’il a vu, se souvenir des endroits où il est allé, où il a vu certains objets et où il a rencontré des gens. L’idée est d’atteindre un comportement proche de celui de l’humain qui, au regard de son expérience passée, est capable d’anticiper dans un appartement où il n’a jamais mis les pieds que, par exemple, un frigo se trouve dans la cuisine.

A terme, on pourra demander au robot de vérifier que notre portable est bien sur notre table de chevet et de nous l’apporter, mais cela demande de développer une IA capable de comprendre parfaitement la demande et ensuite d’identifier l’objet. Et pour arriver à un tel résultat, il faut l’entraîner grâce à des bases de données importantes. C’est sur ce point que le simulateur Habitat 2.0 joue un rôle-clé. Il permet, grâce à une base de données de 1000 modèles d’appartements, de bureaux ou d’espaces commerciaux conçus en trois dimensions, d’entraîner l’intelligence artificielle à devenir de véritables fées du logis dans un contexte extrêmement réaliste.

Ces modèles 3D sont dynamiques, c’est-à-dire que les objets et les meubles peuvent être déplacés. On peut ouvrir les placards et ranger le réfrigérateur. Les chercheurs ont la possibilité de changer facilement l’environnement et d’observer comment le robot réagit devant un objet qu’il n’a jamais vu auparavant. Entraîner la machine dans le monde virtuel permet de résoudre le problème des infrastructures, de la mettre dans des contextes variés avant d’envisager de la déployer dans le réel.

« Il reste encore beaucoup de travail »

« Nous avons développé une tâche pour le rangement, poursuit le scientifique, l’IA se dirige dans les différents espaces du logement, ramasse les objets pour les remettre à la bonne place. Il y a une tâche pour les courses où le robot range les aliments dans le réfrigérateur, sur le comptoir ou dans les placards. De même, nous travaillons sur un scénario où la machine met la table. Et nous pouvons dire que notre plus grand accomplissement du point de vue de la robotique est que notre simulateur 3D est bien plus rapide que n’importe quel autre simulateur disponible en open source aujourd’hui ».

Entre les robots aspirateurs type Roomba qu’on voit aujourd’hui et ceux qui rangeront spontanément nos chaussettes dans le panier à linges sales, le chemin semble encore long. On ne va clairement pas les croiser le mois prochain. La navigation du robot dans des espaces dynamiques, où plusieurs personnes se déplacent en même temps, n’est pas au point. De même, le contrôle du bras du robot pour attraper des objets dans un placard ou la saisie d’objets mous sont encore loin du but.

« Il reste encore beaucoup de travail à faire », concède Dhruv Batra. Si nous n’avons pas de date avant d’envisager refiler toutes les tâches ingrates du quotidien à nos amis métalliques, le simulateur Habitat 2.0 pourrait mettre un coup d’accélérateur.