Passer au contenu principalPasser à l'en-têtePasser au pied de page
Son agent IA perd les pédales et se met à supprimer tous ses mails

Son agent IA perd les pédales et se met à supprimer tous ses mails, puis refuse de s’arrêter son « nettoyage »

bugUne chercheuse en sécurité de Meta AI a perdu le contrôle de son agent numérique OpenClaw, qui a supprimé massivement ses mails
20 Minutes avec agence

20 Minutes avec agence

Même les experts de la Silicon Valley qui choisissent de déléguer leurs corvées à une intelligence artificielle (IA) ne sont pas à l’abri des couacs numériques. Summer Yue, chercheuse en sécurité chez Meta AI, en a fait l’amère expérience lundi en utilisant l’agent OpenClaw. Cet outil, capable de contrôler votre ordinateur comme le ferait un humain, devait trier sa messagerie. Mais comme elle l’a raconté sur X, cette simple tâche s’est transformée en course contre la montre pour sauver ses données, rapporte Tech Crunch.

L’agent OpenClaw était utilisé par Summer Yue pour trier et archiver une boîte mail saturée. Mais l’outil a ignoré le cadre de sa mission et a commencé à supprimer massivement les mails de la chercheuse. Face à cette situation cauchemardesque, l’employée de Meta AI a tenté de reprendre le contrôle des opérations via son téléphone en lançant un stop. Une action vaine : l’agent restait de marbre. Summer Yue n’a eu d’autre choix que d’arrêter manuellement le processus sur son ordinateur. « J’ai dû courir comme si je désamorçais une bombe », résume-t-elle.

Un agent saturé n’écoute plus rien

OpenClaw est un agent open source conçu pour fonctionner comme assistant personnel sur les appareils de l’utilisateur. Il est largement utilisé dans la Silicon Valley pour réaliser des tâches répétitives ou rébarbatives, comme trouver des fichiers ou effectuer des recherches. Mais il faut rester prudent.

Summer Yue affirme avoir commis une erreur de débutante en passant trop rapidement d’un environnement de test à sa véritable messagerie. Elle a rencontré un phénomène bien connu : lorsque la quantité de données traitées devient trop importante, la « fenêtre de contexte » de l’agent se sature, le forçant à compresser l’information, précise Tech Crunch. Il peut alors ignorer certaines instructions, y compris celle d’arrêter ce qu’il est en train de faire.

Des modèles encore limités

Cette mésaventure montre que les simples instructions transmises dans les prompts ne constituent pas encore des garde-fous fiables. Les modèles d’IA peuvent mal les interpréter, mal les prioriser ou, comme dans ce cas, les ignorer totalement en cas de saturation.

Si des agents comme OpenClaw, IronClaw ou ZeroClaw promettent de devenir nos assistants personnels ultimes, ils n’en sont pour l’instant qu’au stade expérimental, explique BFM Tech. Les spécialistes estiment qu’il faudra attendre 2027 ou 2028 pour disposer de systèmes suffisamment sécurisés pour gérer nos outils numériques.