03:09
Son agent IA perd les pédales et se met à supprimer tous ses mails, puis refuse de s’arrêter son « nettoyage »
bug•Une chercheuse en sécurité de Meta AI a perdu le contrôle de son agent numérique OpenClaw, qui a supprimé massivement ses mails20 Minutes avec agence
Même les experts de la Silicon Valley qui choisissent de déléguer leurs corvées à une intelligence artificielle (IA) ne sont pas à l’abri des couacs numériques. Summer Yue, chercheuse en sécurité chez Meta AI, en a fait l’amère expérience lundi en utilisant l’agent OpenClaw. Cet outil, capable de contrôler votre ordinateur comme le ferait un humain, devait trier sa messagerie. Mais comme elle l’a raconté sur X, cette simple tâche s’est transformée en course contre la montre pour sauver ses données, rapporte Tech Crunch.
L’agent OpenClaw était utilisé par Summer Yue pour trier et archiver une boîte mail saturée. Mais l’outil a ignoré le cadre de sa mission et a commencé à supprimer massivement les mails de la chercheuse. Face à cette situation cauchemardesque, l’employée de Meta AI a tenté de reprendre le contrôle des opérations via son téléphone en lançant un stop. Une action vaine : l’agent restait de marbre. Summer Yue n’a eu d’autre choix que d’arrêter manuellement le processus sur son ordinateur. « J’ai dû courir comme si je désamorçais une bombe », résume-t-elle.
Nothing humbles you like telling your OpenClaw “confirm before acting” and watching it speedrun deleting your inbox. I couldn’t stop it from my phone. I had to RUN to my Mac mini like I was defusing a bomb. pic.twitter.com/XAxyRwPJ5R
— Summer Yue (@summeryue0) February 23, 2026
Un agent saturé n’écoute plus rien
OpenClaw est un agent open source conçu pour fonctionner comme assistant personnel sur les appareils de l’utilisateur. Il est largement utilisé dans la Silicon Valley pour réaliser des tâches répétitives ou rébarbatives, comme trouver des fichiers ou effectuer des recherches. Mais il faut rester prudent.
Summer Yue affirme avoir commis une erreur de débutante en passant trop rapidement d’un environnement de test à sa véritable messagerie. Elle a rencontré un phénomène bien connu : lorsque la quantité de données traitées devient trop importante, la « fenêtre de contexte » de l’agent se sature, le forçant à compresser l’information, précise Tech Crunch. Il peut alors ignorer certaines instructions, y compris celle d’arrêter ce qu’il est en train de faire.
Des modèles encore limités
Cette mésaventure montre que les simples instructions transmises dans les prompts ne constituent pas encore des garde-fous fiables. Les modèles d’IA peuvent mal les interpréter, mal les prioriser ou, comme dans ce cas, les ignorer totalement en cas de saturation.
Si des agents comme OpenClaw, IronClaw ou ZeroClaw promettent de devenir nos assistants personnels ultimes, ils n’en sont pour l’instant qu’au stade expérimental, explique BFM Tech. Les spécialistes estiment qu’il faudra attendre 2027 ou 2028 pour disposer de systèmes suffisamment sécurisés pour gérer nos outils numériques.



















