Passer au contenu principalPasser à l'en-têtePasser au pied de page
« Claude » montre la faible efficacité de la cybercriminalité assistée par IA

L’IA « Claude », accusée de cyberespionnage, révèle la faible efficacité du crime assisté par algorithme

IA comme un hicUn rapport d’Anthropic décrit comment son IA Claude a été exploitée dans une opération de cyberespionnage. Mais derrière le fantasme du criminel automatisé, les attaques menées avec ces méthodes semblent encore inefficaces
Quentin Meunier

Quentin Meunier

L'essentiel

  • Claude, modèle d’intelligence artificielle d’Anthropic, a été utilisé en septembre 2025 pour mener une cyberattaque, d’après un rapport de l’entreprise.
  • Selon Thibaut Henin, expert judiciaire, l’IA va permettre aux débutants d’accéder à l’orchestration d’attaques, mais d’une faible efficacité.
  • Ces révélations sur l’usage criminel de l’IA servent paradoxalement de publicité aux entreprises développeuses, leur permettant de vanter les capacités de leurs modèles.

Le criminel du futur s’appelle Claude. Pas de nom de famille, juste Claude. Parce que ce n’est pas une vraie personne, mais le modèle d’IA de l’entreprise Anthropic. Un rapport publié par la start-up elle-même fait état que le logiciel a été utilisé pour mener une opération de cyberespionnage. Claude a fourni aux pirates de quoi espionner leur cible.

Pour commettre leur méfait, en septembre, ce groupe, lié selon le rapport à l’Etat chinois, a utilisé les fonctions « agentiques » de Claude. En gros, au lieu de se contenter de donner une simple réponse textuelle, l’IA réalise elle-même certaines opérations, comme acheter un produit, répondre à un message ou, visiblement, lancer une cyberattaque. L’opération visait « une trentaine de cibles mondiales » et a même réussi dans « un petit nombre de cas », note le rapport.

L’IA va permettre de faire beaucoup d’attaques… pas très efficaces

Faut-il voir dans l’intelligence artificielle l’outil qui va révolutionner la criminalité ? « Tous ceux qui ne comprennent pas comment faire vont pouvoir demander à l’IA, présente Thibaut Henin, expert judiciaire à Montpellier spécialisé dans la cybersécurité. Cela va donner à des débutants l’accès à l’orchestration d’attaque. » Autre possibilité : des sites vont pouvoir cacher des prompts dans leurs pages. Même lorsqu’ils seront invisibles pour des humains, ces instructions pourront tromper le fonctionnement classique des IA qui naviguent sur Internet, afin de manipuler les algorithmes de recommandations. Ou d’exécuter des programmes malveillants dans les navigateurs Internet.

Avec quand même un énorme bémol. La plupart de ces attaques promettent d’être… plutôt inefficaces. « L’IA va dérouler des schémas souvent rencontrés. Mais, du coup, les attaques vont avoir un taux de réussite très faible : elles sont basiques, facilement détectables et, normalement, les systèmes sont déjà protégés », note Thibaut Henin. Au début du mois, Google avait identifié cinq logiciels malveillants produits par des IA, et jugé leurs résultats décevants (ou rassurants, selon le côté où l’on se place).

Malgré les progrès vantés un peu partout, les LLM (« grands modèles de langage », les IA avec lesquels les internautes interagissent par écrit) sont encore loin d’être infaillibles. « Dès que l’on rentre dans des questions pointues, l’IA se trompe une fois sur deux, reprend l’expert. Ce n’est pas grave si un mail de phishing est mal écrit, mais une cyberattaque, soit elle marche soit elle ne marche pas, tous les éléments doivent fonctionner. »

Quant à imaginer des cambriolages élaboré façon Ocean’s Eleven pensé par une IA, ce n’est même pas la peine d’y penser. « Pour les crimes physiques, il faudra toujours quelqu’un derrière, affirme Thibaut Henin. Par ailleurs, les cambriolages sont souvent opportunistes. On peut imaginer des algorithmes de repérage, mais la plupart des cambrioleurs ne sont pas aussi organisés. »

Bad buzz is still buzz

Côté défenseur non plus, l’usage de l’IA n’est pas franchement recommandé. « Utiliser un LLM pour sa sécurité ouvre la porte à plein d’attaques possibles, note Thibaut Henin. Les IA ont un taux d’échec important donc il y a un danger si on lui laisse prendre des décisions, qui peuvent par exemple conduire au blocage total ou à la suppression de données. En gros, vous leur donnez un fusil, mais comme elles ne savent pas par où le prendre elles se tirent une balle dans la tête. » A la limite, des modèles dits « de surveillance statistique », qui détectent l’activité inhabituelle sur les réseaux, ont fait leur preuve. L’Agence nationale de la sécurité des systèmes d’information (ANSSI) souligne que l’IA ne peut pas être responsable d’une décision, mais peut formuler des propositions.

Méfiance donc, sur les faits divers qui font passer les IA pour les criminels du futur. D’autant que, contrairement à ce que l’on pourrait croire, ce genre d’affaires n’embarrasse pas du tout les développeurs. « Il y a une bulle sur l’IA, donc beaucoup de communication dessus. Les entreprises font leur pub sur la cybercriminalité. » Les grandes sociétés ont intérêt à faire passer leurs modèles comme très intelligent ou rationnel, même quand il s’agit de piratage. On n’avait pas vu un criminel avec une aussi bonne publicité depuis Arsène Lupin.