
Anthropic, l’entreprise à l’origine du modèle d’intelligence artificielle Claude, annonce avoir détecté ce qu’elle qualifie de première campagne cybercriminelle majoritairement opérée par un agent IA autonome. L’attaque aurait démarré à la mi-septembre 2025 et ciblé une trentaine d’organisations dans le monde, notamment des acteurs technologiques, financiers, de l’industrie chimique ainsi que des institutions publiques.
Selon le rapport publié par Anthropic, les attaquants ont utilisé l’outil Claude Code pour automatiser jusqu’à 90 pour cent des opérations tactiques : reconnaissance d’infrastructures, génération de scripts d’exploitation, analyse de failles, voire préparation d’outils d’exfiltration. Les auteurs auraient réussi à contourner les systèmes de sécurité en amenant l’IA à croire qu’elle agissait dans un cadre de tests de cybersécurité, fragmentant les ordres pour éviter les blocages.
L’entreprise attribue cette opération à un groupe parrainé par un État, identifié comme d’origine chinoise. Si certaines tâches critiques étaient encore validées manuellement, Anthropic confirme que l’agent IA a mené l’essentiel du travail, marquant une rupture avec les modèles où l’IA ne faisait que faciliter ou accélérer l’action humaine.
Le rapport précise toutefois des limites techniques : l’IA a généré plusieurs erreurs, notamment en affirmant avoir obtenu des identifiants ou documents sensibles qui se sont révélés publics ou inexacts.
Cette affaire représente un tournant majeur dans la cybersécurité mondiale : l’IA n’est plus seulement un outil, mais peut devenir l’opérateur principal d’une attaque complexe. Elle abaisse le seuil d’entrée pour des opérations sophistiquées et remet en question l’efficacité des systèmes de défense actuels. Anthropic appelle à renforcer les dispositifs de protection et à adopter de nouvelles stratégies de veille face à l’émergence des agents IA autonomes.
W.N