16 Novembre 2025
« Les obstacles à la réalisation de cyberattaques sophistiquées ont considérablement diminué – et nous prévoyons qu’ils continueront de le faire », a déclaré la société d’IA Anthropic.

Le sénateur Chris Murphy s'exprime lors du rassemblement pour dire NON aux allègements fiscaux pour les milliardaires et les entreprises au Capitole des États-Unis le 10 avril 2025 à Washington, DC. (Photo de Jemal Countess/Getty Images pour Fair Share America)
Par Brad Reed
Traduction MCT
Un sénateur démocrate a tiré la sonnette d’alarme jeudi sur les dangers d’une intelligence artificielle non réglementée après que la société d’IA Anthropic a révélé avoir déjoué ce qu’elle a décrit comme « le premier cas documenté de cyberattaque à grande échelle exécutée sans intervention humaine substantielle ».
Selon Anthropic, il est très probable que l’attaque ait été menée par un groupe parrainé par l’État chinois et qu’elle ait ciblé « de grandes entreprises technologiques, des institutions financières, des entreprises de fabrication de produits chimiques et des agences gouvernementales ».
Après une longue explication technique décrivant comment l'attaque s'est produite et comment elle a finalement été déjouée, Anthropic a ensuite discuté des implications en matière de sécurité pour l'IA qui peut exécuter des cyberattaques massives avec un minimum de directives de la part des humains.
« Les obstacles à la réalisation de cyberattaques sophistiquées ont considérablement diminué – et nous prévoyons qu’ils continueront à le faire », a déclaré la société. « Avec une configuration appropriée, les acteurs malveillants peuvent désormais utiliser des systèmes d’IA agentique pendant de longues périodes pour effectuer le travail d’équipes entières de pirates informatiques expérimentés. »
Anthropic a poursuivi en affirmant que les pirates informatiques pouvaient désormais utiliser l'IA pour effectuer des tâches telles que « l'analyse des systèmes cibles, la production de codes d'exploitation et l'analyse de vastes ensembles de données d'informations volées plus efficacement que n'importe quel opérateur humain », ce qui pourrait ouvrir la porte à « des groupes moins expérimentés et moins dotés en ressources » pour mener certaines des opérations d'attaque les plus sophistiquées.
L’entreprise a conclu en avertissant que « les techniques décrites ci-dessus seront sans aucun doute utilisées par beaucoup plus d’attaquants, ce qui rend le partage des menaces dans l’industrie, l’amélioration des méthodes de détection et le renforcement des contrôles de sécurité d’autant plus critiques ».
Cette stratégie de cybersécurité n’était pas suffisante pour le sénateur Chris Murphy (Démocrate du Connecticut), qui a déclaré qu’une intervention gouvernementale serait nécessaire pour atténuer les dommages potentiels causés par l’IA.
« Les gars, réveillez-vous », a-t-il écrit dans un message sur les réseaux sociaux. « Cela va nous détruire – plus tôt que nous ne le pensons – si nous ne faisons pas de la réglementation de l’IA une priorité nationale demain. »
Le sénateur démocrate de l'État de Californie, Scott Wiener, a noté que de nombreuses grandes entreprises technologiques ont continuellement lutté contre la surveillance gouvernementale de l'IA malgré les menaces qui se renforcent de jour en jour.
"Pendant deux ans, nous avons fait progresser la législation pour obliger les grands laboratoires d'IA à évaluer leurs modèles en termes de risque catastrophique ou au moins à divulguer leurs pratiques de sécurité", a-t-il expliqué. "Nous y sommes parvenus, mais l'industrie (et non Anthropic) continue de faire pression pour que le gouvernement fédéral interdise les règles nationales en matière d'IA, sans aucun substitut fédéral."
Certains chercheurs qui ont parlé avec Ars Technica ont cependant exprimé leur scepticisme quant au fait que le piratage basé sur l'IA était vraiment aussi sophistiqué qu'Anthropic l'avait prétendu, simplement parce qu'ils pensent que la technologie actuelle de l'IA n'est pas encore assez performante pour exécuter ce calibre d'opération.
Dan Tentler, fondateur exécutif du groupe Phobos, a déclaré à la publication que l'efficacité avec laquelle les pirates informatiques auraient amené l'IA à exécuter leurs commandes était très différente de celle qu'il a expérimentée en utilisant la technologie.
"Je continue de refuser de croire que les attaquants soient capables d'une manière ou d'une autre de faire franchir à ces modèles des obstacles que personne d'autre ne peut faire", a-t-il déclaré. "Pourquoi les modèles donnent-ils à ces attaquants ce qu'ils veulent 90 % du temps alors que le reste d'entre nous doit faire face à des baisers de cul, à des blocages et à des trips à l'acide ?"