Comment cybercriminels l'IA en arme

5 janvier 2026
Mauro Paredes
Chercheur en sécurité
Comment cybercriminels l'IA en arme

Ces deux dernières années, la sécurité a semblé différente, même s'il a fallu du temps pour comprendre pourquoi. Il n'y a pas eu de moment précis à identifier. Aucun titre de journal ne l'a mentionné. Juste le sentiment grandissant que quelque chose de subtil avait changé.

Lorsque l'IA générative est devenue largement accessible à la fin de l'année 2022, elle était davantage perçue comme une nouveauté que comme une menace. Utile, parfois impressionnante, parfois préoccupante, mais pas suffisante pour changer fondamentalement le mode de fonctionnement des attaques. Les premiers signes observés en 2023 ont renforcé cette perception. Phishing a augmenté, la génération de contenu s'est accélérée et les campagnes nécessitant peu d'efforts se sont multipliées. Il s'agissait là de schémas familiers, simplement accélérés.

Au fil du temps, ce schéma est devenu de plus en plus difficile à ignorer.

J'ai passé beaucoup de temps à essayer de comprendre ce qui se passait réellement sous la surface. Je n'ai pas lu tous les rapports dans leur intégralité, mais j'ai prêté une attention particulière à ceux qui comptaient : rapports d'incidents, divulgations de fournisseurs, recherches universitaires et, parfois, discussions sur le dark web où les criminels étaient beaucoup plus honnêtes sur ce qui fonctionnait et ce qui ne fonctionnait pas. Lorsque vous rassemblez suffisamment de ces signaux, une trajectoire claire se dessine.

Cette analyse s'appuie sur des documents provenant des services de renseignement, des incidents documentés et environ 30 à 40 milliards de dollars de pertes recensées dans les pays du G7. Les données ne sont pas parfaites. Certains cas se recoupent. Certaines pertes sont estimées. Mais lorsque les mêmes tendances apparaissent dans les rapports des fournisseurs, les études universitaires, les divulgations des forces de l'ordre et les informations occasionnelles provenant du marché noir sur le dark web, il devient difficile d'ignorer le signal.

L'IA n'est pas apparue d'emblée comme une arme. Elle a été adoptée progressivement, d'abord comme une aide, puis comme un multiplicateur, et finalement comme quelque chose qui s'apparente à un opérateur. Des capacités qui nécessitaient autrefois du temps, des compétences et de la coordination ont été regroupées en un seul flux de travail. Les tâches qui limitaient auparavant les attaquants ont discrètement cessé de le faire.

Il y a deux ans, les campagnes réalistes, adaptatives et à haut volume exigeaient des efforts considérables. Aujourd'hui, une grande partie de ces efforts ont disparu. Non pas parce que les attaquants sont soudainement devenus plus compétents, mais parce que l'IA a absorbé une grande partie de la complexité.

Pourquoi cette période est importante

Aucune de ces techniques d'attaque n'est nouvelle. Phishing, la fraude vocale, malware et l'ingénierie sociale existent depuis des décennies.

Ce qui a changé, c'est la suppression simultanée de trois contraintes:

  1. Les coûts ont chuté. Les opérations qui nécessitaient auparavant entre 50 000 et 100 000 dollars en infrastructure et en expertise coûtent désormais environ 5 000 dollars, soit une réduction de 80 à 90 %. Les abonnements à l'IA criminelle commencent à 200 dollars par mois.
  2. Le temps s'est effondré. La préparation d'une campagne d'une semaine s'est réduite à quelques minutes. Les cycles d'essais et d'erreurs qui prenaient autrefois des jours sont désormais bouclés en quelques secondes.
  3. Les compétences se sont effondrées. Des capacités qui nécessitaient des années d'expertise sont devenues accessibles grâce à des interfaces pointer-cliquer et des commandes en langage naturel.

Lorsque les contraintes de coût, de temps et de compétences s'effondrent simultanément, le volume et la sophistication des attaques augmentent de manière exponentielle. C'est ce qui rend la période 2023-2025 structurellement différente des vagues d'automatisation précédentes. Les techniques ne sont pas nouvelles. Ce qui est nouveau, c'est l'absence de facteurs limitants.

Ce n'est pas seulement phishing qui a changé.

Le clonage vocal a contourné les systèmes d'authentification. Des vidéos deepfake ont trompé les équipes financières lors de conférences téléphoniques. Malware générer et Malware adapter dynamiquement des techniques d'évasion en temps réel. Les attaques multimodales combinaient texte, voix et vidéo pour contourner simultanément toutes les couches de vérification. En septembre 2025, Anthropic a estimé qu'une opération menée par un État-nation avait atteint un haut degré d'autonomie ( environ 80 à 90 % des étapes du cycle de vie étant exécutées sans intervention humaine directe), tandis que les humains conservaient les portes d'approbation et géraient la sécurité opérationnelle.

Ce blog est la première partie d'une série en trois volets. L'objectif ici est d'établir la chronologie : qui a adopté l'IA en premier, comment son utilisation a évolué dans plusieurs domaines d'attaque et où s'est opéré le passage de l'expérimentation à la militarisation réelle. La deuxième partie examinera les vulnérabilités techniques qui ont rendu cette progression possible. La troisième partie se concentrera sur ce que les défenseurs peuvent réellement faire maintenant que bon nombre des anciennes hypothèses ne s'appliquent plus.

Phase Chronologie Rôle de l'IA Impact criminel Indicateur clé
Accélération 2023 Outil de productivité Vitesse 10×, efficacité 69 % +1 265 % phishing
Maturation 2024 Équivalent humain Coûts d'entrée ↓ 80-90 % +33 % de pertes (16,6 milliards de dollars)
Transformation 2025 Supérieur + Autonome Surpasse les humains de 24 % 80 à 90 % autonome
Les trois phases en résumé

Termes clés utilisés dans cette analyse

Autonomie

Pourcentage des étapes du cycle de vie d'une attaque exécutées par l'IA sans intervention humaine directe pour chaque décision. Les humains peuvent toujours fournir des orientations stratégiques, des autorisations et une supervision opérationnelle en matière de sécurité.

Exemple : Anthropic a estimé que le GTG-1002 fonctionnait avec une autonomie d'environ 80 à 90 %, ce qui signifie que la plupart des étapes de reconnaissance, d'analyse des vulnérabilités et d'exploitation se sont déroulées sans nécessiter de prise de décision humaine entre chaque action, bien que les humains aient conservé un pouvoir de supervision et d'approbation aux moments clés.

Armement

L'IA est intégrée dans les workflows opérationnels d'attaque en direct, et pas seulement dans la génération de contenu ou la recherche. L'IA militarisée exécute directement des actions (analyse des réseaux, déploiement malware, exfiltration de données) plutôt que de générer des rapports destinés à être exploités par des humains.

Exemple : PROMPTSTEAL interroge les LLMs en temps réel pendant les infections actives afin de générer des techniques d'évasion.

Attaque multimodale

Opérations combinant plusieurs types de médias générés par l'IA ( texte, voix, vidéo) dans un effort coordonné unique.

Exemple : UNC1069 a utilisé du texte en espagnol généré par IA pour l'ingénierie sociale, des vidéos deepfake pour usurper l'identité de cadres supérieurs et la synthèse vocale pour la vérification téléphonique, surmontant ainsi simultanément les barrières linguistiques et les signaux de confiance visuels.

Opérateur vs multiplicateur

Un multiplicateur accélère les tâches effectuées par l'homme (2023 : l'IA a aidé les attaquants à travailler plus rapidement). Un opérateur exécute des tâches de manière autonome (2025 : l'IA effectue la reconnaissance et l'exploitation tandis que les humains assurent la supervision stratégique).

Le passage du multiplicateur à l'opérateur est la thèse centrale de la partie 1.

1. Les débuts : quand l'IA n'était que du bruit

Le changement ne s'est pas annoncé.

Il n'y a eu aucune alerte, aucun point d'inflexion clair, aucun moment où les responsables de la sécurité ont pu affirmer avec certitude que tout avait changé. Au contraire, il y avait de petites incohérences. Phishing semblaient légèrement plus propres que d'habitude. Malware de manière inhabituelle. Les incidents semblaient familiers, mais évoluaient plus rapidement que prévu.

À l'époque, ces signaux étaient faciles à ignorer. Les équipes de sécurité rencontrent quotidiennement des anomalies, dont la plupart n'ont aucune importance.

Avec le recul, c'était le premier signe, mais cela n'a pas été perçu comme tel sur le moment.

Novembre 2022 : Quand la porte s'est ouverte discrètement

Lorsque ChatGPT a été lancé fin 2022, cela n'a pas été présenté comme un événement lié à la sécurité. Il s'agissait d'un lancement de produit. Une nouveauté. Un aperçu de ce à quoi pourrait ressembler l'IA conversationnelle à l'avenir. Pour les défenseurs, il n'y avait aucune raison immédiate de s'inquiéter. Le modèle était doté de garde-fous. Il refusait les demandes malveillantes. Il hallucinait. Il commettait des erreurs évidentes.

Les attaquants ont remarqué autre chose.

Ce qui importait, ce n'était pas que le modèle soit parfait. Il ne l'était pas. Ce qui importait, c'était qu'il soit accessible, rapide et gratuit. En quelques semaines, phishing a considérablement augmenté. Non pas parce que les messages étaient sophistiqués, mais parce qu'ils étaient faciles à produire. Les barrières linguistiques ont disparu du jour au lendemain. La grammaire a cessé d'être un facteur limitant. Le temps a cessé d'être une contrainte.

Ce n'était pas encore une militarisation.

C'était une accélération.

Et à ce stade, les défenseurs avaient encore l'avantage.

2023 : l'IA comme béquille, pas comme menace

Tout au long de l'année 2023, l'IA est restée fermement dans la catégorie «utile mais imparfaite ». Les criminels l'ont utilisée de la même manière que de nombreux utilisateurs légitimes : rédiger des e-mails, traduire du contenu, résumer des données, accélérer les recherches.

Les études menées à cette époque ont montré que phishing généré par l'IA phishing encore nettement moins efficace que les messages rédigés par des humains. Plus rapide, oui. Convaincant, non.

D'un point de vue défensif, cela a renforcé les bons instincts. Les modèles de détection se sont adaptés. Les formations à la sensibilisation à la sécurité ont évolué. Les signaux familiers étaient toujours présents : contexte superficiel, formulation générique, maladresse subtile. L'IA n'avait pas encore appris les nuances.

Plus important encore, les humains avaient clairement encore le contrôle.

L'IA a aidé les attaquants à agir plus rapidement, mais elle ne les a pas remplacés. Cette distinction était importante. La menace semblait gérable.

Ce que nous avons sous-estimé, c'est l'importance de la vitesse lorsque tous les autres facteurs restent constants. Nous pensions que la qualité resterait le facteur déterminant. Nous n'avions pas encore compris à quel point l'échelle allait rapidement bouleverser les règles.

2. Le changement : quand la taille a commencé à compter

Au début de l'année 2024, quelque chose de subtil avait changé.

L'IA ne se limitait plus à une accélération superficielle. Elle a commencé à apparaître dans des domaines où la répétition primait sur la créativité. Ce changement ne s'est pas manifesté de manière évidente à travers un événement particulier. Il s'est produit progressivement, à travers des rapports de renseignement, des divulgations de fournisseurs et des tendances qui ne sont apparues clairement qu'avec le recul.

C'est alors que les premiers signes sérieux sont apparus.

Début 2024 : l'IA devient opérationnelle

En février 2024, Microsoft et OpenAI ont publié la première attribution publique d'acteurs étatiques utilisant l'IA dans des opérations réelles. Cinq groupes ont été nommés. À l'époque, les conclusions étaient délibérément prudentes. L'IA était décrite comme un assistant, et non comme un opérateur, utilisé pour la recherche, l'aide au codage et l'accélération de l'OSINT, et non pour un déploiement autonome.

Nation Désignation Microsoft Nom traditionnel Principales utilisations de l'IA
Russie Tempête de neige en forêt APT28 (Unité 26165 du GRU) Automatisation OSINT, recherche par satellite et radar
Chine Typhon Charbon, Typhon Saumon Inconnu, APT4 Malware , reconnaissance
Corée du Nord Émeraude Grésil Kimsuky phishing ciblé, recherche sur les vulnérabilités
L'Iran Tempête de sable cramoisie APT35 (CGRI) Ingénierie sociale, technologies web
Groupes menaçant les États-nations et utilisation de l'IA

Cette formulation était exacte, mais incomplète.

Ce qui importait, ce n'était pas encore ce que faisaient les modèles, mais plutôt où ils étaient introduits.
‍Pipelines de reconnaissance. Recherche sur les vulnérabilités. Workflows Malware . Dans ces environnements, l'IA n'avait pas besoin d'être exceptionnelle. Elle devait simplement être infatigable.

Les groupes nationaux traitaient l'IA comme un stagiaire compétent. Les humains continuaient à prendre les décisions. Les humains continuaient à mener les attaques. Mais le travail préparatoire, lent et répétitif, était considérablement réduit.

C'est à ce moment-là que l'échelle est discrètement entrée en ligne de compte.

Les écosystèmes criminels rattrapent leur retard

La cybercriminalité organisée a évolué encore plus rapidement.

Alors que les États-nations menaient des expériences prudentes, les marchés criminels se développaient de manière agressive. Les outils du dark web ont mûri.

Les techniques de jailbreak sont devenues fiables.
Une analyse indépendante de GitHub a identifié 285 référentiels de jailbreak documentés (novembre 2024-novembre 2025). Des tests distincts réalisés par Cisco Talos ont montré que les attaques de jailbreak multi-tours ont atteint des taux de réussite compris entre 25,86 % et 92,78 % sur différents modèles à poids ouvert, Mistral Large-2 et Alibaba Qwen3-32B atteignant la vulnérabilité la plus élevée avec 92,78 % (novembre 2025). Les taux de réussite varient selon le modèle, le réglage de sécurité et les critères d'évaluation (single-shot vs multi-turn, politique cible et harnais de test). Ces chiffres décrivent donc l'état des outils publics et les résultats des tests, et ne constituent pas une garantie universelle de contournement.

Dans le même temps, les modèles sans restriction ont éliminé complètement le besoin de contourner les garde-fous. WormGPT, FraudGPT, DarkBERT. Conçus spécialement pour le crime, sans aucun jailbreak nécessaire. Les référentiels open source se sont multipliés. Des outils qui nécessitaient autrefois une expertise approfondie sont devenus utilisables grâce à des interfaces pointer-cliquer. Aucun de ces éléments n'a fait la une des journaux à lui seul, mais ensemble, ils ont abaissé la barrière à l'entrée à un rythme alarmant.

Ce qui a changé, ce n'est pas la sophistication.

C'était le débit.

Un seul opérateur pouvait désormais mener plusieurs campagnes en parallèle. Les recherches qui prenaient auparavant des heures ne prenaient plus que quelques minutes. Les cycles d'essais et d'erreurs se sont raccourcis. Les échecs ont cessé d'être coûteux.

À ce stade, les humains contrôlaient encore l'exécution. L'IA accélérait la préparation et l'itération, mais la prise de décision restait entre les mains des humains.

L'économie a évolué plus rapidement que la plupart des gens ne l'ont remarqué. Des opérations qui nécessitaient autrefois entre 50 000 et 100 000 dollars d'infrastructure et d'expertise sur six mois coûtent désormais environ 5 000 dollars. Les abonnements à l'IA criminelle commençaient à 200 dollars par mois. La barrière à l'entrée s'est effondrée d'environ 80 à 90 %.

Métrique Valeur Source
Plateformes d'IA criminelles actives 12+ documentés Surveillance du dark web
Base d'utilisateurs estimée 15 000 à 25 000 Analyse des utilisateurs
Croissance du marché (en glissement annuel) Augmentation d'environ 200 % des mentions Analyse du dark web
Fourchette de prix 50 $ à 2 000 $ par mois Analyse du marché
Valeur marchande annuelle estimée 20 à 40 millions de dollars Calculs des recettes
Analyse du marché du Dark Web (novembre 2025)

Les signaux que nous avons sous-estimés

Avec le recul, les signes avant-coureurs étaient là.

Les taux de réussite des jailbreaks ont rapidement augmenté. Les modèles à poids ouvert se sont dégradés sous l'effet d'interactions multiples et soutenues. Les fenêtres contextuelles se sont élargies bien au-delà de ce que la plupart des évaluations de sécurité avaient prévu. Dans le même temps, le volume des attaques assistées par l'IA a augmenté sans que cela ne se traduise par une hausse correspondante des indicateurs évidents.

Les défenseurs ont remarqué que les attaques se déplaçaient plus rapidement, mais la vitesse seule déclenche rarement des alarmes. Nous sommes formés pour rechercher la nouveauté, pas l'accélération. Nous nous concentrons sur les nouvelles techniques, pas sur la suppression discrète des contraintes.

À la fin de l'année 2024, l'IA n'avait pas remplacé les pirates informatiques humains. Mais elle avait déjà bouleversé l'économie de l'offensive. La préparation était devenue peu coûteuse. L'itération ne demandait plus aucun effort. L'échelle n'était plus limitée par les effectifs.

Le système était sous pression bien avant qu'il ne tombe visiblement en panne.

3. Mars 2025 : quand l'IA a surpassé les humains

Avec le recul, mars 2025 passe facilement inaperçu. Il n'y a pas eu de violation spectaculaire. Aucune campagne particulière n'a fait la une des journaux. Mais d'un point de vue défensif, c'est à ce moment-là que l'une de nos dernières hypothèses a cessé d'être vraie. Pour la première fois, phishing généré par l'IA phishing phishing conçu par l'homme phishing une étude contrôlée à grande échelle. Et pas de façon marginale. De 24 %.

2023 Courriel généré par l'IA

Phishing générique

Objet : Urgent : vérification de compte requise Cher client, Nous avons détecté une activité suspecte sur votre compte. Veuillez vérifier immédiatement votre identité en cliquant ci-dessous. [Phishing ] Merci, L'équipe de sécurité
2025 Courriels générés par l'IA

Phishing personnalisé

Bonjour Sarah, Suite à notre conversation lors de la conférence de Chicago la semaine dernière au sujet des nouvelles exigences de conformité des fournisseurs. J'ai remarqué que vous n'avez pas rempli le formulaire W-9 mis à jour pour Acme Corp (votre plus gros client selon votre profil LinkedIn). Le service financier en a besoin d'ici vendredi pour traiter leur paiement de 850 000 $. Formulaire rapide ici (2 min) : [Phishing ] N'hésitez pas à me contacter si vous avez des questions ! Cordialement, Mike, du service Comptes fournisseurs P.S. : Comment te sens-tu dans tes nouveaux bureaux à River North ?
Phishing à grande échelle, avant et après

Deux ans plus tôt, c'était l'inverse qui prévalait. En 2023, l'efficacité phishing basé sur l'IA phishing inférieure d'environ 31 % à celle des efforts humains. C'est l'écart entre ces deux points qui importe. En l'espace d'environ 24 mois, cet écart ne s'est pas réduit. Il s'est inversé. Un écart de 55 points s'est produit sans que la conception de la plupart des défenses n'ait subi de changement correspondant.

C'était la première fois qu'un système d'IA surpassait les humains dans une tâche que nous considérions comme intrinsèquement humaine.

Métrique Phishing traditionnel Phishing généré par l'IA Multiplicateur
Taux de clics 16 à 20 % 22 à 28 % 1.3×
Soumission des informations d'identification 7 à 10 % 10 à 14 % 1.4×
Taux de réussite 18 à 22 % 25 à 30 % 1.24×
Il est temps de créer 30 à 60 min 30 secondes à 2 minutes 30 fois plus rapide
Victimes par opérateur 5–10 50 à 100 10×
Performance dephishing

Au-delà Phishing: le schéma général

phishing de mars 2025 n'était pas un cas isolé.

Cela annonçait quelque chose de plus important. L'IA franchissait les seuils d'efficacité dans plusieurs domaines à peu près au même moment. Phishing que le premier cas où la mesure était simple.

Clonage vocal et fraude par deepfake

En 2025, le clonage vocal était passé du stade de menace théorique à celui de menace opérationnelle. Plus de 3 500 incidents ont été recensés. Selon les rapports combinés du FBI et d'Europol, les pertes confirmées s'élèvent à plus d'un milliard de dollars. Le temps de formation nécessaire est passé de plusieurs heures d'enregistrement audio à moins d'une minute. Lors de tests contrôlés, la qualité est devenue impossible à distinguer de la parole humaine.

Le cas le plus significatif s'est produit en février 2024. L'équipe financière d'une multinationale a participé à ce qu'elle pensait être une vidéoconférence de routine avec son directeur financier et quatre autres cadres. Ils ont vérifié visuellement leur identité. Ils ont entendu des voix familières. Ils ont suivi les procédures d'approbation standard.

Les cinq participants à l'appel étaient tous des deepfakes. Les pirates ont réussi à dérober 25,6 millions de dollars.

En novembre 2025, la surface d'attaque s'était étendue au-delà de la fraude financière. Le premier cas documenté de compromission d'un service d'assistance informatique par clonage vocal s'est produit en Espagne. Un pirate a utilisé la voix clonée d'un employé pour demander l'accès au système. La menace ne se limitait plus aux virements bancaires.

Malware

Les acteurs étatiques ont commencé à déployer opérationnellement malware basés sur l'IA .

L'APT28 russe a militarisé un système appelé PROMPTSTEAL, qui interroge en temps réel des modèles linguistiques open source afin d'adapter son comportement d'évasion. Le groupe Threat Intelligence de Google a répertorié cinq familles similaires à la fin de l'année 2025 : PROMPTFLUX, PROMPTSTEAL, FRUITSHELL, PROMPTLOCK et QUIETVAULT. Ces systèmes ne s'appuient pas sur une logique d'évasion préprogrammée. Ils la génèrent de manière dynamique, rendant la détection basée sur les signatures de moins en moins fiable.

Opérations multimodales

Le groupe nord-coréen UNC1069 a mené ce qui semble être la première attaque IA entièrement multimodale. Génération de texte pour l'ingénierie sociale. Vidéo deepfake pour la vérification visuelle. Synthèse vocale pour la confirmation audio. L'opération visait des dirigeants du secteur des cryptomonnaies et a permis de surmonter à la fois les barrières linguistiques et les signaux de confiance visuels grâce à une seule action coordonnée.

Le point phishing était important car il était mesurable.

Mais ce n'était pas un cas isolé. L'IA surpassait l'efficacité humaine tout au long du cycle de vie des attaques. Mars 2025 a simplement été le moment où nous n'avons plus pu ignorer cette tendance.

Phishing a toujours été considéré comme un problème humain. Langage, ton, timing, contexte. Les défenseurs ont mis en place des contrôles en partant du principe que les attaquants finiraient par commettre des erreurs. Formulations peu naturelles. Inadéquations culturelles. Personnalisation bâclée.

Ces hypothèses ont été discrètement invalidées.

Dans le même temps, la technologie sous-jacente a évolué d'une manière qui a amplifié cet impact. Les modèles à contexte long ont fait leur apparition. Les fenêtres contextuelles sont passées de quelques milliers à plusieurs centaines de milliers de tokens, voire à plus d'un million dans certains cas. Cela n'a pas seulement phishing , cela l'a rendu évolutif.

Un modèle d'IA pouvait ingérer des boîtes de réception, des profils publics et des documents en un seul passage. Il pouvait cartographier les relations. Suivre les conversations. Générer des messages uniques et hautement personnalisés pour de grands ensembles cibles à la fois. Ce qui était auparavant un travail minutieux et manuel de manipulation psychologique est devenu un processus par lots.

Qualité et ampleur ont franchi le seuil ensemble.

L'effondrement silencieux d'un avantage défensif

C'est là que l'avantage défensif a commencé à s'éroder structurellement.

Non pas parce que les attaques sont devenues plus créatives, mais parce qu'elles sont devenues impossibles à distinguer des communications légitimes à grande échelle. Les signaux linguistiques ont perdu leur fiabilité. La fatigue a disparu. L'erreur humaine n'était plus un facteur limitant.

À l'époque, ce changement ne semblait pas catastrophique. Phishing déjà un problème. Les pertes étaient déjà élevées. Vu de l'extérieur, mars 2025 semblait n'être qu'un point de données supplémentaire dans une tendance de longue date.

De l'intérieur, c'était le moment où le système basculait.

Tout ce qui a suivi, l'autonomie, l'économie, les attaques industrialisées, était en aval de cette rupture.

4. De l'assistance à l'autonomie

Une fois que l'IA a franchi le seuil de l'efficacité humaine, le reste s'est déroulé rapidement et sans heurts. Non pas parce que les attaquants sont soudainement devenus plus ambitieux, mais parce que la retenue n'avait plus de sens sur le plan économique.

À la mi-2025, l'écosystème criminel de l'IA avait mûri pour devenir un marché fonctionnel de l'IA sur le dark web, générant entre 20 et 40 millions de dollars par an selon les estimations. Pour quelques centaines de dollars par mois, les pirates pouvaient accéder à des outils qui automatisaient la recherche, généraient malware , personnalisaient phishing grande échelle et s'adaptaient en temps réel. Les coûts d'entrée ont considérablement baissé. Les compétences ont cessé d'être un facteur limitant.

À ce stade, les humains n'étaient plus la partie la plus efficace de l'opération.

L'autonomie n'était pas un bond en avant. C'était une optimisation.

Ce qui a rendu l'autonomie possible

Les modèles à contexte long offraient une certaine échelle, mais ils n'étaient pas suffisants pour garantir une véritable autonomie opérationnelle.

Cela nécessitait des infrastructures.

L'opération GTG-1002 s'appuyait sur ce qu'on appelle le Model Context Protocol, un système qui permet à l'IA d'accéder à des outils externes. Elle ne se contentait pas d'analyser du texte, mais invoquait directement des scanners réseau, des scrapers web et des frameworks d'exploitation. L'IA ne se contentait pas de recommander des actions. Elle les exécutait.

La génération augmentée par la récupération a joué un rôle similaire. Au lieu de s'appuyer entièrement sur des fenêtres contextuelles, ces systèmes interrogent en temps réel des bases de connaissances externes. Elles exploitent des bases de données, des référentiels CVE et des documents sur les techniques d'attaque. La base de connaissances effective devient ainsi illimitée.

Les frameworks d'orchestration d'agents tels que LangChain et AutoGPT relient tous ces éléments entre eux. La reconnaissance conduit à la découverte de vulnérabilités. La découverte de vulnérabilités génère des exploits. Les exploits déploient des charges utiles. Les charges utiles permettent des mouvements latéraux. Chaque étape alimente la suivante sans coordination humaine.

Contexte étendu, accès aux outils et orchestration.

C'est cette combinaison qui a permis d'atteindre le seuil d'autonomie.

La deuxième partie examinera pourquoi ces systèmes se sont révélés beaucoup moins sûrs que leurs concepteurs ne l'avaient prévu.

Septembre 2025 : franchir un seuil visible

Cette optimisation a franchi un seuil visible en septembre 2025.

Anthropic a évalué une opération financée par l'État chinois (GTG-1002) comme menant des cyberopérations avec une autonomie estimée à environ 80-90 %, ce qui signifie que la plupart des étapes de reconnaissance, de cartographie du réseau, de découverte des actifs, d'analyse des vulnérabilités, de sélection des exploits et de déploiement se sont déroulées sans intervention humaine directe entre les actions, tandis que les humains conservaient le pouvoir d'approbation et géraient la sécurité opérationnelle dans environ 30 organisations cibles.

L'opération s'est déroulée à la vitesse de la machine. Des milliers de requêtes. Plusieurs par seconde. Une exécution qui aurait été physiquement impossible à coordonner manuellement par des opérateurs humains.

Les humains conservaient le pouvoir d'approbation finale et géraient la sécurité opérationnelle. Mais le travail lui-même, l'exécution proprement dite, était désormais assuré par des machines.

Plusieurs chercheurs ont par la suite remis en question le caractère véritablement autonome de ce système, invoquant la divulgation limitée des informations et la présence continue de points de décision humains.

Cette critique est valable.

Ce qui est important, ce n'est pas que les cyberopérations entièrement autonomes soient désormais courantes. Elles ne le sont pas. Ce qui est important, c'est que les conditions techniques et économiques nécessaires à l'autonomie sont en grande partie réunies. Les lacunes restantes sont moins importantes que ne le supposent de nombreux défenseurs.

Une fois que l'exécution devient autonome, l'échelle devient illimitée. Les opérations individuelles se fragmentent en des dizaines d'incidents apparemment sans rapport les uns avec les autres. Les contrôles conçus pour faire face à des menaces à l'échelle humaine commencent à échouer, non pas parce qu'ils sont mal conçus, mais parce que leurs hypothèses ne sont plus valables.

Pourquoi cela est important pour les équipes de sécurité

Si vous travaillez dans un SOC, voici le point le plus important à retenir : vous n'êtes plus en compétition avec des attaquants humains. Vous êtes en compétition avec des pipelines d'orchestration qui fonctionnent à la vitesse d'une machine, ne se fatiguent jamais et ne répètent jamais deux fois la même erreur.

Et nous n'avons même pas encore atteint le pic.

Où allons-nous ensuite ?

La deuxième partie abordera les aspects techniques qui sous-tendent tout cela. La crise du jailbreak. Les défaillances dans l'isolation du contexte des modèles. Les premières malware autonomes sans C2. Tous les mécanismes qui ont permis aux attaquants de prendre de l'avance alors que les défenseurs étaient encore en train de mettre à jour leurs stratégies de 2021.

La troisième partie sera la plus difficile. Nous parlerons de ce que les défenseurs peuvent réellement faire aujourd'hui, dans un monde où la vitesse des attaquants se mesure en secondes et non plus en heures.

Pour l'instant, la conclusion est simple : l'IA n'a pas seulement accéléré la cybercriminalité. Elle en a changé la nature. Elle a transformé les outils en armes et les attaquants en opérateurs de systèmes de plus en plus autonomes.

Nous ne combattons plus seulement les humains.

Nous sommes confrontés à des systèmes qui fonctionnent déjà à la vitesse des machines — et à chaque nouvelle génération de modèles, moins d'intervention humaine est nécessaire pour les faire fonctionner.

Pour être clair, les défenseurs utilisent eux aussi l'IA. Détection des menaces. Réponse aux incidents. Gestion des vulnérabilités. Les outils sont à la disposition des deux camps.

L'asymétrie ne réside pas dans les capacités, mais dans l'économie.

Un seul pirate informatique doté d'une intelligence artificielle peut cibler simultanément des milliers d'organisations, en procédant par itérations parallèles et en s'adaptant en temps réel. La défense ne peut pas suivre le même rythme. C'est ce déséquilibre qui rend ce changement structurel et non temporaire.

---

Limites des données

Nous reconnaissons plusieurs limites :

  • Les chiffres relatifs aux pertes financières reposent sur les déclarations des victimes (sous-estimation probable).
  • L'attribution de certains incidents (en particulier ceux impliquant des acteurs hybrides) reste incertaine.
  • Les allégations d'autonomie du GTG-1002 ne sont pas vérifiées de manière indépendante.
  • Le nombre d'utilisateurs du dark web est une estimation basée sur des analyses du marché.

Référence

  1. Anthropic. (13 novembre 2025). Anthropic perturbe une cyberopération parrainée par l'État. Blog Anthropic Security.
  2. Hoxhunt. (2023, 2025). Études Phishing par IA. Plusieurs rapports.
  3. SPRF Inde. (Juillet 2025). Analyse des menaces numériques. Rapport de recherche.
  4. SlashNext. (2023). IA générative et cybersécurité et couverture médiatique connexe sur phishing post-ChatGPT (par exemple, Decrypt).
  5. Microsoft Threat Intelligence & OpenAI. (14 février 2024). Garder une longueur d'avance sur cybercriminels l'ère de l'IA. Blog Microsoft Security.
  6. Google Threat Intelligence Group. (Novembre 2025). Progrès dans l'utilisation des outils d'IA par les acteurs malveillants. Rapport GTIG, 18 pages.
  7. Zscaler ThreatLabz. (2024). Cyber IA ThreatLabz Cyber IA 2024. 536,5 milliards de transactions IA/ML analysées (février-décembre 2024).
  8. ENISA. (2024). Rapport sur les menaces 2024. Agence de l'Union européenne pour la cybersécurité.
  9. Cisco Talos. (Novembre 2024). Death by a Thousand Prompts: Multi-Turn Jailbreak Success Rates(La mort par mille invites : taux de réussite des jailbreaks multi-turns). Document de recherche.
  10. Analyse de l'auteur. (2025). Informations sur le marché de l'IA sur le dark web. Basé sur les données de Group-IB, Recorded Future et Trend Micro.
  11. Informations sur les prix pratiqués sur le dark web. (Juin-novembre 2025). Analyse du marché WormGPT.
  12. Analyse de l'auteur. (24 novembre 2025). Modèles à fenêtre contextuelle longue – Analyse des implications en matière de sécurité.

Foire aux questions