1. Introduction : Une nouvelle ère de piratage automatisé
Le monde de la sécurité offensive est en train de subir un changement sismique, sous l'impulsion des progrès rapides de l'intelligence artificielle. L'essor récent des grands modèles de langage (LLM) a ouvert des possibilités sans précédent pour automatiser, améliorer, voire révolutionner le piratage informatique. Alors que le piratage reposait autrefois exclusivement sur l'expertise approfondie et les efforts manuels fastidieux des professionnels humains, nous assistons aujourd'hui à l'émergence d'outils alimentés par l'IA, capables de raisonner, de planifier et d'exécuter des séquences d'attaque complexes.
Ces systèmes ne relèvent plus de la théorie ou de la science-fiction ; ils sont activement développés et évalués dans le cadre d'une multitude de recherches. Certains chercheurs se concentrent sur l'injection de connaissances approfondies dans le domaine par le biais d'un réglage fin, créant ainsi des experts hautement spécialisés. D'autres construisent des systèmes complexes et modulaires qui imitent les équipes humaines, en déléguant des tâches à différents agents d'IA. Un troisième groupe repousse les limites de l'autonomie avec l'IA "agentique", s'efforçant de créer des systèmes capables de fonctionner avec une intervention humaine minimale.
Pour naviguer dans ce paysage nouveau et complexe, il faut disposer d'une carte claire. Cet article se penche sur ce domaine de pointe et propose une analyse comparative des cadres les plus importants. Pour asseoir notre discussion, le tableau suivant propose un regard comparatif sur l'état de l'art des cadres et sur nos favoris personnels, en présentant leurs stratégies de base, leurs caractéristiques clés et leurs compromis opérationnels. Il sert de guide pour comprendre les diverses approches adoptées par les chercheurs pour construire la prochaine génération d'outils de sécurité offensifs.
2. Trois voies vers le piratage informatique par l'IA
La recherche d'une exploitation des LLM à des fins de sécurité offensive a donné lieu à trois grandes philosophies architecturales, chacune d'entre elles comportant son propre ensemble de compromis.
2.1. Des modèles affinés : Les spécialistes
Cette approche consiste à prendre un LLM pré-entraîné et à l'entraîner sur de vastes ensembles de données spécialisées du domaine de la cybersécurité. La force du réglage fin réside dans l'obtention d'une précision et d'une pertinence élevées pour des tâches spécifiques et bien définies. Ces modèles peuvent atteindre un niveau de compétence élevé pour des tâches précises, ce qui permet d'obtenir des résultats plus précis et plus pertinents pour des scénarios connus. En concentrant la formation sur des données pertinentes, le réglage fin peut également réduire la probabilité que le LLM génère des informations non pertinentes ou incorrectes sur le plan factuel (hallucinations) lorsqu'il opère dans son domaine spécialisé. Pour des tâches très spécifiques, il pourrait même être possible d'affiner des LLM plus petits et plus efficaces. Cette approche présente toutefois des faiblesses. La création d'ensembles de données de haute qualité, complets et impartiaux est une entreprise considérable. En outre, ces modèles excellent dans leur distribution d'apprentissage mais peuvent avoir du mal à s'adapter à des vulnérabilités, des outils ou des scénarios d'attaque entièrement nouveaux. L'étendue même de la sécurité offensive rend également difficile la création d'un modèle unique finement ajusté qui couvre tous les aspects de manière efficace.
2.2. Cadres modulaires renforcés par le LLM : Les acteurs de l'équipe
Ces systèmes utilisent les LLM comme des composants intelligents au sein d'une architecture plus large et structurée. Ils décomposent souvent le processus de test de pénétration en phases distinctes gérées par différents modules, atténuant les limitations des LLM comme la perte de contexte en isolant les préoccupations. PENTESTGPT [1] et VulnBot [5], par exemple, utilisent des conceptions multi-agents où différents agents se spécialisent dans des phases telles que la reconnaissance, la planification et l'exploitation. Les points forts de cette approche sont une gestion plus structurée des tâches et la capacité de maintenir l'attention, ce qui permet de réaliser les sous-tâches de manière plus fiable. Les agents peuvent également intégrer la génération augmentée par récupération (RAG) pour obtenir des données externes, ce qui leur permet de disposer d'une base de connaissances plus dynamique. Les principales faiblesses sont la complexité technique de la coordination des modules et la dépendance fréquente à l'égard d'un être humain dans la boucle pour la prise de décisions complexes.
2.3. Systèmes d'IA agentiques : Les opérateurs autonomes
Il s'agit de l'approche la plus ambitieuse, qui vise à créer des agents d'IA capables de planifier, d'exécuter et de s'adapter à des tâches complexes et de longue durée avec une supervision humaine minimale. RedTeamLLM [3] illustre cette approche avec une architecture intégrée pour l'automatisation des tâches de pentesting. Les points forts des systèmes agentiques sont leur conception pour des tâches complexes à plusieurs étapes par le biais de la planification, de la décomposition des tâches et de l'exécution itérative. Ils peuvent être équipés pour utiliser divers outils de manière dynamique et interagir avec les environnements cibles. Avec une correction de plan et un apprentissage robustes, ils ont le potentiel d'une autonomie et d'une adaptabilité accrues. Les principales faiblesses sont que l'efficacité de l'agent dépend fortement des capacités de raisonnement du LLM sous-jacent. Un raisonnement défectueux, des biais ou des erreurs peuvent se propager et s'aggraver, entraînant l'échec de la mission.
3. Les obstacles à surmonter
Malgré les progrès rapides, plusieurs défis fondamentaux subsistent dans toutes les approches. La perte de contexte est un goulot d'étranglement central ; la fenêtre contextuelle limitée des LLM actuels entrave directement leur capacité à effectuer des opérations sophistiquées qui nécessitent de rappeler et de synthétiser des informations au fil du temps. Les innovations architecturales tentent de fournir une mémoire externe et structurée, mais cela reste un problème clé. Les LLM peuvent également avoir du mal à appliquer leurs capacités de raisonnement de manière cohérente en vue d'atteindre un objectif final, en particulier lorsque le chemin à suivre comporte de multiples étapes interdépendantes. Les LLM ont également tendance à accorder trop d'importance aux tâches ou aux informations les plus récentes, négligeant potentiellement les vulnérabilités identifiées précédemment. Enfin, le problème bien documenté de l'hallucination, où les LLM génèrent des informations plausibles mais incorrectes, est une préoccupation majeure pour la fiabilité des opérations autonomes.
4. Le nouveau champ de bataille : L'IA dans la chaîne d'exécution cybernétique
Les progrès de l'IA ont de profondes répercussions non seulement sur des tâches isolées, mais aussi sur toutes les étapes de la chaîne de la mort cybernétique. De la reconnaissance initiale à l'exfiltration finale, les agents d'IA sont sur le point d'améliorer, d'accélérer et d'automatiser l'ensemble du cycle de vie de l'attaque.
4.1. Applications offensives et défensives
Au stade de la reconnaissance, l'IA peut automatiser le processus de collecte de renseignements de sources ouvertes (OSINT) à grande échelle, en mettant en corrélation des données provenant de sources disparates pour établir des profils détaillés d'organisations et d'individus cibles. Dans les phases d'armement et de diffusion, les LLM peuvent créer des courriels de phishing personnalisés et très convaincants ou générer des malware polymorphes qui échappent à la détection basée sur les signatures. Au cours des phases d'exploitation et d'installation, les systèmes agentiques peuvent rechercher de manière autonome les vulnérabilités, sélectionner les exploits appropriés et établir une persistance sur un système compromis. Pour le Command and Control (C2), les IA peuvent concevoir des canaux de communication furtifs qui se fondent dans le trafic réseau normal. Enfin, pendant les actions sur les objectifs, une IA peut automatiser l'exfiltration des données, en identifiant intelligemment et en conditionnant les informations sensibles pour les extraire. Sur le plan défensif, cette même puissance peut être utilisée pour mettre en place des postures de sécurité plus robustes, les systèmes d'IA analysant le trafic réseau à la recherche d'anomalies, prédisant les mouvements des attaquants et automatisant la réponse aux incidents.
4.2. Le protocole de contexte de modèle (MCP) change la donne
L'émergence d'un protocole normalisé de contexte machine (MCP) pourrait renforcer ces capacités en permettant une communication transparente entre différents agents et outils d'IA spécialisés. Un agent d'IA offensif pourrait utiliser le MCP pour demander à un agent de reconnaissance spécialisé des informations sur la cible, demander une charge utile personnalisée à un service de génération de malware ou coordonner une attaque en plusieurs étapes avec d'autres agents d'exploitation. Cela ouvre la voie à une automatisation, une modularité et une normalisation sans précédent de la manière dont les agents d'IA offensive accèdent aux outils et aux services et les utilisent tout au long de la chaîne d'exécution, ce qui rend les attaques plus sophistiquées et plus difficiles à contrer.
5. Le choc du futur : qu'est-ce qui se profile à l'horizon ?
La trajectoire actuelle du développement de l'IA laisse entrevoir des capacités qui relevaient autrefois de la science-fiction. La fusion de systèmes agentiques, d'ensembles de données massives et de modèles spécialisés donnera probablement naissance à des outils offensifs qui changeront de paradigme. Voici quelques exemples : Zero-Days générés par l'IA L'une des possibilités les plus profondes est la génération d'exploits zero-day générés par l'IA. Il s'agit là du Saint-Graal du piratage, où la découverte de vulnérabilités n'est plus une activité purement humaine. Imaginez une IA qui analyse en permanence les référentiels de code source ouvert, les binaires de logiciels propriétaires et les microprogrammes, à la recherche non seulement de modèles de vulnérabilité connus, mais aussi de classes de bogues entièrement nouvelles. En apprenant les principes abstraits de l'interaction entre le logiciel et le matériel (gestion de la mémoire, traitement des données, flux logiques), un tel système pourrait identifier des failles logiques subtiles, des conditions de course et des interactions inattendues que les chercheurs humains pourraient manquer. Il pourrait en résulter un flux constant d'exploits inconnus jusqu'alors, ce qui modifierait radicalement l'équilibre des forces entre les attaquants et les défenseurs et rendrait obsolètes les cycles de correctifs traditionnels.
Piratage des essaims autonomes
Une autre possibilité de changement de paradigme est le concept de piratage autonome en essaim. Ce concept dépasse l'idée d'un agent unique pour envisager un assaut coordonné et multi-agents. Au lieu d'une attaque linéaire, imaginez un essaim de dizaines, voire de centaines d'IA spécialisées lancées contre un réseau cible. Les agents de reconnaissance cartographieraient le terrain, les agents de vulnérabilité testeraient les faiblesses et les agents d'exploitation agiraient en fonction des résultats, le tout pouvant être coordonné en tant qu'attaque parallèle. Cet essaim pourrait s'adapter aux mesures défensives en temps réel, en réorientant sa trajectoire d'attaque si un vecteur est bloqué, et en partageant des informations entre les agents pour trouver le chemin de moindre résistance. La vitesse, l'ampleur et la capacité d'adaptation d'une telle attaque seraient insurmontables pour les centres d'opérations de sécurité traditionnels dirigés par des humains, qui sont conçus pour suivre et répondre à une poignée de menaces simultanées.
Ingénierie sociale hyper-personnalisée
L'IA perfectionnera probablement aussi l'art de l'escroquerie. La prochaine génération d'attaques d'ingénierie sociale sera profondément personnalisée et dynamiquement adaptable. En synthétisant les informations provenant des médias sociaux, des réseaux professionnels et des données piratées, une IA pourrait générer des courriels d'phishing hyperpersonnalisés qu'il serait impossible de distinguer d'une correspondance légitime, faisant référence à des conversations récentes, à des intérêts partagés et à des projets spécifiques. Plus encore, elle pourrait cloner la voix d'un PDG pour un appel d'hameçonnage capable de répondre aux questions en temps réel, ou mener une fausse campagne sur les médias sociaux si convaincante qu'elle établirait la confiance avec une cible pendant des semaines ou des mois avant de passer à l'action. Ce niveau de manipulation psychologique, exécuté à grande échelle et avec une parfaite connaissance de l'histoire et de la personnalité d'une cible, représente une menace redoutable qui contourne entièrement les défenses techniques.
Exploitation prédictive et défense automatisée
La course entre les attaquants et les défenseurs va s'accélérer à la vitesse de la machine. Les IA offensives pourraient être chargées non seulement de trouver les vulnérabilités existantes, mais aussi de prédire celles à venir. En analysant la vitesse de développement et les habitudes de codage d'un projet logiciel, une IA pourrait être en mesure de prévoir où les bogues sont le plus susceptibles d'apparaître. En réponse, les IA défensives automatiseront l'autre partie de l'équation. Imaginez un agent défensif qui surveille son propre réseau, identifie la divulgation d'une nouvelle vulnérabilité, génère un correctif personnalisé, le teste dans un environnement en bac à sable et le déploie dans toute l'entreprise, le tout dans les minutes qui suivent l'annonce de la vulnérabilité et bien avant qu'une équipe humaine ne puisse même convoquer une réunion.
Opérations de désinformation et d'influence pilotées par l'IA
Au-delà des attaques directes sur les réseaux, l'IA va révolutionner les opérations d'influence. Des acteurs parrainés par un État ou malveillants pourraient déployer des essaims d'agents d'IA pour créer et diffuser une désinformation hautement crédible sur les médias sociaux, les forums et les sites d'information. Ces agents pourraient créer de faux personnages avec des années d'historique de messages, s'engager dans des arguments nuancés et adapter leur message en fonction de la réaction du public. Ils pourraient être utilisés pour manipuler l'opinion publique, perturber les élections ou inciter à l'agitation sociale avec un niveau de sophistication et une ampleur qui feraient passer les réseaux de zombies actuels pour primitifs. La détection et la lutte contre ces campagnes nécessiteront des analyses de contenu et des cartographies de réseaux tout aussi sophistiquées, alimentées par l'IA.
6. Conclusion
L'intégration de l'IA dans la sécurité offensive n'est plus un exercice théorique ; c'est une réalité qui progresse rapidement et qui est en train de remodeler le paysage des cybermenaces. Le développement de spécialistes affinés, de systèmes modulaires col- laboratifs et d'agents autonomes montre une trajectoire claire vers des capacités d'attaque plus sophistiquées et automatisées. Bien qu'il reste d'importants obstacles à surmonter, comme la conservation du contexte et la cohérence de l'analyse, le rythme de l'innovation est stupéfiant. L'impact réel de ces technologies se fera sentir sur l'ensemble de la chaîne d'exécution cybernétique, de la reconnaissance pilotée par l'IA à l'exfiltration automatisée. À mesure que nous avançons, la lutte entre les attaquants et les défenseurs se transformera de plus en plus en une partie d'échecs à grande vitesse, pilotée par des machines. Pour réussir dans cette nouvelle ère, il ne suffira pas de réagir aux menaces, mais de comprendre et d'exploiter de manière proactive ces puissantes capacités d'IA afin de mettre en place des défenses aussi intelligentes, adaptatives et autonomes que les attaques qu'elles sont censées stopper. L'avenir de la sécurité appartient à ceux qui sauront anticiper et innover dans cette nouvelle arène alimentée par l'IA.
Références
[1] Deng, G., et al. (2024). PENTESTGPT : Evaluating and Harnessing Large Language Models for Automated Penetration Testing. In 33rd USENIX Security Symposium (USENIX Security 24).
[2] Pratama, D., et al. (2024). CIPHER : Cybersecurity Intelligent Penetration-Testing Helper for Ethical Researcher. Sensors, 24, 6878.
[3] Challita, B. et Parrend, P. (2025). RedTeamLLM : an Agentic AI framework for offensive security. arXiv preprint arXiv:2505.06913.
[4] Shen, X., et al. (2025). PentestAgent : Incorporating LLM Agents to Automated Penetration Testing. In ACM Asia Conference on Computer and Communications Security (ASIA CCS '25).
[5] Kong, H., et al. (2025). VulnBot : Autonomous Penetration Testing for A Multi-Agent Collaborative Framework. arXiv preprint arXiv:2501.13411.
[6] Xu, J., et al. (2024). AUTOATTACKER : A Large Language Model Guided System to Implement Automatic Cyber-attacks. arXiv preprint arXiv:2403.01038.
[7] Happe, A. et Cito, J. (2023). Getting pwn'd by AI : Penetration Testing with Large Language Models. In Proceedings of the 31st ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering (ESEC/FSE '23).
[8] Al-Sinani, H. S. et Mitchell, C. J. (2025). PenTest++ : Elevating Ethical Hacking with AI and Automation. arXiv preprint arXiv:2502.09484.
[9] Muzsai, L., Imolai, D., & Luk' acs, A. (2024). HackSynth : LLM Agent and Evaluation Framework for Autonomous Penetration Testing. arXiv preprint arXiv:2412.01778.
[10] Zhang, A. K., et al. (2025). CYBENCH : A FRAMEWORK FOR EVALUATING CYBERSECURITY CAPABILITIES AND RISKS OF LANGUAGE MODELS. À paraître dans International Conference on Learning Representations (ICLR 2025).