Organizations deploying artificial intelligence face a new frontier of security threats that traditional frameworks were never designed to address. AI-enabled adversary attacks surged 89% compared to prior years according to industry threat intelligence research, up from a 72% increase reported in 2025. This escalation demands a structured approach to understanding and defending against adversarial threats to AI systems. Enter MITRE ATLAS — the Adversarial Threat Landscape for Artificial-Intelligence Systems — a comprehensive adversarial ML knowledge base designed specifically to catalog how attackers target machine learning and AI systems.
Pour les équipes de sécurité déjà familiarisées avec MITRE ATT&CK, ATLAS (parfois appelé Atlas MITRE dans les moteurs de recherche) constitue une extension naturelle dans le domaine de la sécurité IA. Ce guide fournit tout ce dont les analystes en sécurité, les responsables SOC et les ingénieurs IA ont besoin pour mettre en œuvre ATLAS contre les attaques IA adversaires, des principes fondamentaux du cadre aux stratégies de détection pratiques.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) is a globally accessible adversarial ML knowledge base that documents adversary tactics, techniques, and procedures (TTPs) specifically targeting artificial intelligence and machine learning systems. Modeled after the widely adopted MITRE ATT&CK framework, this adversarial AI knowledge base provides security teams with a structured approach to understanding, detecting, and defending against AI-specific threats. The MITRE ATLAS framework serves as the definitive machine learning security framework for AI threat modeling.
As of version 5.1.0 (November 2025), the framework contains 16 tactics, 84 techniques, 56 sub-techniques, 32 mitigations, and 42 real-world case studies according to the official MITRE ATLAS CHANGELOG, up from 15 tactics and 66 techniques in October 2025. The February 2026 update (v5.4.0) added further agent-focused techniques. This rapid growth reflects the accelerating evolution of AI threats.
L'apprentissage automatique antagoniste, qui consiste à étudier les attaques contre les systèmes d'apprentissage automatique et les moyens de défense contre celles-ci, englobe quatre grandes catégories d'attaques répertoriées par le NIST: les attaques par évasion, par empoisonnement, par atteinte à la vie privée et par abus. ATLAS organise ces modèles d'attaque dans une structure matricielle que les professionnels de la sécurité peuvent immédiatement mettre à profit.
MITRE a créé ATLAS pour combler une lacune critique dans le paysage de la sécurité. Si ATT&CK répertorie efficacement les menaces pesant sur les infrastructures informatiques et OT traditionnelles, il ne couvre pas les attaques qui exploitent les caractéristiques uniques des systèmes d'apprentissage automatique. ATLAS comble cette lacune en proposant la même approche rigoureuse et validée par la communauté en matière de renseignements sur les menaces liées à l'IA.
Le cadre est également connecté à MITRE D3FEND, qui fournit des contre-mesures défensives que les organisations peuvent mettre en place pour contrer les techniques ATLAS.
Comprendre la distinction entre ATLAS et ATT&CK aide les équipes de sécurité à déterminer quand appliquer chaque cadre.
Tableau : Comparaison des cadres MITRE ATT&CK MITRE ATLAS
ATLAS hérite de 13 tactiques d'ATT&CK, notamment la reconnaissance, l'accès initial, l'exécution et l'exfiltration, mais les applique spécifiquement aux contextes d'IA. Les deux tactiques spécifiques à l'IA propres à ATLAS sont les suivantes :
AML.0004) : Décrit comment les adversaires accèdent aux modèles ML cibles via des API d'inférence ou un accès direct aux artefacts.AML.0012) : Traite de la manière dont les adversaires préparent leurs attaques visant les modèles d'apprentissage automatique, notamment l'empoisonnement des données d'entraînement et porte dérobée insertionLes équipes de sécurité doivent utiliser les deux cadres conjointement pour bénéficier d'une couverture complète : ATT&CK pour les menaces traditionnelles pesant sur les infrastructures et ATLAS pour les vecteurs d'attaque spécifiques à l'IA.
La base de connaissances officielle MITRE ATLAS organise les informations sur les menaces à l'aide de la même structure matricielle qui a fait le succès d'ATT&CK. La compréhension de cette structure permet une détection efficace des menaces et une modélisation des menaces par l'IA.
The MITRE ATLAS matrix (sometimes called the MITRE framework matrix for AI or the AI threat matrix) displays tactics as columns and techniques as rows. Each cell represents a specific method adversaries use to achieve tactical goals against AI systems. This visual organization allows security teams to quickly identify coverage gaps and prioritize defenses.
Les composants du cadre fonctionnent ensemble :
Les données ATLAS sont disponibles au format STIX 2.1, ce qui permet une intégration lisible par machine avec les outils et plateformes de sécurité. Ce format standardisé prend en charge l'ingestion automatisée dans les plateformes de renseignements sur les menaces et les systèmes SIEM.
The framework receives regular updates through community contributions and MITRE's ongoing research. The October 2025 update through Zenity Labs collaboration added 14 new agent-focused techniques, followed by the November 2025 v5.1.0 release that expanded the framework to 16 tactics with 84 techniques. The February 2026 v5.4.0 update added further techniques including "Publish Poisoned AI Agent Tool" and "Escape to Host," demonstrating the framework's active evolution.
Les tactiques, techniques et procédures (TTP) constituent le vocabulaire de base de la défense informée par les menaces. Dans ATLAS :
AML.TXXXX.AML.0051) comprend des sous-techniques pour les méthodes d'injection directe et indirecte.Cette hiérarchie permet une modélisation progressive et détaillée des menaces. Les équipes peuvent commencer par une analyse de couverture au niveau tactique, puis approfondir leur analyse pour se concentrer sur des techniques spécifiques en fonction de l'exposition de leur système d'IA.
ATLAS organizes 84 techniques across 16 tactics that span the complete adversarial lifecycle, up from 15 tactics and 66 techniques in October 2025. This comprehensive breakdown addresses a significant content gap identified in competitor analysis — no existing guide covers all tactics with detection-focused guidance.
Table: MITRE ATLAS tactics with key techniques
The November 2025 v5.1.0 release added a 16th tactic — Command and Control (AML.0015) — along with 18 new techniques and 6 new mitigations focused on AI agent security controls. This brought the total from 66 to 84 techniques and from 33 to 42 case studies.
Le cycle de vie d'une attaque commence par une phase de reconnaissance, au cours de laquelle les adversaires recueillent des informations sur les systèmes ML ciblés. Les principales techniques utilisées sont les suivantes :
AML.0051) : Les adversaires créent des entrées malveillantes pour manipuler le comportement des LLM — cela correspond à OWASP LLM01.Ces tactiques spécifiques à l'IA décrivent comment les adversaires interagissent avec les modèles ML et les exploitent :
cybercriminels maintiennent leur accès et échappent à la détection grâce à :
Les tactiques de phase avancée se concentrent sur la réalisation des objectifs de l'adversaire :
AML.0020) : L'empoisonnement des données corrompt les données d'entraînement afin de manipuler le comportement du modèle — un problème critique. exfiltration de données vecteurComprendre les schémas de déplacement latéral aide les équipes de sécurité à suivre la progression des attaquants dans leurs tactiques.
ATLAS fournit des outils pratiques gratuits qui transforment le cadre de la documentation en capacités de sécurité exploitables. Cet écosystème d'outils comble une lacune importante en matière de contenu, car peu de concurrents couvrent ces ressources de manière exhaustive.
Tableau : Écosystème d'outils officiels MITRE ATLAS
ATLAS Navigator fournit une interface Web interactive permettant de visualiser la matrice du cadre. Les équipes de sécurité utilisent Navigator pour :
Navigator s'intègre à ATT&CK Navigator, offrant ainsi une vue unifiée des deux cadres. Les équipes qui utilisent déjà ATT&CK Navigator se familiariseront immédiatement avec l'interface ATLAS.
En mars 2023, Microsoft et MITRE ont annoncé leur collaboration sur Arsenal, un plugin CALDERA permettant l'émulation automatisée d'adversaires contre les systèmes d'IA. Arsenal met en œuvre les techniques ATLAS sans nécessiter d'expertise approfondie en apprentissage automatique.
Les principales fonctionnalités comprennent :
Arsenal soutient la recherche de menaces en validant la couverture de détection par rapport à des simulations d'attaques réalistes. Pour les équipes d'intervention en cas d'incident, Arsenal aide à comprendre les capacités des attaquants et à tester les procédures d'intervention.
L'initiative de partage des incidents liés à l'IA permet aux organisations de partager et de tirer des enseignements des incidents liés à la sécurité de l'IA. Cette plateforme communautaire offre :
Ces informations sont directement intégrées aux mises à jour d'ATLAS, garantissant ainsi que le cadre reflète les modèles de menaces actuels.
Les équipes de sécurité se demandent souvent quel cadre de sécurité IA adopter. La réponse : utilisez les trois pour une couverture complémentaire. Cette comparaison aide les équipes à comprendre quand appliquer chaque cadre, répondant ainsi à une question courante sur la PAA.
Tableau : Comparaison des cadres de sécurité IA : ATLAS vs OWASP vs NIST AI RMF
Selon l'analyse des cadres de Cloudsine, ces cadres servent différentes phases du cycle de vie de la sécurité de l'IA :
Tableau : Tableau comparatif des vulnérabilités courantes en matière d'IA
La compréhension des vulnérabilités dans les trois cadres permet une couverture complète. Les équipes doivent mettre en correspondance leurs actifs IA avec les techniques pertinentes dans chaque cadre.
L'intégration d'ATLAS dans les opérations de sécurité nécessite des techniques de cartographie des capacités de détection et des flux de travail. Selon le guide d'intégration SOC de ThreatConnect, environ 70 % des mesures d'atténuation d'ATLAS correspondent à des contrôles de sécurité existants. Les 30 % restants nécessitent de nouveaux contrôles spécifiques à l'IA.
Étapes pour l'intégration SOC :
Une détection efficace nécessite de mettre en correspondance les techniques ATLAS avec des sources de journaux et une logique de détection spécifiques.
Tableau : Exemple de cartographie de détection pour les techniques ATLAS prioritaires
détection et réponse aux incidents complètent la détection au niveau de la couche applicative. L'analyse du comportement des utilisateurs et des entités (UEBA) permet d'identifier les modèles d'accès anormaux aux systèmes d'IA.
Suivez ces indicateurs pour mesurer la mise en œuvre d'ATLAS :
Les examens trimestriels des modèles de menaces garantissent que la couverture reste en phase avec les mises à jour du cadre et les menaces émergentes.
ATLAS includes 42 case studies documenting real-world attacks against AI systems, up from 33 in October 2025. Analyzing these incidents provides actionable defensive insights that go beyond theoretical threat modeling.
En novembre 2025, MITRE ATLAS a publié une étude de cas documentant des attaques deepfake contre les systèmes mobiles de détection de vivacité KYC (Know Your Customer). Selon Mobile ID World, cette attaque visait les plateformes bancaires, financières et de cryptomonnaie.
Progression de la chaîne d'attaque :
Reconnaissance -> Développement des ressources -> Accès initial -> Évasion de la défense -> Impact
Recommandations défensives :
Cette étude de cas montre comment les pirates combinent l'ingénierie sociale et les outils d'IA pour contourner les contrôles de sécurité, ce qui peut entraîner des violations de données.
The SesameOp case study, added to ATLAS in late 2025, documents a novel backdoor technique that leverages AI assistant APIs for command and control. Instead of building traditional C2 infrastructure, adversaries repurposed legitimate agent service APIs as covert control channels — blending malicious activity into normal AI workflows. This attack pattern maps to the new AI Service API technique (AML.0096) and demonstrates how agentic AI infrastructure creates command and control channels that evade conventional network detection.
ATLAS expanded from 33 to 42 case studies between October 2025 and February 2026. Notable additions include:
L'analyse HiddenLayer de l'étude de cas ATLAS AML.CS0003 documente la manière dont les chercheurs ont contourné un produit endpoint basé sur le ML :
AI security threats require specialized detection approaches that go beyond traditional security controls. With AI-enabled adversary attacks surging 89% compared to prior years — up from a 72% increase in 2025 — organizations need proactive defense strategies.
Liste de contrôle pour la sécurité de l'IA :
Les organisations doivent aligner leurs investissements en matière de sécurité de l'IA à la fois sur phishing ( phishing généré par l'IA phishing une croissance rapide) et la défense contre les ransomwares (l'IA permet des attaques plus sophistiquées).
AML.0051)Prompt injection is the most prominent ATLAS technique, cataloged as AML.0051 under the Initial Access tactic. Large language models face unique attack vectors that traditional security cannot address, and ATLAS catalogs these threats systematically.
Tableau : Types de menaces LLM avec cartographie ATLAS et méthodes de détection
Les CVE récents illustrent ces menaces dans la pratique :
Les capacités de détection et de réponse aux menaces d'identité permettent de détecter les tentatives de vol d'identifiants via l'exploitation de LLM.
La mise à jour ATLAS d'octobre 2025 traite spécifiquement des agents IA autonomes, c'est-à-dire des systèmes capables d'agir, d'accéder à des outils et de conserver le contexte d'une session à l'autre. Les nouvelles techniques comprennent :
AML.0058 Empoisonnement du contexte des agents IA: Injection de contenu malveillant dans la mémoire de l'agent ou le contexte du threadAML.0059 Déclencheurs d'activation: Intégration de déclencheurs qui s'activent dans des conditions spécifiquesAML.0060 Données provenant des services d'IA: Extraction d'informations via la récupération de données dans la base de données RAGAML.0061 Outils pour agents IA: Utilisation abusive de l'accès à l'outil agent à des fins malveillantesAML.0062 Exfiltration via l'invocation d'un outil agent IA: Utilisation d'appels d'outils légitimes pour extraire des donnéesPrincipes de sécurité pour les agents IA :
Selon les directives de la CISA de décembre 2025 relatives à l'IA/OT, les organisations doivent intégrer des dispositifs de surveillance et de sécurité pour tous les systèmes d'IA fonctionnant dans des environnements critiques.
The Model Context Protocol (MCP) — an open standard for connecting AI agents to external tools and data sources — introduces attack surfaces that ATLAS now explicitly addresses. MCP exploits allow adversaries to manipulate the tool-calling layer between AI agents and enterprise systems, bypassing traditional security controls.
ATLAS techniques relevant to MCP security include:
AML.0061): Adversaries exploit MCP server configurations to invoke unauthorized tool actions or access restricted dataAML.0062): Attackers leverage legitimate MCP tool calls to extract sensitive data through sanctioned channelsAML.0096, added 2026): Exploiting AI orchestration APIs for stealthy command and controlThe January 2026 ATLAS update (v5.3.0) added three new case studies specifically covering MCP server compromises, indirect prompt injection via MCP channels, and malicious AI agent deployment. Security teams should validate all MCP server configurations, restrict tool permissions to least privilege, and monitor tool invocation patterns for anomalies.
Le paysage de la sécurité IA évolue rapidement, sous l'effet des pressions réglementaires et de la collaboration entre les acteurs du secteur qui favorisent l'adoption de cadres réglementaires. Les organisations doivent se préparer à faire face à la fois aux menaces émergentes et aux exigences de conformité.
The MITRE Secure AI Program, supported by 16 member organizations including Microsoft and JPMorgan Chase, focuses on expanding ATLAS with real-world observations and expediting AI incident sharing.
Évolution réglementaire :
AI security threats continue to accelerate, with 87% of organizations reporting AI-powered cyberattack exposure and 92% expressing concern over agentic AI security implications according to industry research.
Vectra AI's Attack Signal Intelligence methodology applies behavior-based detection principles that align with ATLAS framework objectives. By focusing on attacker behaviors rather than static signatures, organizations can detect the techniques cataloged in ATLAS — from prompt injection attempts to data exfiltration via inference APIs — across hybrid cloud environments.
Cette approche permet aux équipes de sécurité d'identifier et de hiérarchiser les menaces réelles liées à l'IA tout en réduisant le bruit des alertes. détection et réponse aux incidents à la détection des menaces d'identité, offrent une visibilité sur l'ensemble de la surface d'attaque que les menaces liées à l'IA ciblent désormais.
MITRE ATLAS provides the structured approach organizations need to defend AI systems against sophisticated adversaries. With 16 tactics, 84 techniques, and continuous updates reflecting emerging threats like agentic AI attacks and MCP exploits, the framework delivers actionable intelligence for security teams.
The rapid expansion from 15 tactics in October 2025 to 16 tactics and 84 techniques by February 2026 demonstrates ATLAS's commitment to keeping pace with AI evolution. As AI-assisted attacks continue to surge and regulatory requirements like the EU AI Act take effect, organizations cannot afford to treat AI security as an afterthought.
Start with these immediate actions:
For organizations seeking comprehensive AI security beyond framework adoption, Vectra AI's Attack Signal Intelligence provides behavior-based detection that identifies the adversary techniques ATLAS catalogs — enabling security teams to find and stop AI threats across hybrid environments.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) is a globally accessible knowledge base that catalogs adversary tactics, techniques, and case studies specifically targeting AI and machine learning systems. Modeled after MITRE ATT&CK, ATLAS provides a structured framework for understanding AI-specific threats. As of February 2026, it contains 16 tactics, 84 techniques, 56 sub-techniques, 32 mitigations, and 42 real-world case studies. Security teams use ATLAS for threat modeling, detection development, and red teaming AI systems. The framework is freely available at atlas.mitre.org.
Alors qu'ATT&CK se concentre sur les menaces informatiques traditionnelles (IT/OT), ATLAS traite spécifiquement des attaques visant les systèmes d'IA et d'apprentissage automatique. ATLAS comprend deux tactiques uniques qui ne figurent pas dans ATT&CK : l'accès aux modèles d'apprentissage automatique (ML Model Access) et l'utilisation d'outils d'apprentissage automatique (ML Tool Usage).AML.0004) et ML Attack Staging (AML.0012). Les deux cadres utilisent la même structure matricielle et la même méthodologie TTP, ce qui rend ATLAS accessible aux équipes de sécurité déjà familiarisées avec ATT&CK. Les organisations devraient utiliser les deux cadres conjointement : ATT&CK pour les menaces liées à l'infrastructure et ATLAS pour les vecteurs d'attaque spécifiques à l'IA. Les cadres partagent des tactiques communes, mais les appliquent à des contextes technologiques différents.
As of February 2026 (v5.4.0), MITRE ATLAS contains 16 tactics, 84 techniques, and 56 sub-techniques, up from 15 tactics and 66 techniques in October 2025. The November 2025 v5.1.0 update added a 16th tactic and expanded to 84 techniques, 32 mitigations, and 42 case studies. The February 2026 v5.4.0 update added further agent-focused techniques including "Publish Poisoned AI Agent Tool" and "Escape to Host." This represents significant growth from earlier versions — some older sources cite 56 or 66 techniques, which reflects pre-November 2025 counts. Always reference the official ATLAS CHANGELOG for current statistics.
Prompt injectionAML.0051) est une technique d'accès initial dans laquelle les attaquants créent des entrées malveillantes afin de manipuler le comportement des modèles de langage à grande échelle (LLM). ATLAS distingue prompt injection directe prompt injection contenu malveillant dans les entrées de l'utilisateur) de prompt injection indirecte prompt injection contenu malveillant intégré dans des sources de données externes traitées par le LLM). Cette technique correspond à la vulnérabilité OWASP LLM01 et constitue l'un des vecteurs d'attaque les plus courants contre les applications LLM. La détection se concentre sur l'analyse des modèles d'entrée et la surveillance du comportement en sortie. Des CVE récentes, notamment CVE-2025-32711 (EchoLeak), démontrent l'existence d'exploitations dans le monde réel.
Utilisez ATLAS Navigator pour visualiser le cadre et créer des couches personnalisées qui mappent vos ressources IA aux techniques pertinentes. Commencez par inventorier tous les modèles ML, les pipelines de formation et les applications compatibles avec l'IA. Identifiez les tactiques qui s'appliquent aux étapes de votre pipeline ML en fonction de l'architecture du système. Hiérarchisez les techniques en fonction de l'exposition et de la probabilité. Mappez les capacités de détection pour créer des visualisations de couverture. Intégrez ATLAS dans les méthodologies de modélisation des menaces existantes telles que STRIDE et ATT&CK pour une couverture complète. Réexaminez et mettez à jour les modèles de menaces tous les trimestres à mesure que le cadre évolue.
ATLAS offers several free tools. Navigator provides web-based matrix visualization for threat modeling and coverage mapping, with export capabilities in JSON, Excel, and SVG formats. Arsenal is a CALDERA plugin for automated AI red teaming, developed in collaboration with Microsoft. The AI Incident Sharing Initiative enables community threat intelligence sharing through anonymized incident reports. The AI Risk Database provides searchable incident and vulnerability information. All tools are accessible at atlas.mitre.org and through MITRE's GitHub repositories. These tools transform ATLAS from documentation into actionable security capabilities.
ATLAS et le Top 10 de l'OWASP LLM ont des objectifs complémentaires. ATLAS fournit un cadre de TTP (techniques, tactiques et procédures) axé sur l'attaquant pour la modélisation et la détection des menaces, tandis que l'OWASP propose une liste de vulnérabilités axée sur les développeurs pour un développement sécurisé. Utilisez l'OWASP pendant les phases de développement et de révision du code ; utilisez ATLAS pour la sécurité opérationnelle, la modélisation des menaces et le développement de systèmes de détection. De nombreuses vulnérabilités apparaissent dans les deux cadres, mais sous des angles différents — par exemple, prompt injection une technique ATLAS AML.0051 et OWASP LLM01. La meilleure approche consiste à combiner ces deux cadres avec le NIST AI RMF pour la gouvernance.
The MITRE ATLAS adversarial ML knowledge base is a structured repository of adversary tactics, techniques, sub-techniques, mitigations, and real-world case studies focused on attacks against AI and machine learning systems. As of February 2026 (v5.4.0), the knowledge base contains 16 tactics, 84 techniques, 56 sub-techniques, 32 mitigations, and 42 case studies. It is freely accessible at atlas.mitre.org and its data is available in STIX 2.1 format for machine-readable integration with security tools and threat intelligence platforms.
MITRE ATLAS case studies are documented real-world incidents where adversaries targeted AI and machine learning systems, mapped to specific ATLAS tactics and techniques. As of February 2026, ATLAS contains 42 case studies covering attacks ranging from deepfake-based KYC bypass and ML model evasion to AI agent backdoors and financial transaction hijacking through AI assistants. Notable examples include the iProov deepfake case study targeting mobile banking, the SesameOp AI agent backdoor (AML.CS0042), and MCP server compromise scenarios. Security teams use these case studies to understand real attack chains and validate detection coverage.
ATLAS Navigator provides an interactive web interface at atlas.mitre.org for visualizing the ATLAS matrix. To export coverage layers, create a custom layer by selecting relevant techniques and assigning scores based on your detection coverage. Navigate to Layer Controls and export in JSON format for programmatic use, Excel for analyst review, or SVG for visual reporting. Teams can combine multiple layers using score expressions (such as summing two layers) to visualize overlapping coverage or gaps. Navigator integrates with the ATT&CK Navigator, enabling unified views across both traditional and AI-specific threat frameworks.