Les organisations qui déploient l'intelligence artificielle sont confrontées à un nouveau type de menaces de sécurité pour lesquelles les cadres traditionnels n'ont jamais été conçus. Selon des études sur les menaces menées par le secteur, les attaques malveillantes ciblant l'IA ont bondi de 89 % par rapport aux années précédentes, contre une hausse de 72 % signalée en 2025. Cette escalade exige une approche structurée pour comprendre et se défendre contre les menaces malveillantes pesant sur les systèmes d'IA. C'est là qu'intervient MITRE ATLAS — le paysage des menaces adversaires pour les systèmes d'intelligence artificielle — une base de connaissances complète sur le ML adversaire, spécialement conçue pour répertorier la manière dont les attaquants ciblent les systèmes d'apprentissage automatique et d'IA.
Pour les équipes de sécurité déjà familiarisées avec MITRE ATT&CK, ATLAS (parfois appelé Atlas MITRE dans les moteurs de recherche) constitue une extension naturelle dans le domaine de la sécurité IA. Ce guide fournit tout ce dont les analystes en sécurité, les responsables SOC et les ingénieurs IA ont besoin pour mettre en œuvre ATLAS contre les attaques IA adversaires, des principes fondamentaux du cadre aux stratégies de détection pratiques.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) est une base de connaissances sur l'apprentissage automatique (ML) axée sur les attaques, accessible à l'échelle mondiale, qui recense les tactiques, techniques et procédures (TTP) des attaquants visant spécifiquement les systèmes d'intelligence artificielle et d'apprentissage automatique. S'inspirant du MITRE ATT&CK largement adopté, cette base de connaissances sur l'IA axée sur les attaques offre aux équipes de sécurité une approche structurée pour comprendre, détecter et se défendre contre les menaces spécifiques à l'IA. Le cadre MITRE ATLAS fait office de cadre de référence en matière de sécurité de l'apprentissage automatique pour la modélisation des menaces liées à l'IA.
Selon le journal des modifications officiel de MITRE ATLAS, la version 5.1.0 (novembre 2025) du référentiel comprend 16 tactiques, 84 techniques, 56 sous-techniques, 32 mesures d'atténuation et 42 études de cas concrets, contre 15 tactiques et 66 techniques en octobre 2025. La mise à jour de février 2026 (v5.4.0) a ajouté de nouvelles techniques axées sur les agents. Cette croissance rapide reflète l'évolution accélérée des menaces liées à l'IA.
L'apprentissage automatique antagoniste, qui consiste à étudier les attaques contre les systèmes d'apprentissage automatique et les moyens de défense contre celles-ci, englobe quatre grandes catégories d'attaques répertoriées par le NIST: les attaques par évasion, par empoisonnement, par atteinte à la vie privée et par abus. ATLAS organise ces modèles d'attaque dans une structure matricielle que les professionnels de la sécurité peuvent immédiatement mettre à profit.
MITRE a créé ATLAS pour combler une lacune critique dans le paysage de la sécurité. Si ATT&CK répertorie efficacement les menaces pesant sur les infrastructures informatiques et OT traditionnelles, il ne couvre pas les attaques qui exploitent les caractéristiques uniques des systèmes d'apprentissage automatique. ATLAS comble cette lacune en proposant la même approche rigoureuse et validée par la communauté en matière de renseignements sur les menaces liées à l'IA.
Le cadre est également connecté à MITRE D3FEND, qui fournit des contre-mesures défensives que les organisations peuvent mettre en place pour contrer les techniques ATLAS.
Comprendre la distinction entre ATLAS et ATT&CK aide les équipes de sécurité à déterminer quand appliquer chaque cadre.
Tableau : Comparaison des cadres MITRE ATT&CK MITRE ATLAS
ATLAS hérite de 13 tactiques d'ATT&CK, notamment la reconnaissance, l'accès initial, l'exécution et l'exfiltration, mais les applique spécifiquement aux contextes d'IA. Les deux tactiques spécifiques à l'IA propres à ATLAS sont les suivantes :
AML.0004) : Décrit comment les adversaires accèdent aux modèles ML cibles via des API d'inférence ou un accès direct aux artefacts.AML.0012) : Traite de la manière dont les adversaires préparent leurs attaques visant les modèles d'apprentissage automatique, notamment l'empoisonnement des données d'entraînement et porte dérobée insertionLes équipes de sécurité doivent utiliser les deux cadres conjointement pour bénéficier d'une couverture complète : ATT&CK pour les menaces traditionnelles pesant sur les infrastructures et ATLAS pour les vecteurs d'attaque spécifiques à l'IA.
La base de connaissances officielle MITRE ATLAS organise les informations sur les menaces à l'aide de la même structure matricielle qui a fait le succès d'ATT&CK. La compréhension de cette structure permet une détection efficace des menaces et une modélisation des menaces par l'IA.
La matrice MITRE ATLAS (parfois appelée « matrice du cadre MITRE pour l'IA » ou « matrice des menaces liées à l'IA ») présente les tactiques sous forme de colonnes et les techniques sous forme de lignes. Chaque cellule représente une méthode spécifique utilisée par les adversaires pour atteindre leurs objectifs tactiques contre les systèmes d'IA. Cette organisation visuelle permet aux équipes de sécurité d'identifier rapidement les lacunes en matière de couverture et de hiérarchiser les mesures de défense.
Les composants du cadre fonctionnent ensemble :
Les données ATLAS sont disponibles au format STIX 2.1, ce qui permet une intégration lisible par machine avec les outils et plateformes de sécurité. Ce format standardisé prend en charge l'ingestion automatisée dans les plateformes de renseignements sur les menaces et les systèmes SIEM.
Le cadre bénéficie de mises à jour régulières grâce aux contributions de la communauté et aux travaux de recherche continus de MITRE. La mise à jour d'octobre 2025, réalisée en collaboration avec Zenity Labs, a ajouté 14 nouvelles techniques axées sur les agents, suivie par la version v5.1.0 de novembre 2025 qui a étendu le cadre à 16 tactiques comprenant 84 techniques. La mise à jour v5.4.0 de février 2026 a ajouté d'autres techniques, notamment « Publish Poisoned AI Agent Tool » et « Escape to Host », démontrant ainsi l'évolution active du cadre.
Les tactiques, techniques et procédures (TTP) constituent le vocabulaire de base de la défense informée par les menaces. Dans ATLAS :
AML.TXXXX.AML.0051) comprend des sous-techniques pour les méthodes d'injection directe et indirecte.Cette hiérarchie permet une modélisation progressive et détaillée des menaces. Les équipes peuvent commencer par une analyse de couverture au niveau tactique, puis approfondir leur analyse pour se concentrer sur des techniques spécifiques en fonction de l'exposition de leur système d'IA.
ATLAS répertorie 84 techniques réparties en 16 tactiques couvrant l'ensemble du cycle de vie des attaques, contre 15 tactiques et 66 techniques en octobre 2025. Cette classification exhaustive comble une lacune importante identifiée lors de l'analyse de la concurrence : aucun guide existant ne couvre l'ensemble des tactiques en proposant des conseils axés sur la détection.
Tableau : Tactiques MITRE ATLAS et techniques clés
La version 5.1.0, publiée en novembre 2025, a ajouté une seizième tactique : Command and ControlAML.0015) — ainsi que 18 nouvelles techniques et 6 nouvelles mesures d'atténuation axées sur les contrôles de sécurité des agents IA. Cela a porté le nombre total de techniques de 66 à 84 et celui des études de cas de 33 à 42.
Le cycle de vie d'une attaque commence par une phase de reconnaissance, au cours de laquelle les adversaires recueillent des informations sur les systèmes ML ciblés. Les principales techniques utilisées sont les suivantes :
AML.0051) : Les adversaires créent des entrées malveillantes pour manipuler le comportement des LLM — cela correspond à OWASP LLM01.Ces tactiques spécifiques à l'IA décrivent comment les adversaires interagissent avec les modèles ML et les exploitent :
cybercriminels maintiennent leur accès et échappent à la détection grâce à :
Les tactiques de phase avancée se concentrent sur la réalisation des objectifs de l'adversaire :
AML.0020) : L'empoisonnement des données corrompt les données d'entraînement afin de manipuler le comportement du modèle — un problème critique. exfiltration de données vecteurComprendre les schémas de déplacement latéral aide les équipes de sécurité à suivre la progression des attaquants dans leurs tactiques.
ATLAS fournit des outils pratiques gratuits qui transforment le cadre de la documentation en capacités de sécurité exploitables. Cet écosystème d'outils comble une lacune importante en matière de contenu, car peu de concurrents couvrent ces ressources de manière exhaustive.
Tableau : Écosystème d'outils officiels MITRE ATLAS
ATLAS Navigator fournit une interface Web interactive permettant de visualiser la matrice du cadre. Les équipes de sécurité utilisent Navigator pour :
Navigator s'intègre à ATT&CK Navigator, offrant ainsi une vue unifiée des deux cadres. Les équipes qui utilisent déjà ATT&CK Navigator se familiariseront immédiatement avec l'interface ATLAS.
En mars 2023, Microsoft et MITRE ont annoncé leur collaboration sur Arsenal, un plugin CALDERA permettant l'émulation automatisée d'adversaires contre les systèmes d'IA. Arsenal met en œuvre les techniques ATLAS sans nécessiter d'expertise approfondie en apprentissage automatique.
Les principales fonctionnalités comprennent :
Arsenal soutient la recherche de menaces en validant la couverture de détection par rapport à des simulations d'attaques réalistes. Pour les équipes d'intervention en cas d'incident, Arsenal aide à comprendre les capacités des attaquants et à tester les procédures d'intervention.
L'initiative de partage des incidents liés à l'IA permet aux organisations de partager et de tirer des enseignements des incidents liés à la sécurité de l'IA. Cette plateforme communautaire offre :
Ces informations sont directement intégrées aux mises à jour d'ATLAS, garantissant ainsi que le cadre reflète les modèles de menaces actuels.
Les équipes de sécurité se demandent souvent quel cadre de sécurité IA adopter. La réponse : utilisez les trois pour une couverture complémentaire. Cette comparaison aide les équipes à comprendre quand appliquer chaque cadre, répondant ainsi à une question courante sur la PAA.
Tableau : Comparaison des cadres de sécurité IA : ATLAS vs OWASP vs NIST AI RMF
Selon l'analyse des cadres de Cloudsine, ces cadres servent différentes phases du cycle de vie de la sécurité de l'IA :
Tableau : Tableau comparatif des vulnérabilités courantes en matière d'IA
La compréhension des vulnérabilités dans les trois cadres permet une couverture complète. Les équipes doivent mettre en correspondance leurs actifs IA avec les techniques pertinentes dans chaque cadre.
L'intégration d'ATLAS dans les opérations de sécurité nécessite des techniques de cartographie des capacités de détection et des flux de travail. Selon le guide d'intégration SOC de ThreatConnect, environ 70 % des mesures d'atténuation d'ATLAS correspondent à des contrôles de sécurité existants. Les 30 % restants nécessitent de nouveaux contrôles spécifiques à l'IA.
Étapes pour l'intégration SOC :
Une détection efficace nécessite de mettre en correspondance les techniques ATLAS avec des sources de journaux et une logique de détection spécifiques.
Tableau : Exemple de cartographie de détection pour les techniques ATLAS prioritaires
détection et réponse aux incidents complètent la détection au niveau de la couche applicative. L'analyse du comportement des utilisateurs et des entités (UEBA) permet d'identifier les modèles d'accès anormaux aux systèmes d'IA.
Suivez ces indicateurs pour mesurer la mise en œuvre d'ATLAS :
Les examens trimestriels des modèles de menaces garantissent que la couverture reste en phase avec les mises à jour du cadre et les menaces émergentes.
ATLAS comprend 42 études de cas décrivant des attaques réelles contre des systèmes d'IA, contre 33 en octobre 2025. L'analyse de ces incidents fournit des informations utiles pour la défense qui vont au-delà de la modélisation théorique des menaces.
En novembre 2025, MITRE ATLAS a publié une étude de cas documentant des attaques deepfake contre les systèmes mobiles de détection de vivacité KYC (Know Your Customer). Selon Mobile ID World, cette attaque visait les plateformes bancaires, financières et de cryptomonnaie.
Progression de la chaîne d'attaque :
Reconnaissance -> Développement des ressources -> Accès initial -> Évasion de la défense -> Impact
Recommandations défensives :
Cette étude de cas montre comment les pirates combinent l'ingénierie sociale et les outils d'IA pour contourner les contrôles de sécurité, ce qui peut entraîner des violations de données.
L'étude de cas SesameOp, ajoutée à ATLAS fin 2025, décrit une nouvelle technique de porte dérobée qui exploite les API d'assistants IA à des fins de commande et de contrôle. Au lieu de mettre en place une infrastructure C2 traditionnelle, les attaquants ont détourné des API de services d'agents légitimes pour en faire des canaux de contrôle clandestins, dissimulant ainsi leurs activités malveillantes au sein des flux de travail IA normaux. Ce modèle d'attaque correspond à la nouvelle technique dite « API de services IA » (AML.0096) et montre comment une infrastructure d'IA agentique permet de créer commandement et contrôle des canaux qui échappent aux systèmes de détection réseau classiques.
Entre octobre 2025 et février 2026, le nombre d'études de cas d'ATLAS est passé de 33 à 42. Parmi les ajouts notables, on peut citer :
L'analyse HiddenLayer de l'étude de cas ATLAS AML.CS0003 documente la manière dont les chercheurs ont contourné un produit endpoint basé sur le ML :
Les menaces liées à l'IA nécessitent des méthodes de détection spécialisées qui vont au-delà des contrôles de sécurité traditionnels. Les attaques menées par des acteurs malveillants utilisant l'IA ayant bondi de 89 % par rapport aux années précédentes — contre une hausse de 72 % en 2025 —, les entreprises ont besoin de stratégies de défense proactives.
Liste de contrôle pour la sécurité de l'IA :
Les organisations doivent aligner leurs investissements en matière de sécurité de l'IA à la fois sur phishing ( phishing généré par l'IA phishing une croissance rapide) et la défense contre les ransomwares (l'IA permet des attaques plus sophistiquées).
AML.0051)Prompt injection la technique ATLAS la plus importante, répertoriée sous le nom de AML.0051 dans le cadre de la stratégie « Initial Access ». Les grands modèles linguistiques sont exposés à des vecteurs d'attaque spécifiques auxquels les mesures de sécurité traditionnelles ne peuvent pas faire face, et ATLAS répertorie systématiquement ces menaces.
Tableau : Types de menaces LLM avec cartographie ATLAS et méthodes de détection
Les CVE récents illustrent ces menaces dans la pratique :
Les capacités de détection et de réponse aux menaces d'identité permettent de détecter les tentatives de vol d'identifiants via l'exploitation de LLM.
La mise à jour ATLAS d'octobre 2025 traite spécifiquement des agents IA autonomes, c'est-à-dire des systèmes capables d'agir, d'accéder à des outils et de conserver le contexte d'une session à l'autre. Les nouvelles techniques comprennent :
AML.0058 Empoisonnement du contexte des agents IA: Injection de contenu malveillant dans la mémoire de l'agent ou le contexte du threadAML.0059 Déclencheurs d'activation: Intégration de déclencheurs qui s'activent dans des conditions spécifiquesAML.0060 Données provenant des services d'IA: Extraction d'informations via la récupération de données dans la base de données RAGAML.0061 Outils pour agents IA: Utilisation abusive de l'accès à l'outil agent à des fins malveillantesAML.0062 Exfiltration via l'invocation d'un outil agent IA: Utilisation d'appels d'outils légitimes pour extraire des donnéesPrincipes de sécurité pour les agents IA :
Selon les directives de la CISA de décembre 2025 relatives à l'IA/OT, les organisations doivent intégrer des dispositifs de surveillance et de sécurité pour tous les systèmes d'IA fonctionnant dans des environnements critiques.
Le protocole MCP (Model Context Protocol) — une norme ouverte permettant de connecter des agents IA à des outils et des sources de données externes — introduit des surfaces d'attaque auxquelles ATLAS s'attaque désormais de manière explicite. Les failles du protocole MCP permettent aux attaquants de manipuler la couche d'appel d'outils entre les agents IA et les systèmes d'entreprise, contournant ainsi les contrôles de sécurité traditionnels.
Les techniques ATLAS pertinentes pour la sécurité des MCP comprennent :
AML.0061): Des attaquants exploitent les configurations des serveurs MCP pour déclencher des actions non autorisées ou accéder à des données protégéesAML.0062): Les pirates exploitent des appels légitimes à des outils MCP pour extraire des données sensibles via des canaux autorisésAML.0096, ajouté en 2026) : Exploitation des API d'orchestration de l'IA pour des opérations de commande et de contrôle furtivesLa mise à jour ATLAS de janvier 2026 (v5.3.0) a ajouté trois nouvelles études de cas portant spécifiquement sur les compromissions de serveurs MCP, ainsi que sur prompt injection via les canaux MCP et le déploiement d'agents IA malveillants. Les équipes de sécurité doivent valider toutes les configurations des serveurs MCP, limiter les autorisations des outils au principe du moindre privilège et surveiller les schémas d'invocation des outils à la recherche d'anomalies.
Le paysage de la sécurité IA évolue rapidement, sous l'effet des pressions réglementaires et de la collaboration entre les acteurs du secteur qui favorisent l'adoption de cadres réglementaires. Les organisations doivent se préparer à faire face à la fois aux menaces émergentes et aux exigences de conformité.
Le programme MITRE Secure AI, soutenu par 16 organisations membres, dont Microsoft et JPMorgan Chase, vise à enrichir la base de données ATLAS avec des observations concrètes et à accélérer le partage d'informations sur les incidents liés à l'IA.
Évolution réglementaire :
Les menaces liées à l'IA ne cessent de se multiplier : selon une étude sectorielle, 87 % des entreprises déclarent avoir été exposées à des cyberattaques basées sur l'IA et 92 % se disent préoccupées par les implications de l'IA autonome en matière de sécurité.
Attack Signal Intelligence » Vectra AI s'appuie sur des principes de détection basés sur le comportement qui s'inscrivent dans les objectifs du cadre ATLAS. En se concentrant sur les comportements des attaquants plutôt que sur des signatures statiques, les entreprises peuvent détecter les techniques répertoriées dans ATLAS — prompt injection à l'exfiltration de données via des API d'inférence — dans cloud hybride.
Cette approche permet aux équipes de sécurité d'identifier et de hiérarchiser les menaces réelles liées à l'IA tout en réduisant le bruit des alertes. détection et réponse aux incidents à la détection des menaces d'identité, offrent une visibilité sur l'ensemble de la surface d'attaque que les menaces liées à l'IA ciblent désormais.
MITRE ATLAS offre l'approche structurée dont les organisations ont besoin pour protéger leurs systèmes d'IA contre des adversaires sophistiqués. Avec 16 tactiques, 84 techniques et des mises à jour régulières tenant compte des menaces émergentes telles que les attaques par IA agentique et les exploits MCP, ce cadre fournit des informations exploitables aux équipes de sécurité.
L'expansion rapide, passant de 15 tactiques en octobre 2025 à 16 tactiques et 84 techniques en février 2026, témoigne de la volonté d'ATLAS de suivre le rythme de l'évolution de l'IA. Alors que les attaques assistées par l'IA continuent de se multiplier et que des exigences réglementaires telles que la loi européenne sur l'IA entrent en vigueur, les organisations ne peuvent se permettre de considérer la sécurité de l'IA comme une question secondaire.
Commencez par ces mesures immédiates :
Pour les entreprises qui recherchent une sécurité IA complète allant au-delà de la simple adoption d'un cadre, la solution Attack Signal Intelligence Vectra AI Attack Signal Intelligence une détection basée sur le comportement qui identifie les techniques d'attaquants répertoriées dans le catalogue ATLAS, permettant ainsi aux équipes de sécurité de repérer et de neutraliser les menaces liées à l'IA dans les environnements hybrides.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) est une base de connaissances accessible à l'échelle mondiale qui répertorie les tactiques, les techniques et les études de cas des attaquants ciblant spécifiquement les systèmes d'IA et d'apprentissage automatique. Inspiré de MITRE ATT&CK, ATLAS offre un cadre structuré permettant de comprendre les menaces spécifiques à l'IA. En février 2026, il contenait 16 tactiques, 84 techniques, 56 sous-techniques, 32 mesures d'atténuation et 42 études de cas concrets. Les équipes de sécurité utilisent ATLAS pour la modélisation des menaces, le développement de la détection et les exercices de simulation d'attaques (red teaming) sur les systèmes d'IA. Ce cadre est accessible gratuitement sur atlas.mitre.org.
Alors qu'ATT&CK se concentre sur les menaces informatiques traditionnelles (IT/OT), ATLAS traite spécifiquement des attaques visant les systèmes d'IA et d'apprentissage automatique. ATLAS comprend deux tactiques uniques qui ne figurent pas dans ATT&CK : l'accès aux modèles d'apprentissage automatique (ML Model Access) et l'utilisation d'outils d'apprentissage automatique (ML Tool Usage).AML.0004) et ML Attack Staging (AML.0012). Les deux cadres utilisent la même structure matricielle et la même méthodologie TTP, ce qui rend ATLAS accessible aux équipes de sécurité déjà familiarisées avec ATT&CK. Les organisations devraient utiliser les deux cadres conjointement : ATT&CK pour les menaces liées à l'infrastructure et ATLAS pour les vecteurs d'attaque spécifiques à l'IA. Les cadres partagent des tactiques communes, mais les appliquent à des contextes technologiques différents.
En février 2026 (v5.4.0), MITRE ATLAS comptait 16 tactiques, 84 techniques et 56 sous-techniques, contre 15 tactiques et 66 techniques en octobre 2025. La mise à jour v5.1.0 de novembre 2025 a ajouté une 16e tactique et a porté le nombre total à 84 techniques, 32 mesures d'atténuation et 42 études de cas. La mise à jour v5.4.0 de février 2026 a ajouté d'autres techniques axées sur les agents, notamment « Publier un outil d'agent IA empoisonné » et « Échapper vers l'hôte ». Cela représente une croissance significative par rapport aux versions antérieures — certaines sources plus anciennes citent 56 ou 66 techniques, ce qui correspond aux chiffres antérieurs à novembre 2025. Reportez-vous toujours au CHANGELOG officiel d'ATLAS pour les statistiques actuelles.
Prompt injectionAML.0051) est une technique d'accès initial dans laquelle les attaquants créent des entrées malveillantes afin de manipuler le comportement des modèles de langage à grande échelle (LLM). ATLAS distingue prompt injection directe prompt injection contenu malveillant dans les entrées de l'utilisateur) de prompt injection indirecte prompt injection contenu malveillant intégré dans des sources de données externes traitées par le LLM). Cette technique correspond à la vulnérabilité OWASP LLM01 et constitue l'un des vecteurs d'attaque les plus courants contre les applications LLM. La détection se concentre sur l'analyse des modèles d'entrée et la surveillance du comportement en sortie. Des CVE récentes, notamment CVE-2025-32711 (EchoLeak), démontrent l'existence d'exploitations dans le monde réel.
Utilisez ATLAS Navigator pour visualiser le cadre et créer des couches personnalisées qui mappent vos ressources IA aux techniques pertinentes. Commencez par inventorier tous les modèles ML, les pipelines de formation et les applications compatibles avec l'IA. Identifiez les tactiques qui s'appliquent aux étapes de votre pipeline ML en fonction de l'architecture du système. Hiérarchisez les techniques en fonction de l'exposition et de la probabilité. Mappez les capacités de détection pour créer des visualisations de couverture. Intégrez ATLAS dans les méthodologies de modélisation des menaces existantes telles que STRIDE et ATT&CK pour une couverture complète. Réexaminez et mettez à jour les modèles de menaces tous les trimestres à mesure que le cadre évolue.
ATLAS propose plusieurs outils gratuits. Navigator offre une visualisation matricielle en ligne pour la modélisation des menaces et la cartographie de la couverture, avec des fonctionnalités d'exportation aux formats JSON, Excel et SVG. Arsenal est un plugin CALDERA destiné aux exercices de simulation de attaques automatisés basés sur l'IA, développé en collaboration avec Microsoft. L'initiative AI Incident Sharing Initiative permet le partage de renseignements sur les menaces au sein de la communauté grâce à des rapports d'incidents anonymisés. La base de données sur les risques liés à l'IA fournit des informations consultables sur les incidents et les vulnérabilités. Tous ces outils sont accessibles sur atlas.mitre.org et via les dépôts GitHub de MITRE. Ces outils transforment ATLAS, qui passe d'une simple documentation à des capacités de sécurité exploitables.
ATLAS et le Top 10 de l'OWASP LLM ont des objectifs complémentaires. ATLAS fournit un cadre de TTP (techniques, tactiques et procédures) axé sur l'attaquant pour la modélisation et la détection des menaces, tandis que l'OWASP propose une liste de vulnérabilités axée sur les développeurs pour un développement sécurisé. Utilisez l'OWASP pendant les phases de développement et de révision du code ; utilisez ATLAS pour la sécurité opérationnelle, la modélisation des menaces et le développement de systèmes de détection. De nombreuses vulnérabilités apparaissent dans les deux cadres, mais sous des angles différents — par exemple, prompt injection une technique ATLAS AML.0051 et OWASP LLM01. La meilleure approche consiste à combiner ces deux cadres avec le NIST AI RMF pour la gouvernance.
La base de connaissances MITRE ATLAS sur l'apprentissage automatique adversaire est un référentiel structuré regroupant des tactiques, des techniques, des sous-techniques, des mesures d'atténuation et des études de cas concrets axés sur les attaques visant les systèmes d'IA et d'apprentissage automatique. En février 2026 (v5.4.0), la base de connaissances contenait 16 tactiques, 84 techniques, 56 sous-techniques, 32 mesures d'atténuation et 42 études de cas. Elle est accessible gratuitement sur atlas.mitre.org et ses données sont disponibles au format STIX 2.1 pour une intégration lisible par machine avec des outils de sécurité et des plateformes de renseignements sur les menaces.
Les études de cas MITRE ATLAS sont des incidents réels documentés dans lesquels des attaquants ont ciblé des systèmes d'IA et d'apprentissage automatique, et qui sont mis en correspondance avec des tactiques et techniques ATLAS spécifiques. En février 2026, ATLAS comptait 42 études de cas couvrant des attaques allant du contournement des procédures KYC à l'aide de deepfakes et de la contournement des modèles d'apprentissage automatique jusqu'aux portes dérobées dans les agents IA et au détournement de transactions financières via des assistants IA. Parmi les exemples notables, citons l'étude de cas iProov sur les deepfakes ciblant les services bancaires mobiles, la porte dérobée de l'agent IA SesameOp (AML.CS0042) et les scénarios de compromission de serveurs MCP. Les équipes de sécurité utilisent ces études de cas pour comprendre les chaînes d'attaques réelles et valider la couverture de détection.
ATLAS Navigator propose une interface Web interactive sur atlas.mitre.org permettant de visualiser la matrice ATLAS. Pour exporter des couches de couverture, créez une couche personnalisée en sélectionnant les techniques pertinentes et en attribuant des scores en fonction de votre couverture de détection. Accédez aux commandes de couche et exportez au format JSON pour une utilisation programmatique, au format Excel pour une analyse par les analystes ou au format SVG pour la création de rapports visuels. Les équipes peuvent combiner plusieurs couches à l'aide d'expressions de score (comme la somme de deux couches) pour visualiser les chevauchements ou les lacunes de couverture. Navigator s'intègre à ATT&CK Navigator, offrant ainsi une vue unifiée sur les cadres de menaces traditionnels et ceux spécifiques à l'IA.