MITRE ATLAS expliqué : le guide complet sur les renseignements relatifs aux menaces de sécurité liées à l'IA

Aperçu de la situation

  • MITRE ATLAS catalogs 16 tactics, 84 techniques, and 56 sub-techniques specifically targeting AI and machine learning systems, up from 15 tactics and 66 techniques as of October 2025.
  • The November 2025 framework update (v5.1.0) expanded to 16 tactics, 84 techniques, 32 mitigations, and 42 case studies, with continued updates through February 2026 adding agentic AI techniques.
  • ATLAS complète plutôt qu'il ne concurrence OWASP LLM Top 10 et NIST AI RMF — utilisez les trois pour une couverture complète.
  • Environ 70 % des mesures d'atténuation ATLAS correspondent à des contrôles de sécurité existants, ce qui rend leur intégration aux workflows SOC actuels tout à fait réalisable.
  • Des outils gratuits, notamment ATLAS Navigator et Arsenal, permettent de modéliser immédiatement les menaces et offrent des capacités de red teaming.

Organizations deploying artificial intelligence face a new frontier of security threats that traditional frameworks were never designed to address. AI-enabled adversary attacks surged 89% compared to prior years according to industry threat intelligence research, up from a 72% increase reported in 2025. This escalation demands a structured approach to understanding and defending against adversarial threats to AI systems. Enter MITRE ATLAS — the Adversarial Threat Landscape for Artificial-Intelligence Systems — a comprehensive adversarial ML knowledge base designed specifically to catalog how attackers target machine learning and AI systems.

Pour les équipes de sécurité déjà familiarisées avec MITRE ATT&CK, ATLAS (parfois appelé Atlas MITRE dans les moteurs de recherche) constitue une extension naturelle dans le domaine de la sécurité IA. Ce guide fournit tout ce dont les analystes en sécurité, les responsables SOC et les ingénieurs IA ont besoin pour mettre en œuvre ATLAS contre les attaques IA adversaires, des principes fondamentaux du cadre aux stratégies de détection pratiques.

Qu'est-ce que MITRE ATLAS ?

MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) is a globally accessible adversarial ML knowledge base that documents adversary tactics, techniques, and procedures (TTPs) specifically targeting artificial intelligence and machine learning systems. Modeled after the widely adopted MITRE ATT&CK framework, this adversarial AI knowledge base provides security teams with a structured approach to understanding, detecting, and defending against AI-specific threats. The MITRE ATLAS framework serves as the definitive machine learning security framework for AI threat modeling.

As of version 5.1.0 (November 2025), the framework contains 16 tactics, 84 techniques, 56 sub-techniques, 32 mitigations, and 42 real-world case studies according to the official MITRE ATLAS CHANGELOG, up from 15 tactics and 66 techniques in October 2025. The February 2026 update (v5.4.0) added further agent-focused techniques. This rapid growth reflects the accelerating evolution of AI threats.

L'apprentissage automatique antagoniste, qui consiste à étudier les attaques contre les systèmes d'apprentissage automatique et les moyens de défense contre celles-ci, englobe quatre grandes catégories d'attaques répertoriées par le NIST: les attaques par évasion, par empoisonnement, par atteinte à la vie privée et par abus. ATLAS organise ces modèles d'attaque dans une structure matricielle que les professionnels de la sécurité peuvent immédiatement mettre à profit.

MITRE a créé ATLAS pour combler une lacune critique dans le paysage de la sécurité. Si ATT&CK répertorie efficacement les menaces pesant sur les infrastructures informatiques et OT traditionnelles, il ne couvre pas les attaques qui exploitent les caractéristiques uniques des systèmes d'apprentissage automatique. ATLAS comble cette lacune en proposant la même approche rigoureuse et validée par la communauté en matière de renseignements sur les menaces liées à l'IA.

Le cadre est également connecté à MITRE D3FEND, qui fournit des contre-mesures défensives que les organisations peuvent mettre en place pour contrer les techniques ATLAS.

ATLAS vs MITRE ATT&CK: principales différences

Comprendre la distinction entre ATLAS et ATT&CK aide les équipes de sécurité à déterminer quand appliquer chaque cadre.

Tableau : Comparaison des cadres MITRE ATT&CK MITRE ATLAS

Aspect MITRE ATT&CK MITRE ATLAS
Objectif principal Comportements adversaires traditionnels en matière d'informatique et de technologie opérationnelle Comportements adversaires spécifiques à l'IA/ML
Nombre de tactiques 14 tactiques (Entreprise) 16 tactics (14 inherited + 2 AI-specific)
Nombre de techniques Plus de 196 techniques 84 techniques
Tactiques uniques Aucun spécifique à l'IA Accès au modèle ML, préparation de l'attaque ML
Systèmes cibles Terminaux, réseaux, cloud Modèles ML, pipelines de formation, LLM
Études de cas Groupes et profils logiciels 42 AI-specific incident analyses
Idéal pour Modélisation des menaces sur Endpoint Modélisation des menaces pour les systèmes d'IA

ATLAS hérite de 13 tactiques d'ATT&CK, notamment la reconnaissance, l'accès initial, l'exécution et l'exfiltration, mais les applique spécifiquement aux contextes d'IA. Les deux tactiques spécifiques à l'IA propres à ATLAS sont les suivantes :

  • Accès au modèle ML (AML.0004) : Décrit comment les adversaires accèdent aux modèles ML cibles via des API d'inférence ou un accès direct aux artefacts.
  • Préparation d'une attaque ML (AML.0012) : Traite de la manière dont les adversaires préparent leurs attaques visant les modèles d'apprentissage automatique, notamment l'empoisonnement des données d'entraînement et porte dérobée insertion

Les équipes de sécurité doivent utiliser les deux cadres conjointement pour bénéficier d'une couverture complète : ATT&CK pour les menaces traditionnelles pesant sur les infrastructures et ATLAS pour les vecteurs d'attaque spécifiques à l'IA.

Fonctionnement d'ATLAS : structure du cadre et matrice MITRE ATLAS

La base de connaissances officielle MITRE ATLAS organise les informations sur les menaces à l'aide de la même structure matricielle qui a fait le succès d'ATT&CK. La compréhension de cette structure permet une détection efficace des menaces et une modélisation des menaces par l'IA.

The MITRE ATLAS matrix (sometimes called the MITRE framework matrix for AI or the AI threat matrix) displays tactics as columns and techniques as rows. Each cell represents a specific method adversaries use to achieve tactical goals against AI systems. This visual organization allows security teams to quickly identify coverage gaps and prioritize defenses.

Les composants du cadre fonctionnent ensemble :

  1. Les tactiques répondent à la question « pourquoi » : l'objectif de l'adversaire à chaque étape de l'attaque.
  2. Les techniques répondent à la question « comment » : il s'agit de méthodes spécifiques permettant d'atteindre des objectifs tactiques.
  3. Les sous-techniques fournissent des détails précis sur les variations techniques.
  4. Les mesures d'atténuation décrivent les mesures défensives qui permettent de contrer des techniques spécifiques.
  5. Des études de cas documentent des attaques réelles mises en correspondance avec les TTP ATLAS.

Les données ATLAS sont disponibles au format STIX 2.1, ce qui permet une intégration lisible par machine avec les outils et plateformes de sécurité. Ce format standardisé prend en charge l'ingestion automatisée dans les plateformes de renseignements sur les menaces et les systèmes SIEM.

The framework receives regular updates through community contributions and MITRE's ongoing research. The October 2025 update through Zenity Labs collaboration added 14 new agent-focused techniques, followed by the November 2025 v5.1.0 release that expanded the framework to 16 tactics with 84 techniques. The February 2026 v5.4.0 update added further techniques including "Publish Poisoned AI Agent Tool" and "Escape to Host," demonstrating the framework's active evolution.

Comprendre les tactiques, techniques et procédures (TTP)

Les tactiques, techniques et procédures (TTP) constituent le vocabulaire de base de la défense informée par les menaces. Dans ATLAS :

  • Tactics represent adversary goals at each phase of an attack against AI systems. The 16 ATLAS tactics span from initial reconnaissance through ultimate impact and command and control.
  • Techniques décrivez les actions spécifiques entreprises par les adversaires pour atteindre leurs objectifs tactiques. Chaque technique possède un identifiant unique au format AML.TXXXX.
  • Sous-techniques décomposer les techniques en variantes plus spécifiques. Par exemple, prompt injectionAML.0051) comprend des sous-techniques pour les méthodes d'injection directe et indirecte.
  • Les procédures apparaissent dans des études de cas, montrant exactement comment les pirates informatiques ont mis en œuvre des techniques spécifiques dans le monde réel.

Cette hiérarchie permet une modélisation progressive et détaillée des menaces. Les équipes peuvent commencer par une analyse de couverture au niveau tactique, puis approfondir leur analyse pour se concentrer sur des techniques spécifiques en fonction de l'exposition de leur système d'IA.

The 16 ATLAS tactics and key techniques

ATLAS organizes 84 techniques across 16 tactics that span the complete adversarial lifecycle, up from 15 tactics and 66 techniques in October 2025. This comprehensive breakdown addresses a significant content gap identified in competitor analysis — no existing guide covers all tactics with detection-focused guidance.

Table: MITRE ATLAS tactics with key techniques

Identifiant tactique Nom de la tactique Techniques clés Détection Focus
AML.0001 Reconnaissance Découvrez les artefacts ML, découvrez l'ontologie des modèles ML, analyse active Moniteur pour sondage de l'architecture du modèle
AML.0002 Développement des ressources Acquérir des artefacts ML publics, développer des capacités d'attaque ML adversaires Suivre l'émergence d'outils adversaires
AML.0003 Accès Initial Supply Chain ML, Prompt InjectionAML.0051) Audit de la chaîne d'approvisionnement, validation des données
AML.0004 Accès au modèle ML Accès à l'API d'inférence, accès aux artefacts ML Journalisation des accès à l'API, intégrité des artefacts
AML.0005 Exécution Exécution utilisateur, compromission du plugin LLM Surveillance de la sécurité des plugins
AML.0006 Persistance Modifier la configuration de l'agent IA Détection des changements de configuration
AML.0007 Élévation de privilèges Exploitation via le système ML Surveillance des limites du système ML
AML.0008 Défense Evasion Perturbation antagoniste, extraction de méta-invites LLM Détection des anomalies de comportement des modèles
AML.0009 Accès aux identifiants Informations d'identification provenant de la configuration de l'agent IA Surveillance de l'accès à la configuration de l'agent
AML.0010 Découverte Découvrez la configuration des agents IA Détection des tentatives d'énumération
AML.0011 Collection Données provenant des services d'IA, récupération de la base de données RAG Analyse des modèles d'accès aux données
AML.0012 Préparation d'une attaque ML Données d'entraînement sur les poisons (AML.0020), Modèle ML Backdoor Surveillance de l'intégrité des données d'entraînement
AML.0013 Exfiltration Exfiltration via l'API d'inférence ML, exfiltration via l'invocation de l'outil AI Agent Détection des anomalies dans l'utilisation des API
AML.0014 Impact Refus de service ML, contournement du modèle ML, spam du système ML Surveillance de la disponibilité des services
AML.0015 Command and Control Reverse Shell, AI Service API (AML.0096) C2 channel detection in AI infrastructure

The November 2025 v5.1.0 release added a 16th tactic — Command and Control (AML.0015) — along with 18 new techniques and 6 new mitigations focused on AI agent security controls. This brought the total from 66 to 84 techniques and from 33 to 42 case studies.

Reconnaissance par accès initial (AML.TA0001-AML.TA0003)

Le cycle de vie d'une attaque commence par une phase de reconnaissance, au cours de laquelle les adversaires recueillent des informations sur les systèmes ML ciblés. Les principales techniques utilisées sont les suivantes :

  • Découvrez les artefacts ML: les adversaires recherchent dans les référentiels publics, la documentation et les API pour comprendre les architectures des modèles et les données d'entraînement.
  • Supply Chain ML: les pirates ciblent les attaques de la chaîne logistique en insérant du code ou des données malveillants dans les pipelines ML.
  • Prompt Injection (AML.0051) : Les adversaires créent des entrées malveillantes pour manipuler le comportement des LLM — cela correspond à OWASP LLM01.

Accès et exécution du modèle ML (AML.TA0004-AML.TA0005)

Ces tactiques spécifiques à l'IA décrivent comment les adversaires interagissent avec les modèles ML et les exploitent :

  • Accès à l'API d'inférence: l'accès aux interfaces de prédiction des modèles permet la reconnaissance et la préparation des attaques.
  • Compromission des plugins LLM: l'exploitation des plugins vulnérables étend les capacités des attaquants au sein des systèmes d'IA.

Persistance par contournement des mesures de défense (AML.TA0006-AML.TA0008)

cybercriminels maintiennent leur accès et échappent à la détection grâce à :

  • Modification de la configuration de l'agent IA (ajout en octobre 2025) : les attaquants modifient les paramètres de l'agent pour maintenir la persistance.
  • Perturbation antagoniste: création d'entrées qui induisent les modèles en erreur tout en paraissant normales aux humains.

Collecte par impact (AML.TA0009-AML.TA0014)

Les tactiques de phase avancée se concentrent sur la réalisation des objectifs de l'adversaire :

  • Récupération de données dans la base de données RAG: extraction d'informations sensibles à partir de systèmes de génération augmentés par la récupération
  • Données d'entraînement sur les poisons (AML.0020) : L'empoisonnement des données corrompt les données d'entraînement afin de manipuler le comportement du modèle — un problème critique. exfiltration de données vecteur
  • Exfiltration via l'invocation d'un outil agent IA (ajout en octobre 2025) : exploitation de l'accès à l'outil agent pour extraire des données.

Comprendre les schémas de déplacement latéral aide les équipes de sécurité à suivre la progression des attaquants dans leurs tactiques.

Écosystème d'outils ATLAS

ATLAS fournit des outils pratiques gratuits qui transforment le cadre de la documentation en capacités de sécurité exploitables. Cet écosystème d'outils comble une lacune importante en matière de contenu, car peu de concurrents couvrent ces ressources de manière exhaustive.

Tableau : Écosystème d'outils officiels MITRE ATLAS

Outil Objectif URL Caractéristiques principales
Navigateur ATLAS Visualisation et annotation de matrices atlas.mitre.org Couches personnalisées, cartographie de couverture, capacités d'exportation
Arsenal Émulation automatisée d'adversaires github.com/mitre-atlas/arsenal Plugin CALDERA, mise en œuvre technique, automatisation de la red team
Partage d'incidents liés à l'IA Renseignements sur les menaces communautaires ai-incidents.mitre.org Rapports d'incidents anonymisés, base de données sur les vulnérabilités
Base de données sur les risques liés à l'IA Référentiel des incidents et des vulnérabilités ai-incidents.mitre.org Incidents consultables, intégration CVE

Présentation du navigateur ATLAS

ATLAS Navigator fournit une interface Web interactive permettant de visualiser la matrice du cadre. Les équipes de sécurité utilisent Navigator pour :

  1. Cartographie de la couverture: créez des couches personnalisées indiquant les techniques auxquelles s'appliquent vos contrôles de sécurité.
  2. Modélisation des menaces: mettez en avant les techniques pertinentes en fonction de l'architecture de votre système d'IA.
  3. Analyse des écarts: identifier les techniques sans capacités de détection correspondantes
  4. Rapports: Exporter des visualisations pour la communication avec les parties prenantes

Navigator s'intègre à ATT&CK Navigator, offrant ainsi une vue unifiée des deux cadres. Les équipes qui utilisent déjà ATT&CK Navigator se familiariseront immédiatement avec l'interface ATLAS.

Arsenal pour le red teaming en IA

En mars 2023, Microsoft et MITRE ont annoncé leur collaboration sur Arsenal, un plugin CALDERA permettant l'émulation automatisée d'adversaires contre les systèmes d'IA. Arsenal met en œuvre les techniques ATLAS sans nécessiter d'expertise approfondie en apprentissage automatique.

Les principales fonctionnalités comprennent :

  • Profils d'adversaires prédéfinis basés sur les tactiques ATLAS
  • Exécution automatisée de chaînes d'attaques pour les exercices de l'équipe violette
  • Résultats directement associés aux identifiants de la technique ATLAS
  • Intégration avec les déploiements CALDERA existants

Arsenal soutient la recherche de menaces en validant la couverture de détection par rapport à des simulations d'attaques réalistes. Pour les équipes d'intervention en cas d'incident, Arsenal aide à comprendre les capacités des attaquants et à tester les procédures d'intervention.

Initiative de partage des incidents liés à l'IA

L'initiative de partage des incidents liés à l'IA permet aux organisations de partager et de tirer des enseignements des incidents liés à la sécurité de l'IA. Cette plateforme communautaire offre :

  • Rapports d'incidents anonymisés avec cartographie par la technique ATLAS
  • Base de données consultable sur les vulnérabilités et les attaques liées à l'IA
  • Intégration avec les groupes de travail CVE et CWE AI
  • Analyse des tendances à partir des incidents signalés

Ces informations sont directement intégrées aux mises à jour d'ATLAS, garantissant ainsi que le cadre reflète les modèles de menaces actuels.

Comparaison des cadres : ATLAS vs OWASP LLM Top 10 vs NIST AI RMF

Les équipes de sécurité se demandent souvent quel cadre de sécurité IA adopter. La réponse : utilisez les trois pour une couverture complémentaire. Cette comparaison aide les équipes à comprendre quand appliquer chaque cadre, répondant ainsi à une question courante sur la PAA.

Tableau : Comparaison des cadres de sécurité IA : ATLAS vs OWASP vs NIST AI RMF

Le cadre Focus Public Meilleur pour
MITRE ATLAS Techniques, tactiques et procédures adverses pour les systèmes d'IA Opérations de sécurité, chasseurs de menaces Modélisation des menaces, développement de la détection, équipes rouges
Top 10 OWASP LLM Vulnérabilités des applications LLM Développeurs, ingénieurs AppSec Développement sécurisé, révision du code, évaluation des vulnérabilités
Cadre de gestion des risques liés à l'intelligence artificielle du NIST Gouvernance des risques liés à l'IA Gestionnaires des risques, équipes chargées de la conformité Gouvernance organisationnelle, conformité réglementaire

Selon l'analyse des cadres de Cloudsine, ces cadres servent différentes phases du cycle de vie de la sécurité de l'IA :

  • Phase de développement: les 10 principaux guides OWASP LLM sur les pratiques de codage sécurisé
  • Phase opérationnelle: ATLAS informe les stratégies de modélisation et de détection des menaces.
  • Phase de gouvernance: le cadre RMF du NIST pour l'IA structure la gestion des risques et la conformité

Tableau croisé : correspondance entre les cadres

Tableau : Tableau comparatif des vulnérabilités courantes en matière d'IA

Vulnérabilité Technique ATLAS OWASP LLM Fonction RMF IA du NIST
Prompt injection AML.0051 LLM01 Carte, Mesure
Empoisonnement des données AML.0020 LLM03 Gérer
Chaîne d'approvisionnement Supply Chain ML LLM05 Gouverner
Vol de modèle Extraction de modèle LLM10 Gérer

La compréhension des vulnérabilités dans les trois cadres permet une couverture complète. Les équipes doivent mettre en correspondance leurs actifs IA avec les techniques pertinentes dans chaque cadre.

Intégration et opérationnalisation du SOC

L'intégration d'ATLAS dans les opérations de sécurité nécessite des techniques de cartographie des capacités de détection et des flux de travail. Selon le guide d'intégration SOC de ThreatConnect, environ 70 % des mesures d'atténuation d'ATLAS correspondent à des contrôles de sécurité existants. Les 30 % restants nécessitent de nouveaux contrôles spécifiques à l'IA.

Étapes pour l'intégration SOC :

  1. Inventaire des actifs IA: documentez tous les modèles ML, pipelines de formation et applications basées sur l'IA.
  2. Mapper les techniques aux actifs: identifiez les techniques ATLAS applicables en fonction de votre architecture IA.
  3. Évaluer la couverture actuelle: utiliser Navigator pour visualiser les capacités de détection existantes.
  4. Hiérarchisez les lacunes: concentrez-vous sur les techniques à fort impact pertinentes pour votre environnement.
  5. Développer des règles de détection: créer des règles SIEM et des alertes pour les techniques prioritaires.
  6. Établir des références: définir le comportement normal pour la télémétrie des systèmes d'IA
  7. Intégration aux flux de travail: ajoutez le contexte ATLAS aux procédures d'alerte, de triage et d'enquête.
  8. Révision trimestrielle: mise à jour des modèles de menaces à mesure que l'ATLAS évolue

Mappage des règles de détection

Une détection efficace nécessite de mettre en correspondance les techniques ATLAS avec des sources de journaux et une logique de détection spécifiques.

Tableau : Exemple de cartographie de détection pour les techniques ATLAS prioritaires

Technique ATLAS Source du journal Logique de détection Priorité
Prompt InjectionAML.0051) Journaux d'application, passerelle API Modèles d'entrée inhabituels, signatures d'injection Critique
Empoisonnement des données (AML.0020) Journaux de formation Anomalies dans la distribution des données, violations de provenance Haut
API d'inférence ML Exfiltration API access logs, cloud security logs Requêtes à haut volume, modèles d'accès inhabituels Haut
Extraction de modèle Journaux de l'API d'inférence Requisitions systématiques sondant les limites du modèle Moyenne

détection et réponse aux incidents complètent la détection au niveau de la couche applicative. L'analyse du comportement des utilisateurs et des entités (UEBA) permet d'identifier les modèles d'accès anormaux aux systèmes d'IA.

Suivi des indicateurs et de la couverture

Suivez ces indicateurs pour mesurer la mise en œuvre d'ATLAS :

  • Couverture technique: pourcentage de techniques pertinentes avec règles de détection
  • Latence de détection: délai entre l'exécution de l'attaque et la génération de l'alerte
  • Taux de faux positifs: précision des alertes pour les détections spécifiques à l'IA
  • Actualité du modèle de menace: nombre de jours écoulés depuis la dernière mise à jour basée sur les informations fournies par ATLAS

Les examens trimestriels des modèles de menaces garantissent que la couverture reste en phase avec les mises à jour du cadre et les menaces émergentes.

Études de cas et enseignements tirés

ATLAS includes 42 case studies documenting real-world attacks against AI systems, up from 33 in October 2025. Analyzing these incidents provides actionable defensive insights that go beyond theoretical threat modeling.

Analyse de l'étude de cas iProov sur les deepfakes

En novembre 2025, MITRE ATLAS a publié une étude de cas documentant des attaques deepfake contre les systèmes mobiles de détection de vivacité KYC (Know Your Customer). Selon Mobile ID World, cette attaque visait les plateformes bancaires, financières et de cryptomonnaie.

Progression de la chaîne d'attaque :

Reconnaissance -> Développement des ressources -> Accès initial -> Évasion de la défense -> Impact

  1. Reconnaissance: les pirates ont recueilli des informations sur l'identité de leur cible grâce à des techniques d'ingénierie sociale via les profils des réseaux sociaux.
  2. Développement des ressources: les adversaires ont acquis des outils d'IA permettant d'échanger les visages (Faceswap, Deep Live Cam).
  3. Accès initial: l'injection de caméra virtuelle OBS a contourné les exigences relatives aux caméras physiques.
  4. Évasion de la défense: les deepfakes générés par l'IA ont déjoué les algorithmes de détection du caractère vivant
  5. Impact: création frauduleuse d'un compte et contournement de la vérification d'identité réussis

Recommandations défensives :

  • Mettre en œuvre une vérification multimodale au-delà de la reconnaissance faciale
  • Déployer l'attestation des appareils pour détecter l'injection de caméras virtuelles
  • Surveiller les signes de supports synthétiques dans les captures biométriques
  • Mettre en place une détection améliorée du caractère vivant grâce à la détection de profondeur

Cette étude de cas montre comment les pirates combinent l'ingénierie sociale et les outils d'IA pour contourner les contrôles de sécurité, ce qui peut entraîner des violations de données.

SesameOp AI agent backdoor case study (AML.CS0042)

The SesameOp case study, added to ATLAS in late 2025, documents a novel backdoor technique that leverages AI assistant APIs for command and control. Instead of building traditional C2 infrastructure, adversaries repurposed legitimate agent service APIs as covert control channels — blending malicious activity into normal AI workflows. This attack pattern maps to the new AI Service API technique (AML.0096) and demonstrates how agentic AI infrastructure creates command and control channels that evade conventional network detection.

Additional notable case studies (2025-2026)

ATLAS expanded from 33 to 42 case studies between October 2025 and February 2026. Notable additions include:

  • Financial Transaction Hijacking with M365 Copilot as an Insider — demonstrating how AI assistants can be exploited for unauthorized financial operations
  • Organization Confusion on Hugging Face — highlighting risks from model repository misuse in supply chain attacks
  • MCP Server Compromise (January 2026) — documenting attacks against Model Context Protocol infrastructure

Contournement endpoint Cylance endpoint

L'analyse HiddenLayer de l'étude de cas ATLAS AML.CS0003 documente la manière dont les chercheurs ont contourné un produit endpoint basé sur le ML :

  • Les attaquants ont utilisé des techniques de perturbation antagonistes pour créer malware qui échappaient à la détection.
  • L'attaque a démontré une évasion du modèle sans connaissance de l'architecture sous-jacente du modèle.
  • Les leçons défensives comprennent la diversité des modèles et la validation des entrées pour les outils de sécurité basés sur le ML.

Détecter et prévenir les menaces liées à l'IA

AI security threats require specialized detection approaches that go beyond traditional security controls. With AI-enabled adversary attacks surging 89% compared to prior years — up from a 72% increase in 2025 — organizations need proactive defense strategies.

Liste de contrôle pour la sécurité de l'IA :

  • [ ] Mettre en œuvre la validation et la désinfection des entrées pour toutes les interactions LLM
  • [ ] Mettre en place prompt injection au niveau de la couche applicative
  • [ ] Établir la traçabilité des données d'entraînement et la surveillance de leur intégrité
  • [ ] Surveiller les modèles d'accès à l'API d'inférence afin de détecter les anomalies
  • [ ] Vérifier régulièrement les configurations et les autorisations des agents IA.
  • [ ] Intégrer les alertes spécifiques à l'IA dans les workflows SOC existants
  • [ ] Organiser régulièrement des exercices d'équipe rouge IA à l'aide d'Arsenal
  • [ ] S'abonner aux flux d'informations sur les menaces liées à l'IA

Les organisations doivent aligner leurs investissements en matière de sécurité de l'IA à la fois sur phishing ( phishing généré par l'IA phishing une croissance rapide) et la défense contre les ransomwares (l'IA permet des attaques plus sophistiquées).

Prompt injection techniques in MITRE ATLAS (AML.0051)

Prompt injection is the most prominent ATLAS technique, cataloged as AML.0051 under the Initial Access tactic. Large language models face unique attack vectors that traditional security cannot address, and ATLAS catalogs these threats systematically.

Tableau : Types de menaces LLM avec cartographie ATLAS et méthodes de détection

Type de menace Technique ATLAS Méthode de détection Atténuation
prompt injection AML.0051.001 Analyse des modèles d'entrée Assainissement des entrées, hiérarchie des instructions
prompt injection indirecte AML.0051.002 Validation de la source du contenu Contrôles des sources de données, sandboxing
LLM jailbreaking AML.0051 Surveillance du comportement de sortie Barrières de sécurité, filtrage des sorties
Manipulation de la fenêtre de contexte AML.0051 Surveillance de la longueur du contexte Limites contextuelles, résumé
empoisonnement par RAG AML.0060 Contrôles d'intégrité des documents Vérification des sources, contrôles d'accès

Les CVE récents illustrent ces menaces dans la pratique :

  • CVE-2025-32711 (EchoLeak): D'après l'analyse de Hack The Box, cette vulnérabilité de Microsoft Copilot permettait l'exfiltration de données sans interaction de l'utilisateur (zero-click) via prompt injection à la réflexion de lignes de commande
  • CVE-2025-54135/54136 (CurXecute): selon un article de BleepingComputer, l'implémentation de MCP dans l'IDE Cursor permettait l'exécution de code à distance via prompt injection

Les capacités de détection et de réponse aux menaces d'identité permettent de détecter les tentatives de vol d'identifiants via l'exploitation de LLM.

Considérations relatives à la sécurité de l'IA agentique

La mise à jour ATLAS d'octobre 2025 traite spécifiquement des agents IA autonomes, c'est-à-dire des systèmes capables d'agir, d'accéder à des outils et de conserver le contexte d'une session à l'autre. Les nouvelles techniques comprennent :

  • AML.0058 Empoisonnement du contexte des agents IA: Injection de contenu malveillant dans la mémoire de l'agent ou le contexte du thread
  • AML.0059 Déclencheurs d'activation: Intégration de déclencheurs qui s'activent dans des conditions spécifiques
  • AML.0060 Données provenant des services d'IA: Extraction d'informations via la récupération de données dans la base de données RAG
  • AML.0061 Outils pour agents IA: Utilisation abusive de l'accès à l'outil agent à des fins malveillantes
  • AML.0062 Exfiltration via l'invocation d'un outil agent IA: Utilisation d'appels d'outils légitimes pour extraire des données

Principes de sécurité pour les agents IA :

  1. Appliquer le principe du moindre privilège à toutes les autorisations des outils agents
  2. Mettre en œuvre le principe « human-in-the-loop » pour les opérations sensibles
  3. Surveiller en permanence les modifications apportées à la configuration des agents
  4. Valider les configurations et les connexions du serveur MCP
  5. Établir des références comportementales pour les agents afin de détecter les anomalies

Selon les directives de la CISA de décembre 2025 relatives à l'IA/OT, les organisations doivent intégrer des dispositifs de surveillance et de sécurité pour tous les systèmes d'IA fonctionnant dans des environnements critiques.

MCP security and ATLAS technique mapping

The Model Context Protocol (MCP) — an open standard for connecting AI agents to external tools and data sources — introduces attack surfaces that ATLAS now explicitly addresses. MCP exploits allow adversaries to manipulate the tool-calling layer between AI agents and enterprise systems, bypassing traditional security controls.

ATLAS techniques relevant to MCP security include:

  • Outils pour agents IA (AML.0061): Adversaries exploit MCP server configurations to invoke unauthorized tool actions or access restricted data
  • Exfiltration via l'invocation d'un outil agent IA (AML.0062): Attackers leverage legitimate MCP tool calls to extract sensitive data through sanctioned channels
  • Publish Poisoned AI Agent Tool (added February 2026): Adversaries create malicious versions of legitimate MCP tools that appear safe but execute harmful actions when invoked
  • AI Service API (AML.0096, added 2026): Exploiting AI orchestration APIs for stealthy command and control

The January 2026 ATLAS update (v5.3.0) added three new case studies specifically covering MCP server compromises, indirect prompt injection via MCP channels, and malicious AI agent deployment. Security teams should validate all MCP server configurations, restrict tool permissions to least privilege, and monitor tool invocation patterns for anomalies.

Approches modernes en matière de sécurité de l'IA

Le paysage de la sécurité IA évolue rapidement, sous l'effet des pressions réglementaires et de la collaboration entre les acteurs du secteur qui favorisent l'adoption de cadres réglementaires. Les organisations doivent se préparer à faire face à la fois aux menaces émergentes et aux exigences de conformité.

The MITRE Secure AI Program, supported by 16 member organizations including Microsoft and JPMorgan Chase, focuses on expanding ATLAS with real-world observations and expediting AI incident sharing.

Évolution réglementaire :

  • Loi européenne sur l'IA: les obligations relatives à l'IA à usage général (GPAI) sont entrées en vigueur en août 2025, imposant des tests adversaires pour les systèmes d'IA présentant un risque systémique et une protection de la cybersécurité contre les accès non autorisés.
  • Directives de la CISA: la publication multi-agences de décembre 2025 traite de la sécurité de l'IA dans les environnements technologiques opérationnels.

AI security threats continue to accelerate, with 87% of organizations reporting AI-powered cyberattack exposure and 92% expressing concern over agentic AI security implications according to industry research.

Comment Vectra AI les menaces liées à l'IA

Vectra AI's Attack Signal Intelligence methodology applies behavior-based detection principles that align with ATLAS framework objectives. By focusing on attacker behaviors rather than static signatures, organizations can detect the techniques cataloged in ATLAS — from prompt injection attempts to data exfiltration via inference APIs — across hybrid cloud environments.

Cette approche permet aux équipes de sécurité d'identifier et de hiérarchiser les menaces réelles liées à l'IA tout en réduisant le bruit des alertes. détection et réponse aux incidents à la détection des menaces d'identité, offrent une visibilité sur l'ensemble de la surface d'attaque que les menaces liées à l'IA ciblent désormais.

Conclusion

MITRE ATLAS provides the structured approach organizations need to defend AI systems against sophisticated adversaries. With 16 tactics, 84 techniques, and continuous updates reflecting emerging threats like agentic AI attacks and MCP exploits, the framework delivers actionable intelligence for security teams.

The rapid expansion from 15 tactics in October 2025 to 16 tactics and 84 techniques by February 2026 demonstrates ATLAS's commitment to keeping pace with AI evolution. As AI-assisted attacks continue to surge and regulatory requirements like the EU AI Act take effect, organizations cannot afford to treat AI security as an afterthought.

Start with these immediate actions:

  1. Explore the ATLAS Navigator to understand framework structure
  2. Inventory your AI assets and map relevant techniques
  3. Assess current detection coverage against priority techniques
  4. Integrate ATLAS context into existing SOC workflows

For organizations seeking comprehensive AI security beyond framework adoption, Vectra AI's Attack Signal Intelligence provides behavior-based detection that identifies the adversary techniques ATLAS catalogs — enabling security teams to find and stop AI threats across hybrid environments.

Foire aux questions

Qu'est-ce que MITRE ATLAS ?

En quoi MITRE ATLAS diffère-t-il de MITRE ATT&CK?

Combien de tactiques et de techniques sont répertoriées dans MITRE ATLAS ?

Qu'est-ce que prompt injection MITRE ATLAS ?

Comment utiliser MITRE ATLAS pour la modélisation des menaces ?

Quels outils MITRE ATLAS fournit-il ?

Comment MITRE ATLAS se compare-t-il à OWASP LLM Top 10 ?

What is the MITRE ATLAS adversarial ML knowledge base?

What are the MITRE ATLAS case studies?

How do I use ATLAS Navigator to export coverage layers?