Les règles de phishing ont fondamentalement changé. Pendant des décennies, les équipes de sécurité ont formé les employés à repérer les erreurs grammaticales, les formats suspects et les formules de politesse génériques comme des signes révélateurs d'e-mails malveillants. Ces signaux sont désormais obsolètes. L'intelligence artificielle a donné aux pirates la possibilité de créer des messages impeccables et hyper-personnalisés qui contournent à la fois l'intuition humaine et les contrôles de sécurité traditionnels.
Selon les recherches menées par IBM X-Force, les pirates informatiques sont désormais capables de générer des phishing en seulement cinq minutes à l'aide de cinq invites, un processus qui nécessitait auparavant 16 heures de travail humain. Il en résulte un paysage de menaces où phishing généré par l'IA phishing un taux de clics de 54 %, contre 12 % pour les campagnes traditionnelles, selon une étude réalisée en 2025 par Brightside AI. Pour les analystes en sécurité, les responsables SOC et les RSSI, il est essentiel de comprendre cette évolution afin de protéger les entreprises modernes contre le vecteur d'attaque le plus répandu en 2026.
phishing par IA phishing une forme d'ingénierie sociale qui utilise des technologies d'intelligence artificielle, notamment des modèles linguistiques à grande échelle, la génération de deepfakes et des systèmes d'automatisation, pour créer à grande échelle phishing personnalisées et très convaincantes. Contrairement phishing traditionnel, phishing repose sur des modèles produits en masse et présentant des défauts évidents, phishing basé sur l'IA phishing des messages grammaticalement parfaits et pertinents sur le plan contextuel, qui s'adaptent à chaque cible en fonction des données personnelles et professionnelles collectées.
La menace a atteint un niveau critique. Selon le rapport 2025 Phishing Trends Report de KnowBe4, 82,6 % des phishing contiennent désormais du contenu généré par l'IA, ce qui représente une augmentation de 1 265 % des attaques liées à l'IA depuis 2023. Le rapport 2026 Global Cybersecurity Outlook du Forum économique mondial a élevé la cyberfraude, principalement due au phishing basé sur l'IA phishing au rang de préoccupation numéro un des entreprises, dépassant pour la première fois les ransomwares.
Ce qui rend phishing basé sur l'IA phishing différent, c'est l'élimination des signaux de détection traditionnels. Les programmes de sensibilisation à la sécurité enseignent depuis longtemps aux employés à identifier phishing des fautes d'orthographe, des formulations maladroites et des formules de politesse génériques. L'IA supprime complètement ces indicateurs tout en ajoutant des capacités que les humains ne peuvent égaler à grande échelle : personnalisation en temps réel à l'aide de données extraites des réseaux sociaux, adaptation dynamique du contenu qui déjoue la détection basée sur les signatures, et capacité à générer des milliers de variantes uniques à partir d'une seule campagne.
L'équipe X-Force d'IBM a démontré cette évolution à travers sa « règle des 5/5 », qui montre que cinq invites en cinq minutes peuvent produire phishing dont l'efficacité égale ou dépasse celle des campagnes élaborées par des humains. Cela représente une réduction de 95 % des coûts pour les attaquants tout en conservant les mêmes taux de réussite, ce qui modifie fondamentalement l'économie des phishing .
Le contraste entre phishing traditionnel et celui amélioré par l'IA phishing pourquoi les équipes de sécurité doivent mettre à jour leurs stratégies défensives.
Tableau 1 : Comparaison des capacités entre phishing traditionnelles et celles améliorées par l'IA
phishing par IA suivent un cycle de vie structuré qui exploite l'intelligence artificielle à chaque étape. Comprendre ce processus aide les équipes de sécurité à identifier les points d'intervention et à développer des contre-mesures efficaces.
phishing typique utilisant l'IA se déroule en six phases distinctes, chacune étant renforcée par des capacités d'intelligence artificielle.
Selon des études menées dans le secteur, ce cycle complet peut s'achever en 14 minutes, depuis le vol des identifiants jusqu'à leur exploitation active, soit bien plus rapidement que la plupart des équipes de sécurité ne peuvent le détecter et y répondre.
Un écosystème croissant d'outils d'IA malveillants spécialement conçus a vu le jour pour soutenir phishing . Ces outils suppriment les barrières techniques qui limitaient auparavant les attaques sophistiquées aux cybercriminels avancés.
WormGPT fonctionne comme une alternative non censurée aux modèles linguistiques légitimes, spécialement conçue pour la génération de contenus malveillants. Les abonnements vont de 60 dollars par mois à 550 dollars par an, avec des options de personnalisation avancées pouvant atteindre 5 000 dollars pour la variante v2. Cet outil a donné naissance à des dérivés tels que Keanu-WormGPT (basé sur Grok de xAI) et xzin0vich-WormGPT (basé sur Mistral).
FraudGPT offre des fonctionnalités similaires pour 200 dollars par mois ou 1 700 dollars par an, et se positionne comme une solution destinée aux fraudeurs débutants ayant des connaissances techniques minimales. Ces deux outils sont distribués via des chaînes Telegram et des forums du dark web, créant ainsi un écosystème phishing qui reflète les modèles commerciaux légitimes du SaaS.
Au-delà des outils spécialisés, les pirates utilisent de plus en plus des techniques de jailbreak contre les modèles grand public. L'analyse Netcraft de la plateforme Darcula phishing a montré comment l'intégration de l'IA permet aux opérateurs de créer phishing dans n'importe quelle langue, ciblant n'importe quelle marque, avec un minimum d'effort.
L'émergence du « vibe hacking » (ou piratage d'ambiance), une philosophie selon laquelle les pirates informatiques délaissent la maîtrise des compétences traditionnelles au profit de raccourcis basés sur l'IA, a encore démocratisé les attaques sophistiquées. Ce changement signifie que les organisations sont confrontées à des menaces provenant d'un nombre considérablement accru d'adversaires qui peuvent désormais mener des campagnes qui nécessitaient auparavant une expertise considérable.
L'amélioration de l'IA a donné naissance à différentes catégories d'attaques, chacune exploitant différents signaux de confiance et canaux de communication. La couverture moderne de la surface d'attaque doit tenir compte de toutes les variantes.
Tableau 2 : Types phishing par IA et leurs caractéristiques uniques
La technologie Deepfake a évolué, passant de la détection d'images falsifiées à la possibilité d'usurper l'identité d'une personne en temps réel lors d'appels vidéo. Le cas le plus significatif a été documenté début 2024 au sein de la multinationale d'ingénierie Arup. Un employé du service financier a reçu un message provenant apparemment du directeur financier basé au Royaume-Uni, lui demandant de participer à une discussion confidentielle sur une transaction. Au cours de l'appel vidéo, plusieurs cadres supérieurs sont apparus à l'écran, tous générés par IA à partir d'images accessibles au public. L'employé a transféré 25 millions de dollars avant que la fraude ne soit découverte.
Cet incident a démontré que les appels vidéo, historiquement considérés comme une méthode d'authentification fiable, ne peuvent plus être considérés comme sûrs sans vérification supplémentaire. Les incidents liés aux deepfakes ont augmenté de 680 % en glissement annuel en 2025, le premier trimestre 2025 à lui seul enregistrant 179 incidents, soit 19 % de plus que l'ensemble de l'année 2024, selon les données de suivi du secteur.
Le clonage vocal basé sur l'IA a considérablement réduit les obstacles à l'imitation vocale convaincante. Les systèmes modernes ne nécessitent que cinq minutes d'enregistrement audio (facilement obtenues à partir de conférences téléphoniques, de présentations de conférences ou de réseaux sociaux) pour générer une réplique convaincante de n'importe quelle voix.
Selon une étude de DeepStrike, les attaques de vishing utilisant cette technologie ont augmenté de 442 % en 2025. L'un des premiers cas documentés concernait des pirates qui avaient reproduit la voix d'un PDG allemand avec suffisamment de précision pour tromper un cadre britannique et lui faire transférer 243 000 dollars. La victime a déclaré que la voix synthétisée reproduisait fidèlement l'accent, le ton et les schémas linguistiques du cadre.
La combinaison du clonage vocal et des scripts générés par l'IA permet de créer des attaques de vishing qui semblent tout à fait authentiques. Les pirates peuvent mener des conversations en temps réel, répondre naturellement aux questions et aux objections tout en conservant l'identité usurpée.
phishing par QR code phishing quishing phishing est devenu un vecteur d'attaque important, car les QR codes contournent l'analyse traditionnelle des liens contenus dans les e-mails. Selon une étude de Kaspersky, les QR codes malveillants ont quintuplé entre août et novembre 2025, avec 1,7 million de codes malveillants uniques détectés.
Environ 25 % des e-mails phishing utilisent phishing des codes QR comme principal mécanisme d'attaque, 89,3 % des incidents visant le vol d'identifiants. Les codes redirigent généralement les victimes vers des pages de connexion convaincantes reproduisant celles de Microsoft 365, des VPN d'entreprise ou des applications financières.
L'IA améliore les attaques de quishing grâce à un placement optimisé, la génération de contexte et la personnalisation des pages de destination. Le ciblage géographique montre que 76 % phishing par code QR visent des organisations américaines, principalement les identifiants Microsoft 365, dans le but de contourner la détection des menaces d'identité et les mesures de réponse.
L'impact financier et opérationnel du phishing basé sur l'IA phishing atteint des niveaux qui menacent les entreprises. Les organisations de tous les secteurs sont confrontées à des pertes croissantes, car la sophistication des attaques dépasse les capacités de défense.
Les cas documentés illustrent les types d'attaques que les équipes de sécurité doivent reconnaître et auxquelles elles doivent se préparer.
L'incident Arup deepfake (25 millions de dollars, 2024) a démontré la sophistication des attaques multicanaux. Les attaquants ont combiné un premier contact par e-mail avec une vidéo deepfake en temps réel pour créer une attaque qui a contourné toutes les méthodes de vérification traditionnelles. Cette affaire a mis en évidence que même les organisations soucieuses de la sécurité dans des secteurs sophistiqués restent vulnérables lorsque les attaquants exploitent l'IA pour tirer parti de la confiance dans la communication vidéo.
Le clone vocal du secteur énergétique allemand (243 000 dollars, premier cas documenté en 2019, technique répandue en 2024-2025) a établi la voix comme un facteur d'authentification peu fiable. L'attaque a réussi parce que les organisations faisaient traditionnellement confiance à la vérification vocale pour les demandes sensibles.
Le test A/B d'IBM dans le domaine de la santé (2024) a fourni des données de recherche contrôlées sur phishing basé sur l'IA. Des tests réalisés auprès de plus de 800 employés du secteur de la santé ont montré que phishing généré par l'IA phishing cinq minutes pour être créé, contre 16 heures pour les équipes humaines, tout en obtenant des taux de clics comparables. Cette recherche a prouvé que phishing basé sur l'IA phishing l'obstacle de la rentabilité qui limitait auparavant phishing spear phishing sophistiqué phishing cibles de grande valeur.
Différents secteurs sont confrontés à des profils de risque variables en fonction de la sensibilité des données, de l'exposition réglementaire et des préférences des attaquants en matière de ciblage.
Tableau 3 : Matrice des risques sectoriels liés phishing par IA
Selon le rapport 2024 d'IBM sur le coût des violations de données, le secteur de la santé reste le plus ciblé pour la 14e année consécutive. Le taux de vulnérabilité de 41,9 % de ce secteur reflète la combinaison de données à forte valeur ajoutée, d'environnements complexes et d'une main-d'œuvre dont les niveaux de sensibilisation à la sécurité varient.
Les services financiers sont particulièrement exposés phishing par IA, 60 % des institutions ayant signalé des attaques améliorées par IA au cours de l'année écoulée et une augmentation de 400 % des tentatives de fraude par IA. Le rapport FBI IC3 2024 fait état de 2,77 milliards de dollars de pertes liées au BEC provenant de 21 442 plaintes. Selon une étude du VIPRE Security Group, 40 % des e-mails BEC sont désormais générés par IA.
Dans l'ensemble, les perspectives 2026 du Forum économique mondial ont révélé que 73 % des organisations ont été touchées par la cyberfraude en 2025, confirmant phishing amélioré par l'IA phishing la principale menace pour les équipes de sécurité des entreprises.
Une défense efficace contre phishing basé sur l'IA phishing d'abandonner les méthodes de détection obsolètes et de mettre en œuvre des contrôles adaptés aux caractéristiques uniques des attaques générées par l'IA.
Lorsque les signaux traditionnels échouent, les équipes de sécurité doivent se concentrer sur les anomalies comportementales et les irrégularités contextuelles.
Écarts dans les schémas de communication :
Indicateurs techniques :
Signaux d'alerte comportementaux :
Selon une étude de DeepStrike, 68 % des analystes spécialisés dans les cybermenaces indiquent que phishing généré par l'IA phishing plus difficile à détecter en 2025 que les années précédentes. Ce constat souligne pourquoi la détection doit passer de l'inspection du contenu à l'analyse comportementale.
La formation à la sensibilisation à la sécurité doit évoluer au-delà des exercices annuels de conformité pour devenir des programmes continus et adaptatifs qui correspondent à la sophistication des attaquants.
Exigences modernes en matière de formation :
Le cadre de défense en 5 points IBM X-Force souligne que la formation à la détection basée sur la grammaire est désormais contre-productive : elle crée une fausse confiance tout en laissant passer des attaques sophistiquées. La formation devrait plutôt mettre l'accent sur les comportements de vérification : protocoles de rappel, confirmation hors bande et scepticisme sain envers toute demande inhabituelle, quelle que soit son apparente légitimité.
Lorsque phishing impliquant l'IA se produisent, les procédures d'intervention doivent tenir compte des indicateurs spécifiques à l'attaque et de la coordination multicanale potentielle.
Phase de détection et de triage :
Phase de confinement :
Phase de récupération :
Organisations mettant en œuvre détection et réponse aux incidents bénéficient d'une visibilité sur les activités post-compromission que la sécurité des e-mails seule ne peut offrir, ce qui permet d'identifier plus rapidement les mouvements latéraux à partir des comptes phishing.
Le passage d'une détection basée sur le contenu à une détection comportementale nécessite la mise à jour des contrôles défensifs à plusieurs niveaux.
Tableau 4 : Cadre de défense comparant les approches traditionnelles et celles de l'ère de l'IA
L'authentification multifactorielle (MFA) Phishing représente le contrôle individuel le plus efficace. Les authentificateurs FIDO2 et WebAuthn se lient cryptographiquement à des domaines spécifiques, empêchant ainsi le vol d'identifiants même lorsque les utilisateurs interagissent avec phishing convaincantes. Les recommandations de l'opération Winter SHIELD du FBI soulignent spécifiquement ce contrôle comme étant essentiel pour les organisations confrontées à phishing sophistiquées.
Comprendre comment phishing par IA phishing dans les cadres établis aide les équipes de sécurité à communiquer les risques, à justifier les investissements et à aligner l'ingénierie de détection sur les normes du secteur.
phishing améliorées par l'IA s'alignent sur plusieurs MITRE ATT&CK , offrant une approche structurée de la modélisation des menaces et du développement de la détection.
Tableau 5 : MITRE ATT&CK pour phishing basées sur l'IA
Le cadre de cybersécurité 2.0 du NIST traite phishing par IA phishing plusieurs fonctions, en mettant particulièrement l'accent sur PROTECT (PR.AT pour la formation à la sensibilisation, PR.AA pour le contrôle d'accès) et DETECT (DE.CM pour la surveillance continue, DE.AE pour l'analyse des événements indésirables). Les organisations soumises à des exigences de conformité doivent aligner leurs phishing par IA sur ces catégories du cadre.
Les contextes réglementaires, notamment la notification RGPD (délai de 72 heures), les règles de sécurité HIPAA et les exigences PCI DSS 4.0, ont tous des implications pour phishing IA. Le livre Phishing HHS HC3 AI Phishing fournit des conseils spécifiques aux organismes de santé confrontés à ces menaces.
Le secteur a pris conscience que les solutions traditionnelles de sécurité des e-mails ne permettent pas de faire face aux menaces liées à l'intelligence artificielle. Les architectures défensives modernes combinent plusieurs approches de détection avec des postures de sécurité centrées sur l'identité.
Les solutions de sécurité des e-mails natives à l'IA déploient des modèles d'apprentissage automatique spécialement formés sur les caractéristiques du contenu généré par l'IA. Ces solutions analysent les modèles comportementaux, les relations de communication et les anomalies de requêtes plutôt que les signatures de contenu. Selon les perspectives 2026 du Forum économique mondial, 77 % des organisations ont désormais adopté l'IA pour la défense de la cybersécurité, 52 % d'entre elles déployant spécifiquement l'IA pour phishing .
La convergence entre détection et réponse aux incidents, la détection des menaces d'identité et la sécurité des e-mails reflète la reconnaissance du fait que phishing la phase d'accès initiale d'attaques plus larges. Une défense efficace nécessite de corréler les signaux entre ces domaines afin de détecter à la fois les phishing et les activités ultérieures des attaquants.
Zero trust appliqués aux communications signifient qu'aucune demande, quelle que soit sa source apparente, ne bénéficie d'une confiance implicite. Les organisations qui mettent en œuvre cette approche exigent une vérification pour toutes les demandes sensibles, éliminant ainsi les présomptions de confiance phishing IA.
L'approche Vectra AI en matière de phishing basée sur l'IA repose sur le principe selon lequel l'inspection du contenu est une bataille perdue d'avance. Les attaquants amélioreront toujours leur génération de contenu plus rapidement que les défenseurs ne peuvent mettre à jour leurs règles de détection.
Attack Signal Intelligence se concentre plutôt sur les signaux comportementaux qui persistent indépendamment du contenu des messages. Lorsque les attaquants compromettent des identifiants par phishing, leurs actions ultérieures (reconnaissance, élévation de privilèges, mouvements latéraux, accès aux données) génèrent des modèles détectables que le contenu généré par l'IA ne peut masquer.
Cette approche centrée sur l'identité corrèle les signaux provenant des plans réseau, cloud et identité afin de mettre en évidence les attaques que la sécurité des e-mails seule ne permettrait pas de détecter. Plutôt que d'essayer de détecter tous phishing , l'accent est mis sur la détection et la neutralisation des attaquants qui parviennent à contourner les défenses initiales, une approche conforme à la philosophie « Assume Compromise » (supposer la compromission) qui reconnaît que les attaquants sophistiqués finiront inévitablement par obtenir un accès initial.
phishing basé sur l'IA continue d'évoluer rapidement, avec plusieurs développements susceptibles de façonner l'environnement des menaces au cours des 12 à 24 prochains mois.
phishing autonomes représentent la prochaine évolution au-delà des attaques actuelles basées sur le LLM. Ces systèmes mèneront des campagnes d'attaque complètes de manière indépendante : sélection des cibles, génération de contenu, adaptation aux réponses et ajustement en fonction des taux de réussite. Les premiers indicateurs de cette tendance apparaissent dans la sophistication des plateformes actuelles phishing.
Les attaques multimodales combineront de plus en plus les e-mails, la voix, la vidéo et la messagerie dans le cadre de campagnes coordonnées. L'incident Arup a illustré cette approche avec un e-mail suivi d'une vidéo deepfake. Les futures attaques orchestreront probablement ces canaux en temps réel, les systèmes d'IA adaptant les messages sur toutes les plateformes en fonction des réponses des victimes.
La compromission des agents IA représente une nouvelle surface d'attaque à mesure que les entreprises déploient des systèmes IA autonomes. Les pirates explorent des techniques permettant de manipuler les agents IA par le biais d'injections de messages et d'approches d'ingénierie sociale adaptées aux cibles machines. Les organisations qui déploient des agents IA doivent anticiper les attaques phishing visant ces systèmes.
L'évolution réglementaire se poursuit à mesure que les gouvernements prennent conscience des menaces liées à l'intelligence artificielle. La période de consultation publique sur le profil du cadre de cybersécurité de l'IA du NIST (IR 8596) prendra fin le 30 janvier 2026, et la finalisation est prévue pour le deuxième trimestre 2026. Ce cadre fournira des conseils spécifiques sur la défense contre les cyberattaques basées sur l'IA, y compris phishing.
Selon le Forum économique mondial, 94 % des responsables de la sécurité s'attendent à ce que l'IA influence considérablement le paysage de la cybersécurité en 2026. Les organisations doivent donner la priorité au déploiement d'une authentification phishing, à des capacités de détection comportementale et à des programmes de formation continue adaptés à la sophistication des attaquants. Les investissements dans la détection corrélée à l'identité qui couvre cloud de messagerie électronique, de réseau et cloud s'avéreront essentiels à mesure que les attaques deviendront plus coordonnées entre les différents canaux.
phishing traditionnel phishing sur des messages types comportant des erreurs grammaticales courantes, un ciblage générique et une distribution massive de contenus identiques. Ces caractéristiques rendaient la détection relativement simple : les équipes de sécurité formaient les employés à repérer les fautes d'orthographe, les formulations maladroites et les formats suspects comme des signes avant-coureurs.
phishing basé sur l'IA phishing complètement ces signaux. Les grands modèles linguistiques génèrent un contenu grammaticalement parfait et contextuellement pertinent qui s'adapte à chaque cible individuelle. Selon une étude IBM X-Force, l'IA réduit le temps nécessaire à la création phishing de 16 heures à 5 minutes, tout en atteignant un taux de clics de 54 %, contre 12 % pour les campagnes traditionnelles. La réduction des coûts de 95 % signifie que les pirates peuvent désormais déployer phishing spear phishing sophistiquées phishing des milliers de cibles simultanément, à une échelle auparavant impossible sans ressources humaines importantes.
Les pirates utilisent trois approches principales pour obtenir des capacités d'IA à des fins phishing. Premièrement, les versions jailbreakées de modèles linguistiques légitimes contournent les restrictions de contenu grâce à des techniques d'ingénierie rapide qui évoluent en permanence. Deuxièmement, des outils malveillants spécialement conçus, tels que WormGPT (60 à 550 dollars par an) et FraudGPT (200 dollars par mois), fonctionnent sans garde-fous éthiques et ciblent spécifiquement les cas phishing . Enfin, les plateformes phishing telles que Darcula intègrent directement les capacités d'IA dans leur infrastructure.
Ces outils sont distribués via des chaînes Telegram et des forums du dark web, et ciblent souvent les fraudeurs débutants ayant des connaissances techniques minimales. Le modèle commercial reflète celui des SaaS légitimes (tarification par abonnement, niveaux de fonctionnalités et assistance clientèle), ce qui réduit considérablement les obstacles à la mise en place d'attaques sophistiquées.
Oui. phishing généré par l'IA phishing les erreurs grammaticales, les incohérences de formatage et les schémas suspects que détectent les passerelles de messagerie traditionnelles. Des recherches indiquent que 76 % phishing en 2024 comportaient des caractéristiques polymorphes qui adaptaient dynamiquement le contenu à chaque destinataire, contournant ainsi complètement la détection basée sur les signatures.
Au-delà de l'évasion de contenu, l'IA permet des attaques qui exploitent la confiance d'une manière que l'analyse des e-mails ne peut pas traiter. Les appels vidéo deepfake, le clonage vocal et phishing par code QR contournent phishing les modèles de sécurité centrés sur les e-mails. Une défense efficace nécessite désormais une analyse comportementale, une corrélation des identités et des capacités de détection qui vont au-delà de la passerelle de messagerie.
phishing par deepfake phishing la confiance implicite que les humains accordent à la communication vidéo. Lorsque les gens voient et entendent quelqu'un qu'ils reconnaissent, les barrières psychologiques qui les empêchent de se méfier d'un comportement suspect tombent radicalement. L'incident Arup de 2024 a démontré cette vulnérabilité lorsque des employés du service financier ont transféré 25 millions de dollars après avoir participé à un appel vidéo mettant en scène des deepfakes générés par IA de plusieurs dirigeants de l'entreprise.
La technologie moderne de deepfake peut fonctionner en temps réel pendant les appels vidéo en direct, répondant naturellement aux questions et maintenant une imitation cohérente tout au long d'interactions prolongées. Le clonage vocal ne nécessite que cinq minutes d'enregistrement audio pour générer des répliques convaincantes. Ces capacités signifient que ni la vérification vocale ni la vérification vidéo ne peuvent servir de facteurs d'authentification fiables sans confirmation supplémentaire hors bande.
La détection doit passer de l'analyse du contenu à celle des indicateurs comportementaux. Les signaux clés comprennent les anomalies dans les schémas de communication, telles que des demandes inhabituelles, des demandes financières hors contexte ou une urgence incompatible avec le style habituel de l'expéditeur. Les indicateurs techniques comprennent les échecs d'authentification des e-mails malgré un contenu convaincant, les adresses de réponse non concordantes et les domaines récemment enregistrés.
Les organisations doivent déployer des solutions de sécurité des e-mails natives pour l'IA qui analysent les modèles comportementaux et les relations de communication plutôt que les signatures de contenu. L'authentification multifactorielle Phishing(FIDO2/WebAuthn) offre une protection même en cas d'échec de la détection, en liant cryptographiquement l'authentification à des domaines spécifiques et en empêchant le vol d'identifiants via phishing convaincantes.
Le cadre de cybersécurité 2.0 du NIST couvre phishing par IA phishing des fonctions PROTECT (PR.AT pour la formation à la sensibilisation, PR.AA pour le contrôle d'accès) et DETECT (DE.CM pour la surveillance continue, DE.AE pour l'analyse des événements indésirables). MITRE ATT&CK phishing par IA à T1566 (Phishing) avec l'acquisition de capacités d'IA dans le cadre de T1588.007.
Le NIST est en train de finaliser le profil du cadre de cybersécurité de l'IA (IR 8596), dont l'achèvement est prévu au deuxième trimestre 2026, qui fournit des conseils spécifiques sur les cyberattaques basées sur l'IA, y compris phishing. Les organismes de santé doivent se référer au livre Phishing HHS HC3 AI Phishing pour obtenir des conseils spécifiques à leur secteur. D'autres contextes réglementaires incluent les exigences de notification RGPD , les règles de sécurité HIPAA et les dispositions PCI DSS 4.0.
Le piratage des e-mails professionnels est un type d'attaque spécifique que l'IA améliore considérablement, mais ils ne sont pas synonymes. Le BEC consiste traditionnellement à usurper l'identité de cadres ou de partenaires commerciaux afin d'autoriser des transactions frauduleuses. L'IA permet au BEC d'atteindre une ampleur sans précédent en automatisant l'usurpation d'identité des cadres, en générant des demandes adaptées au contexte et en éliminant les incohérences grammaticales et stylistiques qui permettaient auparavant d'identifier les communications frauduleuses.
Selon une étude menée par VIPRE Security Group, 40 % des e-mails BEC sont désormais générés par l'IA. Le FBI IC3 a recensé 2,77 milliards de dollars de pertes liées au BEC à partir de 21 442 plaintes en 2024, ce qui en fait l'une des applications les plus coûteuses financièrement phishing de l'IA. Les organisations doivent considérer le BEC amélioré par l'IA comme une menace spécifique hautement prioritaire dans la phishing plus large phishing par IA.