Prévisions pour 2024 : Le rôle de l'IA générative dans la cybersécurité  

30 novembre 2023
Vectra AI Security Research team
Cybersécurité
Prévisions pour 2024 : Le rôle de l'IA générative dans la cybersécurité  

En 2023, l’IA générative s’est démocratisée, avec un plus grand nombre de personnes de toutes les régions, de tous les secteurs et de tous les niveaux d’ancienneté qui tirent parti de cette technologie. Dans le rapport de McKinsey intitulé « The state of AI in 2023 : Generative AI’s breakout year », 79 % des personnes interrogées déclarent avoir été exposées à l’IA générative, que ce soit au travail ou en dehors du travail, et 22 % déclarent l’utiliser régulièrement dans leur propre travail. 

Alors que l'adoption et l'investissement dans l'IA générative sont en hausse, le rapport de McKinsey a montré que de nombreuses organisations ne prennent pas en compte les risques potentiels de l'IA générative. Moins d'un tiers des répondants ont déclaré avoir mis en place des mesures pour réduire l'utilisation des technologies d'IA avancées afin d'atténuer les risques de cybersécurité. 

L'essor de l'IA générative dans les entreprises et la cybersécurité

En 2024, l'IA générative devrait jouer un rôle encore plus central dans les entreprises et la société. Selon des études récentes, l'adoption de l'IA générative devrait connaître une croissance exponentielle, avec une augmentation prévue de 30 % de son utilisation dans divers secteurs. À mesure que ces systèmes intelligents basés sur l'IA et l'apprentissage automatique s'intègrent dans notre vie quotidienne, le paysage de la cybersécurité est prêt à relever des défis et à innover.

Ci-dessous, les experts de Vectra AI ont compilé leurs prédictions génératives liées à l'IA en matière de cybersécurité pour 2024, en notant les éléments que toutes les équipes de sécurité, les RSSI et les responsables SOC devraient garder à l'esprit à l'aube de la nouvelle année. 

L'IA générative : un outil pour l'innovation et un défi pour la cybersécurité

Préparer l'avenir : Stratégies de cybersécurité à l'ère de l'IA

Oliver Tavakoli, Chief Technology Officer, prédit que l'IA générative va éroder l'efficacité de la sécurité du courrier électronique. "En outre, l'utilisation de l'IA générative dans les attaques d'ingénierie sociale servira de signal d'alarme pour montrer que les lignes actuelles de défense de la sécurité sont inadéquates. Par conséquent, je m'attends à ce que les organisations s'orientent vers des approches de sécurité en aval, comme la micro-segmentation et la détection. Zero Trustla micro-segmentation et les mécanismes de détection et de réponse".

Implications politiques : Le rôle de l'IA dans les élections et l'intégrité de l'information 

Sohrob Kazerounian, Distinguished AI Researcher croit qu’à l’approche des élections de 2024, l’IA générative influencera la méfiance et la désinformation électorales. La grande disponibilité des modèles d’IA générative et leur relative facilité d’utilisation auront des effets considérables étant donné que les États-Unis sont actuellement dans une année électorale. La désinformation à grande échelle, avec un contenu de qualité (par exemple, de faux enregistrements audio et vidéo de candidats, de la fiction produite en masse se faisant passer pour des nouvelles, etc.) deviendra plus facile que jamais. L’incapacité à faire confiance à nos sens pourrait conduire à la méfiance et à la paranoïa, brisant davantage les relations sociales et politiques entre les gens.

Évolution des tendances en matière d'IA : Les LLM diminuent, les Deep Fakes augmentent

Christian Borst, directeur technique EMEA, estime que l’utilisation généralisée du LLM va disparaître, mais que les deep fakes vont monter en flèche. De nombreuses organisations explorent des moyens d’utiliser les grands modèles de langage (LLM) à la suite de la première vague de battage médiatique de cette année. Mais lorsque vous grattez sous la surface, il est clair que le facteur de nouveauté s’évaporera bientôt. Les LLM sont généralement assez difficiles à utiliser, car ils sont incapables de comprendre le contexte ou de fournir des résultats fiables, de sorte que l’utilisation pratique plus large des LLM est limitée. L’année prochaine, nous verrons donc les entreprises réduire leur utilisation des LLM en attendant que ces outils deviennent plus fonctionnels et conviviaux. 

"cybercriminels sera confronté aux mêmes problèmes d'utilisation des LLM, de sorte que nous ne verrons probablement pas beaucoup d'activités complexes telles que la génération de codes malveillants par l'IA. Mais nous pouvons nous attendre à ce que les cybercriminels exploitent l'IA générative pour créer des contrefaçons profondes plus réalistes et plus sophistiquées. Ils auront ainsi plus de chances d'inciter les utilisateurs à divulguer des données sensibles ou à cliquer sur quelque chose de malveillant par le biais de leurres audio ou visuels plus convaincants sur phishing ."

Paysage réglementaire : équilibre entre l'innovation et le contrôle de l'IA

En ce qui concerne l'IA générative (et l'IA en général), la réglementation et la politique joueront un rôle important en 2024. Selon Hitesh Sheth, le PDG de Vectra AI , l'avenir de l'IA dépendra des décisions réglementaires. "En 2024, je prédis que nous assisterons à des progrès monumentaux en matière de réglementation et de politique de l'IA. En s'appuyant sur le décret du président Biden sur l'intelligence artificielle, les décideurs des différents organes gouvernementaux évalueront et mettront en place des réglementations plus concrètes pour réduire les risques de l'IA et exploiter ses avantages. Alors que l'IA continue d'évoluer, il sera important que ces réglementations en cours d'élaboration trouvent un équilibre entre la défense de la transparence et la promotion de l'innovation continue qui se produit à un rythme rapide."  

Sohrob Kazerounian, Distinguished AI Researcher, abonde dans le même sens, prédisant que les dilemmes éthiques, juridiques et politiques de l’IA entraîneront des litiges. Les questions éthiques, juridiques et sociopolitiques concernant l’IA ne feront que devenir plus épineuses. Compte tenu de la paralysie politique générale aux États-Unis, il est peu probable que des cadres réglementaires et juridiques solides autour de la réglementation de l’IA émergent aussi rapidement qu’ils sont nécessaires. Les poursuites judiciaires concernant le matériel protégé par le droit d’auteur utilisé pour former des modèles d’IA générative augmenteront.

Conclusion : Adopter l'IA avec prudence et responsabilité

Il ne fait aucun doute que l'IA générative va transformer le paysage de la cybersécurité de manière significative. Elle a le potentiel de faire progresser les outils de sécurité, d'améliorer le renseignement sur les menaces et de transformer les centres d'opérations de sécurité. Alors que nous saisissons ces opportunités, avançons prudemment, armés de connaissances, de résilience et d'un engagement à garder une longueur d'avance dans cette danse complexe

L'IA générative offre une possibilité nouvelle et passionnante d'utiliser la technologie pour contribuer à la lutte contre les cyberattaques, qui est la mission fondatrice de Vectra AI. Pour en savoir plus sur l'IA qui sous-tend Vectra Attack Signal Intelligence, téléchargez dès aujourd'hui notre dernier livre blanc.

Foire aux questions