Savez-vous qui utilise l'IA en tant que service dans votre organisation ?

6 juin 2023
Gearóid Ó Fearghaíl
Chef de produit
Savez-vous qui utilise l'IA en tant que service dans votre organisation ?

La récente explosion cambrienne des possibilités offertes par les grands modèles de langage a été incroyablement passionnante. Chaque mois voit de nouvelles utilisations de ces outils, depuis la génération rapide et peu coûteuse de vignettes pour vos articles de blog jusqu'à la traduction cohérente de vos articles de blog dans d'autres langues, avec une compréhension totale de ce que vous avez écrit, en passant par le fait d'agir comme s'ils étaient fondamentalement opposés à votre article de blog et de formuler des critiques !

Même dans le monde au-delà des articles de blog, si un tel monde existe, cet outil naissant présente un énorme potentiel. Mais ce potentiel signifie également que nous ne savons pas ce qu'il pourrait faire, ce qui crée un risque commercial sérieux et tangible.

Image représentant des espions volant des papiers dans un bureau, dans le style de Monet

Demandez à n'importe qui de poser une question à un LLM, et il pensera immédiatement à utiliser ChatGPT, par OpenAI. Il s'agit de l'outil le plus accessible et le plus facile à utiliser. ChatGPT permet à quiconque de lui poser des questions par l'intermédiaire d'un navigateur web, et il génère des réponses rapides en retour. C'est une excellente chose pour l'utilisateur moyen, mais pour une entreprise, cette facilité d'utilisation masque trois graves problèmes. Toutes les données envoyées à ChatGPT sont stockées par OpenAI à des fins de qualité et de suivi, la source de toute réponse est inconnue et la réponse peut être complètement fabriquée...

OpenAI suit les soumissions faites par les utilisateurs afin de pouvoir itérer et améliorer son produit, et de surveiller tout abus du système. Il s'agit d'un comportement tout à fait raisonnable de la part d'OpenAI, mais il n'y a aucune raison de croire qu'elle prend grand soin de ces données. En outre, OpenAI ne peut pas vraiment contrôler les données soumises à ChatGPT, ce qui fait qu'elle finit par stocker beaucoup d'informations dont elle ne veut pas vraiment. Par exemple, on a récemment découvert que des employés de Samsung avaient utilisé ChatGPT pour déboguer des logiciels propriétaires et pour résumer des comptes rendus de réunions.

Le deuxième problème est que ChatGPT répond à des questions sans attribuer de sources à ses réponses. ChatGPT fait des déclarations basées sur ses résultats et, malheureusement, vous devez les prendre telles quelles. Ces informations pourraient être protégées par des droits d'auteur, et vous ne le sauriez pas tant que vous n'auriez pas reçu une lettre d'avocats faisant état d'une violation. Getty Images a poursuivi le créateur d'un outil de génération d'images LLM pour violation du droit d'auteur après avoir découvert que l'outil générait des images comportant un filigrane de Getty Images. Il n'est pas déraisonnable d'affirmer que tout utilisateur final utilisant ces images pourrait également être tenu pour responsable. La génération de code est un autre sujet de préoccupation, même s'il n'y a pas eu d'exemples concrets jusqu'à présent - mais cela semble inévitable.

Cependant, le plus gros problème avec ChatGPT est que ces LLM peuvent avoir des "hallucinations", ce qui signifie dans le jargon de l'industrie "raconter des mensonges éhontés". Étant donné que ChatGPT n'est pas transparent sur la manière dont il obtient ses réponses, les utilisateurs doivent être en mesure d'analyser les réponses de manière critique pour déterminer si elles sont vraies, car ChatGPT et ses semblables répondront toujours avec une confiance absolue. Cela peut avoir des répercussions, qu'il s'agisse du lancement embarrassant de Google, de l'exclusion d'un professeur de tous ses étudiants après que ChatGPT a prétendu à tort avoir rédigé des dissertations, ou de l'exemple le plus flagrant d'un avocat qui a utilisé ChatGPT pour rédiger sa plaidoirie et qui a inventé six sources complètement fausses pour étayer son argumentation. La mauvaise démonstration de Google a vu son évaluation boursière chuter de 100 milliards de dollars, le professeur d'université a perdu une grande partie de sa crédibilité et un procès de plusieurs millions de dollars pourrait bien être rejeté... Ce sont là des exemples qui ont un impact considérable et qui, malheureusement, pourraient être facilement évités.

Un robot plaidant une affaire devant un juge humain dans un tribunal, dans le style d'une esquisse réaliste de salle d'audience.

Les organisations réagissent à ces faits en adoptant des politiques interdisant l'utilisation d'OpenAI sans autorisation, mais il est difficile de contrôler le respect de cette politique puisque le trafic passe par un navigateur crypté sans qu'aucun logiciel ne soit nécessaire. Heureusement, Vectra AI Vectra NDR est capable de voir cette activité dans votre réseau, en utilisant nos capteurs de réseau de détection existants. Vectra NDR est conçu pour surveiller l'ensemble du trafic réseau au sein de votre organisation, grâce à des capteurs soigneusement placés qui surveillent le trafic entrant et sortant de votre réseau, mais aussi à l'intérieur de votre réseau lui-même. Cette profondeur d'analyse alimente notre puissant cadre de détection piloté par l'IA et permet également d'obtenir de puissantes informations sur la conformité, que nous avons regroupées dans notre tableau de bord d'utilisation ChatGPT.

Ce tableau de bord, qui est disponible gratuitement pour tous les clients de la plateforme Vectra , montrera les hôtes de votre environnement qui interagissent activement avec OpenAI - en suivant les requêtes DNS vers les serveurs OpenAI faites par n'importe quel hôte. Cela permettra aux responsables de la conformité de voir rapidement non seulement une liste de personnes qui ont des comptes avec OpenAI ou qui ont enregistré un intérêt, mais aussi de surveiller activement qui utilise exactement un système, et dans quelle mesure il l'utilise.

Le tableau de bord en action.

Ce tableau de bord est d'autant plus puissant qu'il s'appuie sur la technologie brevetée d'attribution d'ID d'hôte de Vectra pour suivre ces utilisateurs à la trace. Même si les adresses IP des machines changent, ou si un ordinateur portable rejoint un nouveau réseau, Vectra suivra cette machine comme s'il s'agissait de la même, de sorte que le tableau de bord montre exactement la fréquence à laquelle un appareil accède à ChatGPT - ce qui vous permet également de pivoter rapidement pour voir qui, selon Vectra , est le propriétaire probable d'un hôte. En utilisant ce tableau de bord, vous verrez non seulement quels hôtes utilisent ChatGPT, mais vous saurez également qui contacter à ce sujet, et vous obtiendrez ces informations en quelques minutes, et non en quelques heures.

Ce n'est qu'un exemple de la façon dont la plateforme Vectra offre une visibilité approfondie de l'activité au sein de votre organisation, montrant comment elle peut contribuer à la conformité de votre organisation en suivant les problèmes de conformité actifs. Tout comme notre tableau de bord de l'expiration des certificats, qui surveille les certificats qui expirent et sont activement utilisés dans votre organisation, ou notre tableau de bord Azure AD Chaos, qui suit le contournement du MFA, Vectra peut offrir aux responsables de la conformité des informations précieuses non seulement sur ce qui est mal configuré dans leur organisation, mais aussi sur les risques de sécurité qui sont activement utilisés !

Un analyste de la sécurité reçoit un prix pour avoir contrôlé la conformité à la politique chatGPT d'une entreprise, dans le style de la tapisserie de Bayeux.

Pour plus d'informations sur la plateforme Vectra , cliquez ici.