L'essor de l'IA : un défi de sécurité sous-estimé

De nombreux modèles d'IA ont fait leur entrée dans les entreprises, mais beaucoup ont négligé, voire ignoré, les enjeux de sécurité. Aujourd'hui, 1/3 des IA génératives présente des risques avérés.

Heureusement, des solutions pour sécuriser ces environnements commencent à émerger et ont déjà prouvé leur efficacité.

L'intelligence artificielle transforme profondément le paysage des entreprises. Que ce soit pour automatiser des processus, offrir des services personnalisés ou améliorer la prise de décision, son potentiel est immense. Selon McKinsey, 72% utilisent déjà des solutions d'IA, et 65% d’entre elles adoptent l'IA générative.

Cependant en voulant adopter l’intelligence artificielle le plus rapidement possible, de nombreuses entreprises délaissent un aspect essentiel : la sécurité. Cette précipitation expose les données et les applications à des risques importants. La négligence est d'autant plus préoccupante que les workloads IA, notamment ceux qui manipulent des données sensibles, deviennent des cibles privilégiées pour les cyberattaquants. Ces derniers privilégient désormais deux biais : les données utilisées par les modèles IA ainsi que les accès directs aux applications utilisés par les entreprises.    

Le vol d’accès à outils IA, un risque encore mal connu

Par nature, les systèmes d'IA nécessitent une grande quantité de puissance de calcul, ce qui les rend coûteux. C'est pourquoi les attaquants utilisent désormais des identifiants cloud volés pour accéder aux LLM soit pour leur propre usage, soit pour les revendre à des tiers.

Le « LLM jacking », découvert par l'équipe de recherche sur les menaces (TRT) de Sysdig, est donc l'utilisation illicite d'un LLM au moyen d'informations d'identification compromises. En l'espace de six mois, le nombre de ces attaques a été multiplié par dix et surtout, elles ont déjà évolué. Lors de ses premières recherches en début d'année, les attaquants accédaient à des LLM déjà prêts à l’emploi alors que depuis récemment, ils utilisent les informations d'identification volées pour activer eux-mêmes les outils. Avec la progression rapide du développement des outils IA, le premier danger potentiel pour les entreprises est avant tout d’ordre financier. Le cout pourrait être multiplié par près de trois pour atteindre plus de 100 000 dollars par jour en cas d'utilisation de modèles modernes tels que Claude 3 Opus.

Un autre coût associé à ces attaques est lié au personnel et à la technologie nécessaires pour lutter contre et y mettre fin. Le LLM jacking lui-même est en augmentation, avec une multiplication par 10 des requêtes au cours du mois de juillet et par 2 du nombre d'adresses IP uniques impliquées dans ces attaques au cours de la première moitié de l'année 2024.

34% des IA déployées présentent un risque grave

Les systèmes d'IA manipulent d'énormes quantités de données, ce qui suscite évidemment l’intérêt des attaquants. Une étude menée par Sysdig révèle que 34% des workloads Gen-AI en production sont publiquement exposés, c’est-à-dire qu’ils sont accessibles de manière inappropriée depuis Internet ou via un autre réseau sans que des mesures de sécurité aient été mises en place. Cette exposition présente d’évidents risques de sécurité. Les données exploitées par la GenAI sont donc en danger immédiat, à plusieurs niveaux. Que ce soit d’un point de vue réglementaire, mais aussi directement vis-à-vis du propriétaire de la donnée. Et pourtant, les mesures de sécurité sont loin d’être à la hauteur des enjeux.

Alors que plus de 10% des vulnérabilités sont invisibles avant même la mise en production, les entreprises doivent envisager la sécurité de manière globale et protéger l’ensemble du cycle de vie logiciel. Une défense approfondie est nécessaire dans les environnements cloud : les équipes doivent être proactives et aller plus loin que la simple mise en place de solutions de détection et réponse aux menaces.

CNAPP : l’arme secrète pour sécuriser les environnements cloud IA

Heureusement, des solutions existent pour protéger ces environnements cloud qui hébergent des quantités massives de données. Parmi elles, les CNAPP (Cloud Native Application Protection Platforms). Ces plateformes sont conçues pour offrir une vision unifiée et centralisée de la sécurité dans des environnements multicloud et hybrides, ce qui est devenu essentiel à mesure que les entreprises adoptent des infrastructures modernes.

Avec ces applications CNAPP pensées pour les environnements cloud, les équipes de sécurité peuvent ainsi renforcer leur défense tout en analysant les menaces en temps réel et en menant une politique de gestion des risques proactive et réactive. Alors que les outils de sécurité traditionnels ont été conçus pour faire face à des attaques qui se sont produites sur une période de 10 jours, les CNAPP doivent être capables de détecter les anomalies, de fournir un contexte granulaire et d'apporter des réponses précises en 10 minutes. En substance, toute solution de sécurité moderne doit permettre aux organisations de respecter les critères du barème 555 pour la détection et la réponse dans le cloud : 5 secondes pour détecter les menaces, 5 minutes pour analyser et trier, et 5 minutes pour réagir.

En ce qui concerne l'IA, nous n'avons fait qu'effleurer tout le potentiel qui sera offert en matière d'accélération des opérations et des performances humaines. En gardant à l'esprit les risques de sécurité et en mettant en place les mesures idoines, les entreprises ont ainsi la possibilité d'exploiter les avantages de l'IA en toute sécurité.