Large language models : les nouveaux enjeux à venir dans la cybersécurité
Les entreprises adoptent de plus en plus les LLM dans leurs processus mais elles révèlent des failles en terme de cybermenaces. Toutefois, leur développement rend aussi la cybersécurité plus efficace.
Les Large Language Models (LLM) bouleversent l’IA générative, mais leur intégration massive dans les systèmes d’information provoque de nouvelles cybermenaces. L’OWASP (Open Worldwide Application Security Project) alerte sur les vulnérabilités critiques de ces modèles, souvent sous-estimées. Face à la multiplication des menaces, allant de l’injection de prompt à l’empoisonnement des données, sécuriser les LLM devient un enjeu prioritaire. Il devient donc indispensable de comprendre les risques et y répondre, pour anticiper les usages à venir et en maîtriser les dérives.
Les LLM : une prouesse technologique qui voit émerger des failles
Pour beaucoup d’entreprises, les LLM s’imposent aujourd’hui comme un élément essentiel des architectures numériques modernes. Leur capacité à comprendre et générer du langage naturel ouvre à plusieurs perspectives comme les assistants virtuels ou l’automatisation des tâches. Mais cette puissance est à double-tranchant. En acceptant des instructions ouvertes, parfois floues, les LLM peuvent devenir la cible d’attaques plus méthodiques. Par exemple, dans le cas d'une injection de prompt, un utilisateur malveillant peut manipuler la requête initiale pour détourner la réponse du modèle, obtenir des informations sensibles ou contourner des règles de sécurité.
À cela s’ajoutent d’autres risques moins visibles, mais tout aussi stratégiques : l’extraction d’informations mémorisées dans le modèle, notamment si celui-ci a été exposé à des données sensibles lors de son entraînement, ou encore les attaques adversariales qui exploitent les imprécisions linguistiques pour provoquer des réponses erronées. Ces failles, inhérentes au fonctionnement des LLM, nécessitent un changement de paradigme dans la façon d’aborder leur sécurité.
La cartographie des menaces
Connu pour ses classements des vulnérabilités web, l’OWASP a récemment partagé son top 10 des menaces LLM. Au-delà de la terminologie technique se dresse une réalité : les LLM ne peuvent plus être perçus comme de simples outils. Si elles ne sont pas filtrées ou contrôlées, leurs réponses peuvent devenir des vecteurs d’actions malveillantes.
Parmi les menaces recensées, certaines ressemblent à s’y méprendre à des vulnérabilités classiques du web, transposées au contexte de l’IA générative : traitement non sécurisé des sorties, intégration de plugins non vérifiés ou attaques par déni de service visant à épuiser les ressources du modèle. D’autres, en revanche, sont spécifiques comme le vol de modèle ou l’empoisonnement des données d’entraînement. Ce dernier consiste à introduire des biais ou des erreurs dans le corpus de données utilisé pour façonner le modèle, compromettant ainsi sa fiabilité à long terme.
Cette grille de lecture ne vise pas uniquement à classer les menaces, mais à inciter à un changement dans les pratiques : considérer les LLM comme des composants critiques du système d’information, au même titre qu’un serveur, une base de données ou une API exposée.
La protection des LLM : entre urgence stratégique et défi technique
Face à cette multitude de menaces en constante évolution, la sécurisation des LLM ne peut être différée. Elle implique une approche globale, mêlant gouvernance, ingénierie et surveillance active. Il convient d’encadrer les usages : aucun modèle ne devrait être déployé sans une phase rigoureuse d’évaluation de ses entrées et sorties, ni sans un mécanisme de contrôle en temps réel de son comportement.
Il devient également essentiel d’intégrer des dispositifs de détection des anomalies, capables de repérer une tentative d’injection ou une séquence de requêtes suspectes. De même, les pipelines de données doivent être protégés en amont, pour éviter que le modèle n’apprenne, de manière implicite, des données confidentielles ou manipulées. Enfin, comme tout composant logiciel, un LLM nécessite des mises à jour régulières, non seulement pour en améliorer les performances, mais aussi pour corriger des vulnérabilités découvertes a posteriori.
En définitive, la montée en puissance des LLM doit s’accompagner d’une montée en maturité des pratiques de sécurité. Les acteurs qui sauront anticiper ces enjeux disposeront d’un avantage stratégique. Pour les autres, la découverte des vulnérabilités se fera souvent dans l’urgence, voire après une attaque.