IA agentique : les réflexes de sécurité à adopter dans les organisations
Les agents autonomes transforment les achats en ligne et imposent de nouveaux défis de sécurité aux organisations.
Dans cet article, nous analysons comment des agents autonomes peuvent devenir incontrôlables par les organisations qui les utilisent, et pourquoi les équipes sécurité et risques doivent faire preuve de prudence quant aux actions confiées à ces agents.
La réalité du retail
Pour les retailers, le potentiel de l’IA agentique est extraordinaire.
Bien que la valeur commerciale et l’avantage concurrentiel liés à une interaction client rationalisée soient des moteurs puissants, les implications en matière de sécurité sont tout aussi importantes. Contrairement aux agents d’IA classiques, l’IA agentique est conçue pour percevoir, raisonner et agir de manière autonome. Cette autonomie soulève des questions sur la traçabilité, la responsabilité et la gouvernance.
Le secteur du e-commerce est déjà l’un de ceux qui subissent la plus forte proportion d’attaques avancées, tant sur les API web que mobiles. Il apparaît que les bots revendeurs représentent une transaction sur cinq d’ajout au panier.
Les attaquants continueront à utiliser des bots pour intensifier les cyberattaques contre les LLM (Large Language Models) en backend. Les cybercriminels, qui ont déjà perturbé des services majeurs comme le click-and-collect dans les enseignes de grande distribution, adapteront sans doute leurs tactiques, techniques et procédures (TTP) pour cibler les flux de travail agentiques.
Les retailers doivent adopter une nouvelle approche pour assurer un déploiement sécurisé de l’IA agentique. Ne pas adapter les stratégies de gestion des risques et les dispositifs de sécurité à l’architecture et au comportement uniques de ces agents autonomes constitue une menace pour l’entreprise.
Oubliez les outils traditionnels
Protéger le périmètre. Déployer des contrôles de sécurité comme les pare-feu réseau ou applicatifs (WAF). Réaliser des tests statiques et dynamiques. Ces approches restaient viables dans des architectures client-serveur avec un trafic principalement nord-sud, où la sécurité des applications web suffisait à contenir le risque. Mais la modernisation rapide des applications, l’essor des systèmes basés sur des API et les écosystèmes d’IA fortement interconnectés ont engendré une surface d’attaque élargie et un volume exponentiel de trafic machine-à-machine (est-ouest).
Puis, de nombreuses entreprises ont introduit des interfaces en langage naturel (NLP). Alors que les équipes sécurité tentaient de rattraper leur retard, les entreprises déploient désormais des IA agentiques.
Les paradigmes existants comme la défense en profondeur restent pertinents, car les attaques IA innovantes en frontend mènent souvent à des vulnérabilités classiques, telles que l’exécution de code à distance (RCE) en backend.
Cependant, les bonnes pratiques établies comme la divulgation responsable, les référentiels de vulnérabilités comme les CVE (Common Vulnerabilities and Exposures), et les mécanismes de régulation peinent à suivre le rythme dans la course à l’IA agentique.
Qui est prêt pour le MCP ?
Le Model Context Protocol (MCP) à la rescousse ! Cette norme proposée par Anthropic, ainsi que le protocole Agent2Agent (A2A) proposé par Google, visent respectivement à structurer la communication modèle-ressources et agent-agent. Cependant, aucun des deux ne répond entièrement aux besoins d’interopérabilité de l’IA agentique.
MCP et A2A représentent des avancées importantes vers la standardisation, mais qu’en est-il de la sécurité ? Vos contrôles de sécurité actuels sont-ils compatibles avec MCP ?
L’explosion des outils et applications engendre une hausse du shadow AI. De plus, les agents IA sont incapables de détecter des prompts d’attaque émergents les rendant vulnérables dès la conception, notamment à des fuites de données sensibles.
Les équipes sécurité et risques doivent agir pour assurer la gouvernance, en adaptant les contrôles existants et en déployant de nouveaux. Les pare-feux applicatifs et solutions de sécurité API doivent impérativement être compatibles MCP. De plus, les outils de gestion des bots doivent maintenir leur résilience, car les kits d’automatisation sont enrichis par l’IA et les attaquants accélèrent l’armement de leurs attaques. Par exemple, pour empêcher le scraping des données d’entraînement des LLM et des contenus dans les pipelines RAG (retrieval-augmented generation), les outils anti-bot doivent détecter de nouvelles techniques d’attaque à l’aide de modèles ML, tout en utilisant le chiffrement et l’obfuscation pour empêcher le contournement.
Les défenseurs doivent également effectuer des tests de vulnérabilité des modèles IA et des applications, combinés à une inspection à l’exécution. Ces améliorations sont essentielles pour garantir la traçabilité et fournir la visibilité nécessaire à une supervision humaine (HITL – Human In The Loop).
Observer. Paramétrer. Synthétiser. Protéger.
La recette de la sécurité agentique repose sur :
● la réduction du temps de détection,
● l’accélération de la remédiation,
● et l’allègement de la charge des équipes sécurité.
Le choix du modèle IA peut compromettre l’ensemble de votre système. Il doit donc être renforcé avant le déploiement et surveillé à l’exécution.
Le futur, c’est maintenant
Les risques liés à l’IA agentique ne peuvent pas être entièrement couverts par les outils traditionnels, qui laissent des lacunes en matière de sécurité et de gouvernance.
Pour y faire face, les fournisseurs e-commerce doivent sécuriser les workflows IA à tous les stades de maturité. Cela comprend :
● des tests d’attaque proactifs,
● une inspection et une application en temps réel,
● une observabilité et une conformité centralisées pour répondre aux normes réglementaires émergentes.
En suivant ces trois mesures, les spécialistes du retail pourront alors sécuriser leurs déploiements IA agentique de bout en bout, du pilote à la production.