Déployer vos agents IA en production : guide pratique de l'orchestration et des protocoles

Déployer vos agents IA en production : guide pratique de l'orchestration et des protocoles Avec l'essor de l'IA agentique, les agents autonomes vont se multiplier. Comment les coordonner pour des tâches complexes ? Quelle architecture et technique et quel cadre de gouvernance mettre en place ?

Après l’IA générative, place à l’IA agentique. Les cas d’usage sont quasi infinis. Dans le cas du support IT, des agents IA interprètent le problème énoncé dans le ticket incident, interrogent la documentation technique, puis suggèrent à l’utilisateur des pistes de résolution. Le parcours d’intégration d’un nouveau collaborateur peut aussi être automatisé. Des agents rassemblent les pièces nécessaires à la constitution du contrat de travail, s’assurent que la recrue dispose d’un droit d’accès au système d’information et que des rendez-vous ont été calés les premiers jours avec les principales personnes référentes (n+1 et n+2, responsable RH…).

"Une logique d’exécution cohérente"

Depuis un an, les entreprises ont enchaîné les tests et les expérimentations pour envisager de passer aujourd’hui à la phase de production. Dans les mois à venir, les agents IA sont donc appelés à se multiplier. Ce qui pose la question de l’architecture et du cadre de gouvernance à mettre en place. Pour réussir à réaliser des tâches complexes, les agents IA doivent interagir entre eux et se coordonner. Dans un livre blanc dédié à l’IA agentique, le cabinet Wavestone consacre un chapitre entier à ce sujet.

"Concevoir un agent IA ne consiste pas seulement à choisir un modèle, à lui fournir des outils, et à rédiger des instructions, rappellent les deux co-auteurs. Encore faut-il articuler ces éléments dans une logique d’exécution cohérente, capable de transformer une requête utilisateur en une séquence d’actions structurée". C’est le rôle de l’orchestration qui désigne l’ensemble des mécanismes qui vont piloter l’agent. Il s’agit de définir comment l’agent enchaîne ses actions, comment il prend ses décisions et comment il gère l’incertitude et les erreurs.

Le document rappelle que le fonctionnement d’un agent IA repose sur une boucle d’exécution ("agent loop") qui suit quatre grandes étapes. Il analyse l’instruction et adopte une stratégie pour répondre à cette requête, décompose l’objectif en micro-tâches, sélectionne les outils pertinents en appelant une application métier par API ou en interrogeant une base de données. Enfin, l’agent exécute les actions, observe les résultats, détecte les erreurs ou les anomalies et ajuste sa stratégie le cas échéant.

De l’orchestration mono-agent à l’orchestration multi-agents

Ce cycle, itératif et adaptatif, est relativement simple dans le cas d’une orchestration mono-agent. "L’agent reçoit une requête, décide quoi faire, appelle les outils, évalue le résultat, et boucle jusqu’à finalisation", résume Wavestone. Cette approche se prête aux cas d’usage dont la tâche à accomplir est simple et bien définie. Pour aller chercher véritablement la création de valeur où elle se trouve, les entreprises devront passer à l’étape suivante et se frotter à l’orchestration multi-agents.

"Dans la courbe d’apprentissage d’une organisation à l’IA agentique, la trajectoire classique consiste à développer d'abord un POC mono-agent, puis d'évoluer vers une approche multi-agents", explique Tom Wiltberger, GenAI senior consultant chez Wavestone. Deux approches existent. Dans le cas du modèle hiérarchique, un agent "manager" délègue les différentes sous-tâches à des agents spécialisés, puis collecte les résultats et restitue la réponse finale à l’utilisateur. Dans un modèle collaboratif, les agents sont placés sur un pied d’égalité. Ils interagissent entre eux et contribuent collectivement à la résolution de la tâche. Il s’agit non seulement de définir quel agent fait quoi et à quel moment mais aussi d’assurer le transfert de tâche ou passage de relais ("handoff").

A2A et MCP, deux protocoles incontournables

L’architecture technique fera appel à deux protocoles de communication qui, par leur popularité, sont devenus des standards de fait en dépit de leur jeunesse et d’éventuelles failles de sécurité qu’ils présentent. Développé principalement par Google et présenté en avril 2025, le protocole A2A, ou Agent-to-Agent, permet une communication et une coopération fluides entre agents d'IA, même s'ils ont été créés par des entreprises ou des éditeurs différents. Il établit un langage et des règles communs pour assurer ce dialogue de pair-à-pair. A2A est la plupart du temps préféré à ACP, Agent Communication Protocol, lancé par IBM en février de cette année.

Autre protocole incontournable : Model Context Protocol. Développé par Anthropic à la fin 2024, MCP permet aux agents IA de se connecter aux outils nécessaires à la résolution de la tâche, comme une application métier de type ERP ou CRM, un service cloud ou une base de données. Rebaptisé "la prise USB-C de l'IA agentique", ce connecteur universel repose sur une architecture client-serveur où le client, en l’occurrence l’agent, envoie des requêtes à un serveur MCP qui expose les fonctionnalités demandées en respectant les droits d'accès qui lui ont été accordés.

Strategic client architect chez MuleSoft, Manh-Kiet Yap dresse une analogie avec le corps humain. "Le LLM est le cerveau d’un système agentique que la base de connaissances vient alimenter. MPC est, lui, le système nerveux de l'agent. Ce protocole lui permet d'agir sur le monde extérieur en consultant des bases de données et interagissant avec des applications métiers et déclencher des actions concrètes."

Cadre de gouvernance ad hoc

L’orchestration des agents IA n’est pas qu’affaire de technique mais aussi de gouvernance. Pour Tom Wiltberger, la transition de la phase générative vers la phase agentique représente un changement fondamental et suppose de mettre en place les garde-fous ad hoc. "Il ne s'agit plus seulement pour les LLM de lire des informations, mais de réaliser des actions concrètes." Ce qui soulève, selon lui, un grand nombre de questions. Qui peut développer ces agents ? À quel moment faut-il placer un humain dans la boucle et quelles actions peuvent être exécutées sans supervision ou avec une supervision limitée ?

Par ailleurs, un LLM commettant inévitablement des erreurs, quel est le seuil d’acceptabilité ? "Dans certains cas d’usages internes, un taux d'erreur de 10 à 15 % peut être jugé acceptable, poursuit Tom Wiltberger. Mais si le service est exposé à l’externe et concerne des centaines de milliers de clients finaux, un taux d'erreur de 5 % devient intenable. Il est donc impératif de s'approcher dès la phase de développement d'un taux d'erreur quasi nul."

Se pose aussi l’enjeu de cybersécurité. Le passage à l’IA agentique augmente la surface d’attaque. Basés sur des LLM, les agents autonomes héritent de toutes les menaces qui pèsent sur l'IA générative, de type "prompt injection", tout en développant de nouveaux risques. A partir d’une injection d'invites, un attaquant peut manipuler un agent corrompu et lui demander d’effectuer des actions malveillantes.

Pour Guillaume Gérard, responsable IA & data chez Capgemini, il convient d’évaluer la criticité du cas d’usage et des outils que l’agent va utiliser pour réaliser sa tâche. "Le niveau de risque jugé acceptable doit être mesurable, observable, conforme au cadre réglementaire et encadré par des protocoles suffisamment sûrs."

Une multitude de frameworks

Le marché entend répondre à ces préoccupations émergentes. Ces derniers mois, on a assisté à une multiplication des kits de développement logiciel (SDK) et de frameworks. Ces environnements proposent de créer et déployer des workflows d’agents d’IA tout en assurant leur orchestration et leur supervision. La plupart sont open source. LangGraph, créé par LangChain, tente avec son mode de résolution itératif d’appliquer les principes de l’approche humaine face à des problèmes complexes. Avec CrewAI, chaque agent agit selon ses compétences, interagit avec ses "collègues" pour déléguer des tâches ou discuter des décisions.

SDK Agents d’OpenAI est une autre bibliothèque open source conçue pour simplifier l’orchestration et la gestion de systèmes composés de plusieurs agents, intégrant des fonctions de traçage afin de visualiser à quel moment un bug s’est produit dans les interactions agentiques. Désormais intégré dans Microsoft Agent Framework, le framework open source Microsoft AutoGen orchestre des interactions complexes entre agents où chacun se voit assigner un rôle au sein du workflow. Un agent proxy sert d’interface entre l’utilisateur et les agents IA. Il est aussi possible de passer par une interface graphique, appelée AutoGen Studio, afin d’explorer les flux de travail multi-agents.

Des éditeurs spécialisés proposent leurs propres plateformes. Microsoft à nouveau édite Copilot Studio, un environnement de développement graphique et low-code permettant de concevoir des agents, de décrire leurs tâches, de les connecter à des sources de données internes ou externes et de créer des workflows. La plateforme intègre, bien sûr, des connecteurs vers l’écosystème Microsoft (Teams, Outlook, SharePoint, Power BI, Dynamics 365) et à des outils tiers comme Salesforce, Zendesk, ou HubSpot.

Agentforce Studio est son équivalent dans le monde Salesforce. La plateforme permet de créer, déployer et gérer des agents autonomes pour automatiser des tâches répétitives, rationaliser les flux de travail et interagir avec les clients ou les collaborateurs. Pleinement intégrée à Salesforce Customer 360, elle exploite en priorité les données CRM de l’éditeur tout en pouvant à se connecter à des sources de données externes.

MuleSoft entend, de son côté, capitaliser sur son savoir-faire dans le domaine de la gestion des API. Fin septembre, la filiale de Salesforce a dévoilé Agent Fabric, une suite d’outils permettant de gérer l’ensemble du cycle de vie des agents quelle que soit leur origine. "Notre plateforme de gouvernance permet d’enregistrer les agents, sur un repository centralisé, puis de les sécuriser et les partager tout en observant et traçant leurs interactions en temps réel, avance Lila Dorato, senior director of solution engineering de MuleSoft. Cette approche garantit la cohérence et la continuité des workflows, indépendamment de la technologie sous-jacente".

Enfermement propriétaire et approche modulaire

Alors que les frameworks open source sont censés apporter une couche agnostique, les studios éditeurs font peser un risque d’enfermement ("vendor lock-in"). "Copilot Studio s’avérera très confortable pour une entreprise qui évolue déjà dans un environnement Microsoft avec toutefois le risque de renforcer sa dépendance", pointe Guillaume Gérard. Une plateforme éditeur peut également être une cible prioritaire pour les cybercriminels. En août 2024, une vulnérabilité critique, corrigée depuis, a été découverte dans Microsoft Copilot Studio exposant une organisation à une fuite de données potentiellement sensibles.

L’IA agentique reposant sur une technologie encore émergente, Tom Wiltberger conseille de faire des choix de plateformes et d’architecture suffisamment évolutives, scalables et robustes pour ne pas devoir en changer au bout de six moins. "Une approche modulaire permet de changer facilement des briques fonctionnelles quand celles-ci deviennent obsolètes", conclut-il.