Quatre prérequis pour réussir un projet d'IA agentique

Quatre prérequis pour réussir un projet d'IA agentique L'IA agentique n'est pas qu'une simple évolution de l'IA générative. Déployer des agents autonomes en entreprise nécessite de relever des défis complexes en termes d'orchestration, de sécurisation et de gouvernance.

Les entreprises se sont à peine remises de la déferlante ChatGPT qu'elles doivent encaisser un nouveau choc technologique. Après les chatbots et les copilotes intégrés aux applications professionnelles, les agents autonomes se présentent comme la troisième vague de l'IA générative. Ils sont ainsi dénommés car ils sont en mesure d'exécuter des tâches complexes en se connectant aux données d'une organisation. En misant sur le potentiel des grands modèles de langage (LLM), l'IA agentique offre de nouvelles opportunités d'automatisation des processus métier, dépassant le champs du possible de la Robotic process automation (RPA).

S'agissant d'une technologie émergente, les retours d'expérience se font encore rare. Pour autant, l'IA agentique semble avoir passé la phase d'évangélisation pour passer à la phase d'expérimentation. Deloitte prévoit que, cette année, 25% des entreprises utilisant l'IA générative lanceront des projets pilotes ou des preuves de concept (PoC) d'IA agentique, et ce chiffre doublera en 2027.

Le maché français montre une belle appétence. Selon un sondage de l'institut OpinionWay réalisé pour le compte de Salesforce, 81% des décideurs français reconnaissent l'impact positif de cette "main-d'œuvre numérique". 84% voient les agents autonomes comme un levier pour fiabiliser leurs processus et réduire les erreurs humaines.

1. Définir les processus éligibles

Si l'intérêt est réel, le succès d'un projet d'IA agentique répond à des critères qui lui sont propres. Il convient tout d'abord de définir les processus éligibles en tenant compte de ses spécificités. "L'intérêt des agents d'IA repose sur leur capacité à prendre des décisions et à mener des actions en toute autonomie avec une supervision humaine la plus limitée possible", avance Xavier Cimino, senior managing director strategy chez Publicis Sapient. "Dans le domaine du développement logiciel, les agents IA pourront progressivement réaliser de façon autonome des tests, remonter les bugs et les corriger."

Global managing partner, strategy & transformation chez Wipro Consulting, Caroline Monfrais évoque d'autres cas d'usage possibles. "Dans le cas de la détection des cas de fraude dans une banque, un agent pourra, par exemple, agir en toute autonomie pour les transactions en deçà de 100 euros", note-t-elle. Autres exemples, un transporteur pourra optimiser la gestion de sa chaîne logistique en analysant le retour du terrain et un opérateur télécom automatiser le premier niveau de son help desk, et orienter les appels vers des opérateurs humains au-delà d'un seuil de confiance.

"La définition du rôle et des objectifs n'est que la première étape du cycle de vie d'un agent d'IA"

Le point commun à ces cas d'usage : la capacité à découper un processus en tâches unitaires automatisables. Le critère répétitif de ces tâches renforce l'éligibilité de ce processus à l'IA agentique tandis que sa criticité l'en éloigne. L'IA agentique implique, par ailleurs, une nouvelle approche. A la différence d'un robot logiciel de RPA, "un agent n'est pas un outil mais un collègue virtuel qui occupe un rôle, en prenant des décisions basées sur des paramètres prédéfinis", observe Caroline Monfrais. "Il s'agit de définir ce rôle puis de décider de le confier à un humain, à un agent ou aux deux."

L'objectif assigné à l'IA agentique sera également fixé en début de projet. "L'apport métier doit être clair, concret et visible comme un gain de temps, une hausse de la productivité ou une amélioration de la satisfaction client", juge Tanguy Perrot, director business value services chez Salesforce. Ce qui suppose d'impliquer la direction métier concernée par l'automatisation dès la phase amont.

"La définition du rôle et des objectifs n'est que la première étape du cycle de vie d'un agent d'IA", selon Anthony Hié, chief innovation & digital officer du groupe d'enseignement supérieur Excellia qui expérimente actuellement l'IA agentique pour automatiser des campagnes de recrutement d'étudiants. "L'étape suivante de conception et d'orchestration permet d'évaluer les besoins en ressources et en connecteurs. Après, il y a la phase d'entraînement, de réentraînement et de gestion des erreurs. Vient ensuite le monitoring pour le suivi des indicateurs de performances et le contrôle des coûts. Enfin, on passe aux tests et au déploiement."

2. Intégrer les agents au système d'information

Contrairement aux modèles d'IA générative, les agents autonomes n'opèrent pas en vase clos. Leur efficacité dépend d'une connexion fluide avec le système d'information de l'entreprise. Pour mener à bien leurs tâches, les agents iront interroger les données hébergées dans des environnements disparates via des APIs et des connecteurs sécurisés.

S'agissant d'une technologie émergente, il manque un standard pour garantir cette interopérabilité. Lancé fin 2024, le Model Context Protocol (MCP) pourrait être celui-là. Développé par Anthropic, ce protocole ouvert a été repris par la plupart des acteurs du marché dont Microsoft pour Copilot. MCP vise à connecter de façon universelle les IA à des applications métiers, des bases de données ou des services cloud sans passer par des connecteurs propriétaires.

Il s'agit, par ailleurs, de s'outiller pour assurer le déploiement des agents IA et leur orchestration afin qu'ils puissent travailler ensemble. Ces derniers mois, un nombre croissant de kits de développement logiciel (SDK) et de frameworks ont fait leur apparition comme LangChain, LlamaIndex, LangGraph ou OpenAI Agents SDK. Cofondateur et VP science de la décision chez Moov AI, Olivier Blais les a listés dans un billet de blog. "Bon nombre de ces frameworks sont disponibles en open source, ce qui pose la question de leur maintenance sur la durée", tempère l'expert.

Bien sûr, la qualité des données est, comme pour tout projet IA, un élément clé de réussite. "Pour prendre les bonnes décisions, un agent IA doit avoir accès à des informations fiables comme c'est le cas pour son collègue humain", constate Caroline Monfrais.

3. Répondre aux risques spécifiques

Accédant au système d'information et aux bases de données de l'entreprise, les agents d'IA augmentent mécaniquement la surface d'exposition aux risques. Dans un guide en ligne, Publicis Sapient liste ces menaces spécifiques à l'IA agentique. L'intégration aux processus décisionnels intensifie tout d'abord le risque de corruption des données. "Des acteurs malveillants pourraient injecter des données biaisées ou trompeuses pour manipuler les réponses et actions de l'IA, avec des conséquences potentiellement graves", note le cabinet de conseil. Pour atténuer ce risque, il convient "d'assurer l'intégrité des données, de valider les sources et de mettre en place une surveillance continue".

Autre menace identifiée : l'optimisation aveugle. Les agents IA, tout particulièrement ceux entraînés par des modèles d'apprentissage par renforcement, pourraient dévoyer le système de récompense en maximisant les indicateurs de performance sans pour autant atteindre les objectifs visés. "Un agent d'IA chargé d'optimiser le trafic web pourrait recourir à des tactiques racoleuses ou générer du contenu trompeur pour gonfler artificiellement les métriques", alerte Publicis Sapient.

Pour Xavier Cimino, "il y a un long processus d'identification et d'atténuation des risques à réaliser avant d'envisager une mise en production". Les entreprises peuvent notamment recourir à des données synthétiques dans les premières phases de développement afin de valider le potentiel d'un cas d'usage sans manipuler de données sensibles.

Enfin, il convient de garder un œil humain dans la boucle. "Bien que les agents IA ont vocation à agir de manière autonome, il est crucial d'avoir un certain niveau de supervision humaine, surtout au début, pour vérifier que tout se passe bien et ajuster les paramètres si nécessaire", juge Caroline Monfrais. Anthony Hié va jusqu'à conseiller de mettre en place un stop button, un bouton d'arrêt d'urgence pour tout arrêter en cas de dérive.

"S'agissant d'une technologie émergente, il est difficile de prévoir les coûts réels une fois le passage à l'échelle réalisé"

Pour éviter l'effet boîte noire, un projet d'IA agentique répondra également au principe d'explicabilité. "Une entreprise doit pouvoir remonter et comprendre la chaîne de décisions qui a permis à un agent IA de passer d'un point A à un point B", estime Xavier Cimino. "Il faut qu'un humain puisse ouvrir le capot et expliquer le process."

L'IA agentique renvoie, par ailleurs, à la notion de responsabilité. "Si un agent commet une erreur auprès d'un client final, l'organisation qui l'a déployé en est tenue responsable", avertit le consultant. "Son capital confiance peut être engagée. Il est donc conseillé d'utiliser l'IA agentique avec parcimonie et de se faire la main sur des cas d'usage simples et à faible risque."

Dernier risque et pas des moindres : l'explosion des coûts. "S'agissant d'une technologie émergente, il est difficile de prévoir les coûts réels une fois le passage à l'échelle réalisé", alerte Xavier Cimino. "Avec un tarif au token, la facture peut vite s'envoler. Il sera dommage d'annuler les gains de l'automatisation en frais techniques. C'est un équilibre économique à trouver."

4. Assurer la collaboration homme-machine

Les agents IA travaillent ensemble mais aussi – c'est une autre spécificité de l'IA agentique – avec des êtres humains sur un même processus. Pour les faire collaborer harmonieusement, il convient d'assurer la répartition des tâches entre agents autonomes et employés. En automatisant les tâches répétitives, l'IA agentique doit permettre aux employés de se concentrer sur des tâches à plus forte valeur ajoutée.

"Nous sommes dans une logique de collaboration et non de compétition", rassure Xavier Cimino. "Les agents IA sont davantage là pour augmenter le collaborateur et non pour le remplacer." Pour réduire les résistances au changement, il convient, selon Caroline Monfrais, de faire preuve de pédagogie et d'adopter une communication claire sur les atouts et les limites des agents IA.

Si les agents autonomes concernent surtout les cols blancs, l'étape suivante de l'IA, avec l'arrivée de l'IA agentique physique (physical agent AI), touchera les cols bleus. Comme son nom l'indique, il s'agit d'étendre l'IA générative à l'espace physique. Dotés d'une intelligence embarquée, les robots, les machines-outils ou les véhicules autonomes apprendront à effectuer des actions complexes dans le monde réel et à interagir avec les humains qui les entourent.