Agent d'IA : de quoi parle-t-on et quelles sont les possibilités actuelles ?
Les agents apportent aux grands modèles de langage de nouvelles modalités d'interactions avec le monde extérieur. L'année 2025 promet de voir exploser les cas d'usage à forte valeur ajoutée.
C'est le sujet du moment dans l'IA générative. Popularisés par les grands éditeurs de modèles et développés comme une nouvelle modalité d'action et de communication, les agents commencent à trouver leur utilité auprès des professionnels.. Fonctionnement, exemple d'utilisation, cas d'usage pour les entreprises… On vous explique tout.
Qu'est-ce qu'un agent d'IA ?
Si l'on parle beaucoup des agents d'IA depuis trois mois, leur existence est en réalité plus ancienne. Les agents ont été développés en parallèle des nouvelles modalités (image, audio, vidéo…). Bien que le concept d'agent soit encore assez flou, une définition communément admise consiste à englober sous le terme d'agent tous les systèmes d'action ou de communication à la disposition d'un grand modèle de langage. Le RAG, qui permet à un modèle d'apporter une réponse en se basant sur une source documentaire, est considéré par certains comme l'une des premières modalités véritablement agentique.
Aujourd'hui, l'agent désigne plus spécifiquement l'ensemble d'un système d'IA composé à la fois d'un ou plusieurs LLM et d'une série d'un ou plusieurs outils. "L'agent d'IA est une véritable architecture cognitive qui exploite des modèles d'intelligence artificielle - qu'ils soient dédiés au langage ou aux images - pour orchestrer des tâches complexes, au-delà de la simple interaction question-réponse avec un modèle. Son architecture lui permet d'enchaîner plusieurs appels aux modèles selon différentes étapes, comme dans un graphe d'actions : établir un plan, effectuer des recherches en ligne, analyser des documents, et ainsi de suite", détaille Nicolas Gaudemet, chief AI officer chez Onepoint.
Une multitude de modalité d'action
OpenAI a su saisir très rapidement le potentiel des agents en lançant il y a déjà plus d'un an ses plugins. Aujourd'hui la start-up américaine propose une flopée de connecteurs et de modalités d'actions intégrables directement pour les développeurs : interpréteur de code, génération d'images, recherche sur le web, traitement de la voix (Realtime API)… Autant d'outils à la disposition des entreprises pour développer leurs propres agents.
De son côté, la start-up française LightOn (qui prépare son IPO) va également proposer à ses clients plusieurs outils pour créer ses propres agents personnalisés, avant la fin de l'année. Websearch pour rechercher des informations sur le web, Executive Python pour exécuter du code python et analyser des données ou produire des graphiques, Search Document pour rechercher un document, Extract Information pour extraire des informations d'un document ou encore OCR pour la reconnaissance optique de caractère à partir d'une image.
"Nous sommes dans une nouvelle phase d'évolution de l'IA générative. La première génération se limitait aux interactions conversationnelles. La deuxième génération, celle des systèmes RAG, permet de se connecter à des bases documentaires. La troisième génération, celle des agents, représente une utilisation plus sophistiquée des LLM, capable de gérer des données hétérogènes et d'accomplir des tâches plus complexes et abstraites", analyse Laurent Daudet, co-ceo de LightOn.
Des agents ultra-personnalisés
La diversité d'outils à disposition permet de créer un agent véritablement unique et adapté à un cas d'usage ultra-ciblé. De son côté, Onepoint a développé plusieurs agents démonstrateurs basés sur son assistant Néo qui fonctionnent déjà avec succès. L'un d'eux est spécialisé dans l'analyse d'appels d'offres.
"L'agent effectue plusieurs actions automatisées : il commence par résumer le document principal, puis génère et pose des questions pertinentes sur des points spécifiques comme la gouvernance, les indicateurs de performance ou les ateliers collaborateurs, en citant les pages sources. Ensuite, il élabore un plan d'analyse, effectue des recherches web complémentaires sur des sujets connexes (OPA FDJ, engagements sociétaux), en citant systématiquement ses sources (La Tribune, site LFDJ, etc.). Enfin, il synthétise toutes ces informations dans un rapport structuré, incluant les références, et génère une présentation stratégique d'environ quatre minutes", illustre Nicolas Gaudemet.
Un second agent, toujours chez Onepoint, se concentre sur l'élaboration de business models, en orchestrant plusieurs outils spécialisés. Il commence par effectuer une recherche documentaire approfondie pour comprendre le contexte et identifier la concurrence. Il utilise ensuite ces informations pour générer un Business Model Canvas complet. Sur cette base, il peut développer des concepts de produits et créer des business stories pertinentes. La particularité de cet agent est son approche collaborative : à chaque étape clé, l'utilisateur peut intervenir pour affiner les propositions. Par exemple, quand l'agent suggère des segments clients comme les family offices, l'utilisateur peut modifier ces suggestions avant de passer à l'étape suivante.
Les prochaines étapes
Si les capacités actuelles sont encore limitées, au fil de l'ajout de nouveaux outils et de nouveaux connecteurs, les possibilités pour les entreprises vont se multiplier. "Nous prévoyons d'intégrer des connecteurs avec différentes sources de données via des API. Cela permettra d'accéder aux boîtes mail, aux CRM d'entreprise et à d'autres bases de données. L'intégration de ces connecteurs fait partie de nos développements futurs", avance Laurent Daudet.
Enfin, dans les prochains mois, les agents d'IA vont évoluer grâce à de nouvelles capacités d'interaction avec leur environnement. La fonction "Computer use" d'Anthropic permet déjà à Claude de piloter un ordinateur, tandis que GPT-4o peut désormais communiquer oralement en temps réel, révolutionnant le service client. La prochaine étape majeure sera la communication entre agents, qui pourront échanger et collaborer de façon autonome. Cette avancée nous rapproche de la vision présentée par Google Duplex en 2018 : un assistant entièrement autonome capable de gérer des tâches quotidiennes.