Non, GPT5 ne sauvera pas votre projet IA !
Peu importe le modèle pourvu qu'on ait la connaissance : GPT-5 n'est pas la réponse magique à tous vos projets IA en entreprise, et c'est une bonne nouvelle.
Depuis 18 mois tous les acteurs de la relation client s’accordent pour dire que l’intelligence artificielle est une très bonne alliée pour répondre toujours plus vite sur de nombreux canaux de contacts, 24h sur 24 et 7 jours sur 7. Que ce soit au cœur des outils internes des conseillers pour les aider au quotidien, ou en contact direct avec les clients, l’IA est porteuse de nombreuses promesses pour augmenter l’efficience opérationnelle et la satisfaction de toutes les parties prenantes.
Pourtant de nombreux projets démarrés en mode preuve de concept ne vont pas jusqu’à la mise en production réelle, à l’échelle, de ces solutions. C’est le moment de se saisir de ces technologies pour les intégrer là où elles ont du sens, en appui et en confiance.
La connaissance métier, socle indispensable de l'IA de confiance
Un projet IA réussi est un projet IA qui passe en production avec toutes les garanties nécessaires pour comprendre le comportement de l’algorithme avant de le mettre à disposition d’un utilisateur final. Plutôt qu’une course aux plus gros modèles de langage, il s’agit avant tout d’un projet de donnée et de gouvernance pour casser les silos d’information, mutualiser les efforts au sein de l’organisation et organiser la gestion de la connaissance pour le futur
Réunir et structurer toutes les sources d’information n’est pas simple, je le constate auprès des grands comptes depuis plus de 10 ans. Cette étape est pourtant indispensable pour envisager la réussite d’un projet impliquant de l’IA générative. La construction, ou l’optimisation, de cette source de vérité, vérifiée et validée par l’ensemble des experts internes, est la clé du succès pour tous les projets IA des grandes entreprises.
Il faut transformer les données brutes disponibles un peu partout dans des formats plus ou moins structurés, en informations réellement utilisables pour vos équipes comme pour l’IA. Nos travaux de R&D sur les sujets de recherche d’information et de gestion de bases de connaissances confirment l’importance de la complémentarité entre les experts métiers et les agents IA !
Tirer profit du conversationnel pour résoudre des problèmes jusque là inaccessibles
J’en suis convaincu depuis plusieurs années, ce n’est pas le nombre de paramètres ou le temps passé pour entraîner des modèles de langage qui fera la différence pour nos clients sur leurs cas d’usage très concrets. Au contraire, plus les modèles sont capables de réaliser des tâches toujours plus complexes, plus nous devons pouvoir les encadrer pour les rendre utilisables dans un contexte professionnel en production.
OpenAI va d’ailleurs dans ce sens avec GPT-5 en mettant l’accent sur les capacités du modèle à ne pas répondre ou à expliquer pourquoi il ne peut répondre que partiellement à une requête de l’utilisateur. Halte aux hallucinations et aux réponses dangereuses pour le client final qui échange avec un chatbot utilisant l’IA générative !
Pour passer le cap de la preuve de concept, c’est bien la capacité d’un produit à délivrer des réponses justes, avec la bonne tonalité, qui fait la différence. Et si nous allons encore un peu plus loin, la connexion d’une base de connaissance à un écosystème complet autour d’outils CRM et de canaux de données complémentaires est au moins aussi importante que l’intelligence supposée d’un modèle génératif. Les grands modèles de langages sont très bons pour résumer, reformuler, ajouter du contexte, et rendre les échanges plus conversationnels, utilisons-les pour enrichir les expériences !
Maîtriser les opportunités (et les risques) spécifiques à la relation client
Nous ne pouvons pas laisser un LLM répondre à un client sans avoir le contrôle sur cette réponse. L’effet boîte noire n’est pas envisageable ! Les fournisseurs de modèles (OpenAI en tête) annoncent travailler sur la réduction des hallucinations, mais il faut aller encore plus loin avec des solutions testées et éprouvées spécifiquement pour les usages de chaque secteur et de chaque métier.
La gestion de la toxicité conversationnelle est également centrale dans le déploiement d’outils d’IA auprès d’un public de clients. Nous avons le devoir de faire mieux que les filtres sur étagère chez les providers pour contrecarrer les sujets à risque réputationnel, les insultes ou les tentatives de “jailbreak” du chatbot. C’est ce que nous faisons avec notre équipe de recherche qui a publié en début d’été un papier sur le sujet lors de la conférence CORIA-TALN, référence académique sur les sujets de recherche d’information et de traitement du langage.
Saisissez l’opportunité de l’IA de confiance made in France
Déployer des agents IA n’est pas une fin en soi, mais les opportunités sont nombreuses, les cas d’usages pertinents et efficients aussi !
En début d’année Gartner prédisait que 30% des projets lancés en preuve de concept en 2025 n’irait pas jusqu’à la mise en production. Cet été le MIT allait encore plus loin avec une étude qui démontre que 95% des projets d’IA générative en entreprise n’atteignent pas leurs objectifs.
Cela peut être contre intuitif quand Sam Altman annonce GPT-5 comme étant aussi intelligent qu’un docteur dans chaque domaine, pourtant l’expertise métier et la connaissance des clients par les professionnels humains n’a jamais été aussi importante. Cette expertise est incontournable pour passer des démonstrateurs à des outils déployés en production qui apportent de la valeur et facilitent le quotidien des clients mais aussi de leurs conseillers. Allons plus loin que l’effet de mode pour penser à long terme avec des outils de confiance sur lesquels nous pouvons compter au quotidien.