Pourquoi l'intégration est-elle un préalable à l'IA? La réponse en 3 points

Le développement de l'IA générative offre des possibilités sans précédents pour les entreprises, qu'il s'agisse de l'amélioration du service client, à la création de nouvelles offres.

Pourtant, tirer le maximum de l’IA nécessite de construire en amont un socle solide pour l’intégration et le traitement des données : en effet, la pertinence de l’IA dépend directement de la qualité des données sur laquelle elle repose.
Alors que 86 % des responsables informatiques s’attendent à ce que l'IA générative joue un rôle prépondérant dans leur organisation, 80 % d'entre eux déplorent que les problèmes d’intégration nuisent encore à son adoption. Voyons donc quelles mesures concrètes les entreprises peuvent entreprendre pour surmonter les obstacles à l'harmonisation des systèmes de données et à l'intégration efficace de l'IA.

L'adoption de l'IA en entreprise est pour le moins hétérogène. Certains sont assez avancés avec des applications très concrètes dans leur démarche R&D pour accélérer le TTM (Time To Market), les analyses de résultats, les conclusions, et la prise de décisions stratégiques. D'autres l'utilisent pour des cas d'usage bien précis: leurs démarches B2C, une meilleure connaissance du client et l'amélioration de l'image de marque, ou l'amélioration du TTM pour répondre aux patients. D'autres encore se concentrent sur l'efficacité opérationnelle, tels que la gestion des appels d'offres, la réponse aux courriers RH, l'amélioration de la productivité.

Dans tous les cas, les dirigeants IT ont tous le même enjeu : garantir la gouvernance et la protection des données. Que ce soit pour anticiper le shadow IT, poser le cadre et la gestion du contenu ou déployer les projets en temps record.
Les constats sont assez mitigés : la fiabilité des bots, de l'IA en général, le développement des créateurs de prompts pour pallier à ceci... On entend que pour définir les KPIs, il faudrait déjà avoir des projets. Les projets sont souvent poussés par le Comex ou générés par des pilotes isolés des utilisateurs métiers. Deux donneurs d'ordre bien différents.
D'autres utilisations, plus avancées, ont déjà généré du chiffre d'affaires associé à ces projets, comme l'amélioration des résultats dans des domaines tels que la gestion des documentations techniques, du support client ou encore l'accompagnement des commerciaux. 
La grande question dans tous les cas est : l'IT comme victime ou leader ? Pour résoudre cette énigme, tout d'abord il faut s'assurer que la gouvernance de la donnée est bien et bel en place, la réponse en 3 points...

Entraînement des LLM avec des données d'entreprise pertinentes

Les grands modèles de langage (LLM) utilisent différentes techniques d'apprentissage, comme le pré-entraînement, l'affinage et l'apprentissage par renforcement basé sur les interactions humaines (RLHF). La plupart des LLMs sont pré-entraînés pour des tâches spécifiques comme le service client ou les processus juridiques.

Pour être efficaces, ces modèles doivent être adaptés aux données métier spécifiques de l'entreprise. La difficulté pour les entreprises est donc de fournir ces données tout en respectant les réglementations de sécurité et de confidentialité locales, telles que la RGPD. Aujourd'hui, il est très difficile de supprimer ou d'obscurcir des informations à partir d'un LLM.

La solution réside dans les architectures composables qui, grâce à l’utilisation d’API, fournissent une couche de gouvernance à l’entreprise. Cette couche de gouvernance fonctionne, entre autres, en appliquant des règles aux API pour contrôler le flux des données sortants qui sont dirigées vers les LLM cibles. Cela permet aux entreprises d'interagir avec les modèles de manière conforme aux réglementations locales.

Le prompting : trouver le juste milieu entre accessibilité et sécurité des données

Une fois que le réglage fin du LLM est effectué avec des données pertinentes, il est prêt à être utilisé via le processus appelé "prompting du LLM". Cette approche vise à structurer les requêtes pour obtenir des réponses plus spécifiques. Lors de la création d'un prompt, il faut généralement inclure des données structurées, comme des informations produits depuis SAP par exemple, et des données non structurées, comme les e-mails clients.
L'intégration des systèmes d'entreprise tels que SAP et des données non structurées permet de nourrir le LLM avec des données de qualité, assurant ainsi la précision des réponses et les taux de satisfaction des clients. 

Un autre défi majeur pour les entreprises est le contrôle des accès et des fuites de données émanant des LLM. Pour permettre aux LLM de répondre avec précision aux prompts, le modèle doit être affiné avec des informations de différents niveaux de confidentialité. Cependant, les LLM ne fournissent pas de contrôles d'accès granulaires. L'utilisation des règles d'API fournit un cadre de sécurité autour des LLM pour contrôler les accès et éviter les fuites de données sensibles des entreprises vers des tiers non autorisés.

Automatisation au service des LLM augmentés

Alors que les LLM d'aujourd'hui sont de nature conversationnelle, ils évoluent rapidement vers des agents autonomes. Les agents autonomes promettent d'améliorer l'un des principaux avantages commerciaux de l'IA : l'automatisation des tâches.

La clé de cette autonomie réside dans la capacité de l'assistant à accéder et à interagir avec les outils, ce qui est rendu possible grâce à l'intégration. En enseignant aux LLM comment utiliser ces outils via les API et en combinant cette capacité avec la gestion des processus, les LLM pourront automatiser les tâches quotidiennes.
Par exemple, un agent de service pourra utiliser l’IA pour automatiser ses tâches : le LLM pourra accéder à son calendrier mais aussi résoudre les conflits au fur et à mesure qu'ils surviennent et prendre des décisions intelligentes sur les meilleurs choix en fonction de son comportement passé.

En cas de doute, les LLM demanderont toujours une intervention humaine pour résoudre les conflits, ce qui répond ainsi au droit des individus de s’opposer à la prise de décision automatisée tel que défini par la RGPD. À leur tour, ces réponses humaines intégreront instantanément les données contextuelles pour perfectionner les LLM.
En résumé, grâce à une solution d’intégration robuste et sécurisée, basée sur la gestion universelle des API et l’automatisation, l’IA peut véritablement être exploitée et les données pertinentes être mises au service des entreprises et des expériences de leurs clients en toute sécurité.
N'oubliez pas : Votre stratégie d'IA dépend directement de la qualité des données sur laquelle elle repose.