Déployer une stratégie d'IA générative en 6 étapes

Déployer une stratégie d'IA générative en 6 étapes De la définition des projets au déploiement, tour d'horizon des grandes phases d'une stratégie d'IA génératives. Des bonnes pratiques indispensables pour mettre toutes les chances de son côté.

ChatGPT a rebattu les cartes du marché et incité la plupart des entreprises à se tourner vers l'IA générative. Elles n'ont pas le choix, au risque de se faire emporter par cette lame de fonds. Pour mettre en œuvre une stratégie d'IA générative qui marche, elles peuvent s'inspirer des méthodologies qui ont déjà fait leurs preuves dans le cadre des projets d'intelligence artificielle traditionnels. Reste qu'il faudra bien veiller à tenir compte de certaines spécificités.

1. Acculturer les équipes

Depuis l'avènement de ChatGPT, l'IA générative a fait naître de nombreuses fausses croyances. Il est par conséquent important de débuter toute démarche par une phase d'acculturation. "Cette étape de cadrage est fondamentale", insiste Sara Chokayri, product et roadmap manager en IA générative chez Devoteam. Il est fortement recommandé de sensibiliser les équipes au potentiel de l'IA générative, mais aussi à ses limites. Une séance de formation de deux heures est conseillée pour le comité de direction, et des demi-journée pour la DSI et les représentants des métiers.

Des moments qui seront également l'occasion de présenter le mode d'apprentissage d'une IA générative, ainsi que ses possibilités en termes d'entrainement instantanés ou few-shot learning. Objectif : faire en sorte que chacun partage une grille de lecture commune.

2. Dénicher les cas d'usage

Une fois la phase d'acculturation achevée, un atelier de design thinking, regroupant les différentes parties prenantes, permettra de définir les premiers cas d'usage. L'IA générative se traduit en général par deux grands types d'applications : un ou plusieurs chatbots venant enrichir la gestion de la relation client d'une part, des assistants de support entrainés sur la base d'une documentation interne d'autre part. Compte tenu de la dynamique concurrentielle autour de ces sujets, il peut être pertinent d'envisager de se lancer dans ces deux voies simultanément.

3. Cadrer le coût

Des Chatbots de relation client aux outils conversationnels de support interne, les produits d'IA générative ont généralement pour vocation d'être largement diffusés dans l'entreprise comme à l'extérieur. Dès la phase de cadrage, il est par conséquent recommandé de poser la question des coûts et du retour sur investissement. "Le coût dépendra de la puissance des modèles utilisés, de la longueur des requêtes, de leur nombre, mais aussi du volume de données ingérées pour produire les réponses", commente Martin Alteirac, responsable AI chez Saegus. "Pour éviter de faire exploser la facture et rester limité au budget prévu, les clouds providers intègrent des options de quota pour fixer des limites de consommation par jour ou par mois. Ils peuvent être fonction par exemple d'un nombre d'utilisateurs simultané ou d'un nombre de requêtes par jour." Thomas Ounnas, ingénieur ML/Ops chez Devoteam, ajoute : "Une autre solution est d'optimiser la taille des prompts."

4. Sélectionner le LLM

Dans un projet d'IA générative, la sélection du modèle est évidemment centrale. "De sa taille dépendra la performance, mais aussi une puissance énergétique associée et donc un coût financier et environnemental", rappelle Guillaume Gérard, responsable GenAI Europe centrale et du sud chez Capgemini. Le choix du modèle dépendra principalement de la tâche à accomplir. "Pour résumer des documents, on n'aura pas besoin de modèles complexes. Des modèles plus modestes en termes de taille et de puissance de calcul suffiront", ajoute Guillaume Gérard.

En fonction du cas d'usage, on pourra par ailleurs se tourner vers des LLM de types différents. "Si on souhaite générer du contenu dans le but de produire un roman, on va chercher un modèle qui est bon en story telling, et qui dans sa manière de communiquer véhicule des émotions. Le but étant in fine d'obtenir un récit fluide, intéressant, dynamique et poignant", argue Guillaume Gérard. "En revanche si le cas d'usage renvoie à de la recherche et du résumé d'informations, on sera alors beaucoup plus sensible à sa capacité d'analyse, de vulgarisation ou de synthèse de données froides." Et Sara Chokayri chez Devoteam d'ajouter : "Google Bard par exemple sera très bon dans la compréhension approfondie du texte alors que GPT sera bien meilleur en matière de génération fluide de texte."

Critère de sélection d'un modèle de langue :

  • Etendue de la base de connaissance,
  • Capacité de raisonnement,
  • Capacité conversationnelle,
  • Capacité créative,
  • Capacité de story telling,
  • Capacité d'empathie,
  • ...

5. Choisir entre open source et propriétaire

En termes de stratégie technologique, deux pistes sont possibles avec chacune leurs avantages et leurs inconvénients. D'un côté, l'open source évitera de se retrouver pieds et poings liés à un fournisseur. Il permettra de maitriser son modèle et ses politiques d'entrainement de A à Z. Revers de la médaille : l'open source impliquera un investissement important en compétences, ainsi qu'en ressources de calcul pour gérer la phase d'apprentissage du LLM.

"L'alternative du modèle technologique propriétaire sous forme d'API, comme le propose OpenAI ou Microsoft avec GPT, permettra un time to market nettement plus rapide", souligne Sara Chokayri. "En revanche, il faudra analyser la contrainte du vendor-locking ainsi que la conformité des données utilisées au RGPD."

6. Eviter le réentrainement

La plupart des grands LLM sur étagère évitent d'avoir à mettre en place un réentrainement. Via la technique du few-shot learning, le contenu ciblé est directement référencé au sein d'une base de données vectorielle, par définition équipée d'un moteur d'indexation très efficace. Comment ça marche ? Quand l'utilisateur pose sa question, des blocs vectoriels correspondant sont glanés dans le serveurs d'information avant d'être envoyés en parallèle du prompt pour générer la réponse. "Cela évite aussi d'avoir des informations d'entreprise stockées sur le serveur du fournisseur du LLM. Ce qui permet de se conformer au règlement européen sur la confidentialité des données", complète Martin Alteirac.