RAG vs RIG : quel système choisir pour améliorer son IA
Après le RAG déjà adopté par de nombreuses entreprises, le RIG propose une approche novatrice pour générer des réponses plus précises et contextualisées.
Une nouvelle approche pour fiabiliser les réponses d'un LLM. Après l'adoption massive des systèmes de RAG en entreprise, qui permettent de fournir un contexte à un LLM à partir d'une base documentaire, une nouvelle approche plus intelligente se développe. Passé sous les radars médiatiques, le RIG pour Retrieval Interleaved Generation, permet aux grands modèles de langage de fournir des réponses fournies et documentées. Explications techniques, avantages et inconvénients… On vous donne les clés de cette nouvelle approche novatrice.
RAG vs RIG : un fonctionnement opposé
Le RIG a été popularisé par des chercheurs de Google dans le cadre de travaux visant à réduire les hallucinations des LLM. L'étude, publiée en septembre 2024, présente notamment les avantages du RIG par rapport au RAG. Le RAG et le RIG diffèrent fondamentalement dans leur façon d'interagir avec les bases de connaissances. Dans un système RAG traditionnel, le processus est linéaire et se déroule en trois étapes distinctes : d'abord, la question de l'utilisateur est convertie en un vecteur numérique via un modèle d'embedding. Ensuite, ce vecteur est utilisé pour rechercher les fragments de documents les plus similaires dans une base de données vectorielle. Enfin, ces fragments sont fournis comme contexte au LLM qui génère sa réponse en une seule fois.
Le RIG adopte une approche plus interactive et itérative. Au lieu de s'appuyer sur une simple recherche par similarité vectorielle, le LLM est entraîné à formuler lui-même des requêtes structurées (dans le langage de la base de données, par exemple en SQL) tout au long de sa génération de réponse. Concrètement, lorsque le LLM génère du texte et qu'il a besoin de citer un fait ou une statistique, il s'interrompt pour formuler une requête précise à la base de données. Par exemple, s'il écrit "Le taux de chômage en France en 2023 était de", le modèle va automatiquement générer une requête structurée pour obtenir cette information exacte, puis intégrer la réponse dans son texte.
De nombreux avantages, un déploiement complexe
Grâce à son architecture agile, le RIG permet au LLM de générer des réponses plus pertinentes. Le modèle apprend à identifier lui-même les informations dont il a besoin au fil de la construction de sa réponse. Dans le cas du RAG, le modèle n'a pas la capacité d'interagir directement avec la base de données et doit se contenter d'un contexte initial. Par exemple, avec le RIG, pour une question complexe sur un sujet historique, le LLM pourrait d'abord chercher le contexte général de l'époque, puis des événements spécifiques, et enfin des détails précis sur les acteurs impliqués. Une méthode itérative qui offre des réponses mieux documentées que le RAG.
Bien que le RIG soit prometteur, son implémentation pratique en production reste complexe. Le modèle doit en effet être fine-tuné pour avoir la capacité de faire des requêtes structurées avec le langage adéquat de la base de données. Par ailleurs le RIG implique plusieurs requêtes à la base de données et peut donc générer un coût computationnel plus élevé que le RAG. Enfin, l'interrogation directe de la base de données à de multiples reprises peut générer un temps de latence légèrement supérieur dans la réponse à l'utilisateur final.
RAG, RIG : des cas d'usage définis
Bien que le RIG représente une nouvelle direction prometteuse, l'approche RAG restera probablement la solution la plus simple pour la plupart des cas d'usage généraux où l'utilisateur a simplement besoin d'une réponse concise et factuelle. Le RAG brille lorsque la requête utilisateur est simple et peut être abordée avec une documentation textuelle peu complexe.
De son côté, le RIG excelle dans des cas où les requêtes sont complexes et nécessitent une interaction itérative avec une base de données structurée. Par exemple, pour interroger une base SQL, le RIG permet de construire une réponse précise en naviguant entre différentes couches d'information.
Pour les entreprises, tester et expérimenter le RIG sera essentiel afin d'évaluer le potentiel dans des cas d'usage ciblés comme des agents spécialisés ou systèmes nécessitant des réponses basées sur des données dynamiques et complexes. Néanmoins, pour la plupart des chatbots généralistes, le RAG reste la solution la plus pertinente.