Albert, l'IA générative de l'Etat, désormais déployé à grande échelle
Grand modèle de langue (LLM) dévoilé en avril 2024, Albert est la tête de pont de l'Etat dans l'IA générative. Sous le capot, ce modèle repose à la fois sur le LLM open source Llama 3.1 de Meta et sur les LLM open source de Mistral. Cette technologie de GenAI souveraine est elle-même open source. Pourquoi avoir fait ce choix ? "Parce que nous voulions pouvoir répondre à tout type de cas d'usage en IA générative au sein de l'administration, y compris la mise en œuvre de projets impliquant la manipulation de données sensibles. C'est aussi pour cette raison que nous avons installé Albert sur des instances dont nous avons la pleine maîtrise", explique Ulrich Tan, chef du pôle Datalab du département Etalab de la direction interministérielle du numérique (Dinum).
Tout l'éventail de l'IA générative est visé par Albert, depuis la rédaction automatique de texte jusqu'à la synthèse de document en passant par la génération augmentée de récupération (RAG) - qui permet de répondre à une question en partant d'un corpus de fichiers précis. "Albert a été conçu comme un assistant à destination des agents, et non à destination des citoyens. En bout de course, les agents demeurent seuls responsables de la relation avec les usagers", insiste Ulrich Tan.
La Dinum a commencé par développer des produits autour d'Albert dans une approche sur-mesure. Elle l'a ensuite mis à disposition des ministères via une API pour leur permettre de développer directement des projets. Une approche de LLM as a Service qui a été mise en œuvre l'été dernier. L'enjeu ? Accompagner le déploiement du LLM en vue de le mettre à la portée des 2,5 millions d'agents publics de l'Etat. Une nouvelle phase qui est désormais en cours. Enfin, la Dinum a commencé à dérouler sa stratégie open source en publiant le code d'Albert sur GitHub et Hugging Face.
Une première expérimentation qui porte ses fruits
Pour accompagner sa montée en puissance, Albert a été porté par les équipes du département Etalab de la Dinum en s'appuyant sur les méthodes agiles et l'approche DevOps. "L'idée est de rendre le chantier plus efficient avec pour objectif d'aboutir rapidement à des déploiements qui fonctionnent", explique Pierre Pezziardi, conseiller de la directrice interministérielle du numérique. "On évalue ensuite les résultats. Par exemple, dans le cas d'un assistant (basé sur Albert, ndlr) permettant aux greffiers de réaliser des résumés de procédures, on mesure son taux d'utilisation et le nombre d'heures gagnés par semaine en dressant des cohortes."
Tout premier cas d'usage d'Albert mis en œuvre ? Le LLM fait l'objet d'une expérimentation au sein de France Services, qui a donné lieu à une déclinaison, baptisée Albert France services, pour aider les conseillers du service de support de l'Etat à répondre aux questions des citoyens dans leurs démarches administratives. Couvrant 7 départements, cette expérimentation mobilise à ce jour 80 conseillers. Les premiers résultats sont au rendez-vous. 71% des utilisateurs considèrent le produit facile à prendre en main, et 58% se disent prêts à le recommander à un(e) collègue. Branchée sur l'API d'Albert, cette IA a notamment été alimentée avec les fiches pratiques du site service-public.fr.
Autres cas d'usage, Albert est intégré à compar:IA, le comparateur d'IA conversationnelles développé par le ministère de la Culture. Mais aussi à la suite bureautique de l'Etat. Au sein de son outil de traitement de texte (Docs), il est notamment utilisé comme solution de reformulation, de synthèse et évidemment de génération de texte. Au sein de son tableur, Grist, Albert génère le code Python nécessaire pour réaliser telle ou telle formule. Enfin dans son application de visioconférence Webconférence, il entre en action pour retranscrire les réunions. "Ici, la philosophie est de commencer par un usage massif de l'IA générative au sein de la suite pour ensuite décrypter les remontées de terrain avant d'optimiser chaque application bureautique dans une logique d'amélioration continue", commente Pierre Pezziardi.
"A terme, compar:IA a pour objectif d'outiller un futur régulateur européen l'IA générative"
Au-delà de ces premiers exemples, certaines administrations déploient déjà leur propre version d'Albert via son API. C'est le cas de l'Académie de Lyon qui a développé un modèle pour piloter la phase de mobilité des enseignants et éviter les contentieux, ce process répondant à de nombreux textes réglementaires qui fondent le droit à la mobilité au sein de l'Education nationale. "D'autres académies qui feraient face à la même problématique pourraient ré-instancier ce modèle pour leur propre besoin", précise Raphaël Bevenot, chef adjoint du Datalab. L'API d'Albert a ainsi pour vocation de mutualiser les projets de LLM au sein de l'administration publique.
Sur 2024, l'Etat a investi plus d'un million d'euros dans le développement d'Albert. L'ensemble des projets gravitant autour du LLM sont publiés en open source dans une logique de service public et une démarche d'ouverture visant à promouvoir l'open innovation. "Nous n'avons pas encore commencé à animer une équipe de contributeurs externes autour d'Albert. Ce sera la prochaine étape", anticipe Ulrich Tan.
Toujours en termes de gouvernance, les équipes du département Etalab de la Dinum en charge du développement d'Albert déroulent des phases d'investissement par tranche de six mois. En ligne de mire : aboutir rapidement à des applications en production. "La tendance de l'Etat est de succomber à la complexité, ce qui a pu engendrer des dérapages sur des projets informatiques dans le passé", rappelle Pierre Pezziardi. "Dans notre logique, nous fonctionnons par itération. Dans sa première version, compar:IA permet par exemple de comparer des modèles et de commencer à objectiver leurs biais. Mais à terme, ce projet a pour vocation d'outiller un futur régulateur européen de l'IA générative."
Du RAG multi-agent
Pour la suite, un graph de connaissances est en cours de développement pour venir affiner les réponses d'Albert. "Quand on s'attaque à des questions juridiques par exemple, l'association avec ce knowledge graph se traduira par des résultats plus efficients", anticipe Ulrich Tan. "Les IA reposant sur l'apprentissage automatique peuvent générer des erreurs. Ce qui n'est pas acceptable dans de nombreux domaines, notamment dans le champ juridique. D'où l'idée de déployer un graph pour aboutir à des résultats plus fiables."
Autre projet de R&D mené sur la base d'Albert : un RAG multi-agent. A travers ce dispositif, un premier agent évaluera le degré de complexité des questions posées. Il les classera par catégorie : celles qu'il estime inintelligibles et inexploitables notamment par manque de contexte, celles qui pourront être traitées sur la base des documents fournis, celles dont les réponses pourront être générées sans document, etc. Un deuxième agent viendra cerner plusieurs réponses intermédiaires possibles. Un troisième les synthétisera. Enfin, un quatrième établira les sources utilisées par degré de pertinence. La Dinum n'est pas la première organisation à explorer le RAG multi-agent. C'est aussi le cas en France d'Orange Business qui cible, dans ce domaine, des cas d'usage sur le terrain du RAG multimodal.
Dans le cadre du Sommet pour l'action sur l'Intelligence Artificielle, la Dinum organise un hackathon pour répondre à des défis d'intérêt général. Tous les professionnels de la tech, secteurs publics et privés, sont invités à y participer les 5 et 6 février à Paris.