En 2025, pensez produit avant de penser IA et LLM
Les américains innovent, les chinois copient, et les européens régulent, vous connaissez sans doute la chanson. Mais le plus important est d'exploiter ces outils pour créer des produits performants.
La course au plus gros modèle de langage est un non sens complet
Car en plus d’aller plus vite et plus loin que tout le monde, les américains ont deux avantages incontournables : l'argent et la donnée. Les big techs comme les startups américaines "de l'IA" ont beau traverser des périodes plus compliquées depuis la pandémie, elles ont toujours plusieurs dizaines de milliards de dollars d'avance dans les infrastructures technologiques qui font tourner ces grands modèles "fondation". Des modèles qui seraient, comme leur nom l'indique, indispensables pour imaginer des projets d'IA à la pointe de la technologie actuelle, fondation solide et nouveau standard indiscutable par définition.
Pour entraîner et maintenir ces grands modèles, de langage et à fortiori pour l'analyse d'image ou la création de vidéo, il faut beaucoup de serveurs, de GPU dernier cri, et des data centers entiers de données de tous types et de toutes origines. L'intérêt d'un modèle d'IA "de fondation" serait donc proportionnel au nombre de paramètres disponibles et aux niveaux d'abstraction (et d'inexplicabilité) associés.
Souhaitons-nous vraiment investir autant dans des modèles statistiques aussi instables ? Les acteurs européens doivent-ils absolument rentrer dans cette course avec des moyens inférieurs en allant chercher des financements européens et nationaux à cet effet ? Permettez moi d'en douter.
Et si nous construisions des produits utiles et auditables ?
Il n'est pas question de nier l'intérêt de ces modèles pour de nombreuses applications au service du quotidien d'utilisateurs et d'entreprises à une échelle jamais vue. Cette transformation existe bel et bien. Mais au-delà de l'aspect ludique de l'interface de discussion, et du gain de productivité pour produire des textes à la chaîne, que faisons-nous concrètement de ces outils ?
Plus loin que d'avoir accès au plus gros modèle, le plus gourmand en données et le plus énergivore possible, l'enjeu est à la conception ou à l'enrichissement de produits numériques grâce à ces nouvelles briques. Dans un monde idéal, cette capacité à développer de nouvelles fonctionnalités “intelligentes" pourrait même s'affranchir du fournisseur de modèle utilisé.
Les européens, et encore plus les français, sont très forts pour concevoir ces produits et des expériences nouvelles. Nous pouvons penser à Nabla ou Synapse dans la santé, qui s'intéressent avant tout aux professionnels et à leurs patients pour créer des produits utiles et sûrs, avec des algorithmes d'IA en renfort pour faciliter l'expérience. Bien comprendre ses utilisateurs afin de leur proposer un produit facile à prendre en main, avec les bonnes connexions tierces et en confiance, cela semble être la clé pour une adoption réussie.
L'IA de confiance, ce n'est pas qu'une charte éthique
Pour aller plus loin, il faut que les clients, citoyens, patients, aient confiance dans les produits qui intègrent de l'IA. Sûrement pas en propageant des peurs démesurées avec des discours autour des robots qui vont voler tous nos jobs demain. L'acculturation à l'IA passe par l'explication simple (sans être simpliste) et concrète des enjeux, les échanges sur le terrain depuis plusieurs années, de séminaires en conférences, me l'ont plus que jamais prouvé.
Mais la confiance ne se décrète pas !
Il ne suffit pas d'établir une charte éthique de l'utilisation de l'IA dans une organisation ou une institution pour que le public vous fasse confiance. La construction de ce lien, indispensable à l'adoption des produits et services IA, passe par des engagements clairs et des preuves concrètes. En ce sens, l'AI Act promeut plutôt bien de nombreux axes de bonnes pratiques à mettre en place, notamment le sujet de l'évaluation tout au long du cycle de vie de cette IA et avec la mise en place de collèges de garantie humaine pour documenter et certifier ces engagements.
Pour qui travaille dans les secteurs dits à haut risque, ces lignes directrices n'ont rien de très nouveau et sont simplement la traduction réglementaire de principes déjà appliqués d'instinct et par souhait de faire les choses bien. Les utilisateurs vont, de plus en plus, nous demander des comptes et des garanties, il faut y être préparé.
L’utilisation de ces briques technologiques doit toujours se faire en ayant conscience des opportunités mais aussi des risques associés. Des risques qui peuvent, pour la plupart, être modérés grâce à des phases de conception responsables par des professionnels sensibilisés aux enjeux de responsabilité au sens de l’AI Act mais aussi de façon beaucoup plus concrète, ancrés dans le quotidien des utilisateurs finaux.
Le challenge de 2025 n’est pas dans la course à l’utilisation du plus grand modèle possible, mais à la conception d’agents IA justement dimensionnés pour résoudre chaque tâche. Le chemin est encore long, mais les outils et méthodes disponibles aujourd’hui nous permettent de construire des produits utiles dans ce cadre permettant l’adoption et l’usage de tous en confiance. C’est le moment de s’en saisir pour faire toujours mieux !