Prendre l'IA sous l'angle des petits modèles
Après l'emballement autour de l'IA, le secteur commence à s'orienter vers de nouvelles approches pour maximiser cette technologie pour les différents cas d'usage.
Les réflexions qui entourent l’intelligence artificielle (IA) se font plus réalistes, à mesure que l’emballement de ces derniers mois s’apaise. Certaines interrogations demeurent tout de même, notamment pour savoir si les experts informatiques (CTO, architectes, décideurs) sont désormais aptes à héberger, entraîner et mettre à jour l’IA. Les LLM contribuent à compliquer ces objectifs, imposant alors de combiner entre eux des petits modèles d’IA pour assurer de meilleures perspectives. Ainsi, la logique en vogue aujourd’hui, au détriment de l’IA des grands modèles de langage, serait l’IA en essaim.
Les grands acteurs d’un secteur ont tendance à dominer les marchés centrés sur de nouvelles technologies, avant que des acteurs plus petits se saisissent à leur tour de cette vague d’innovation. La dernière phase est celle d’une consolidation du marché à mi-chemin entre les deux. Pour illustrer cette idée, on peut parler des applications simples, comme les moteurs de recherche, chatbots ou encore la synthétisation de contenus, qui s’appuient principalement sur des petits modèles de langage tout en restant rentables.
Cela s’explique notamment par le côté trop universel de l’IA et des grands modèles de langage, qui peinent à donner des réponses plus précises et spécifiques, ainsi que par la possibilité de voir se produire des hallucinations sans pouvoir les contrôler.
Les petits modèles ont le vent en poupe
L’IA « en essaim » est un type d’approche alternatif face aux LLM, qui s’appuie sur différents petits modèles, qu’ils soient développés en interne ou pré-existants sur le marché et se combinant aux autres, pour réaliser les tâches requises.
Quel est l’intérêt de recourir à des petits modèles ? En premier lieu, pour dynamiser l’adaptation et perpétuer l’intégration de nouvelles données, avec des cycles d’entraînement accélérés. Ensuite, ils ont l’avantage de réduire drastiquement les coûts, à l’inverse des LLM qui requièrent beaucoup d’investissements pour assurer tous leurs paramètres.
Les entreprises peuvent réussir à atténuer leur dépendance envers les grands fournisseurs de LLM en optant pour des petits modèles construits sur des données spécifiques à un secteur. En effet, elles évitent ainsi les solutions opaques en matière d'algorithmes, de données d’entraînement et de modèles, et bénéficier d’une plus grande transparence, traçabilité et fiabilité. Et dans le contexte européen marqué par de nouvelles normes réglementaires qui sont adoptées également par d’autres pays à l’international, les nouvelles références deviennent par exemple l’AI Act, au détriment de cadres comme le RGPD.
En dernier lieu, l’IA en essaim adresse aussi la problématique de pénurie de talents dans le domaine de l’IA, tout en assurant le déploiement effectif des LLM. Les petits modèles permettent d’accélérer la phase d’expérimentation et donc les cycles de développement, car il est aussi plus facile de les entraîner, les optimiser et les déployer.
Suivre le cycle des données, de la plateforme jusqu’à l’écosystème
Un modèle d’IA doit inévitablement s’appuyer sur des données structurées, spécifiques et de haute qualité pour assurer son bon fonctionnement. Les grandes entreprises ont généralement accès à leurs propres bases de données et data lakes. Les données structurées détenues par des organismes du secteur public peuvent être mis à profit avec des solutions d’IA spécifiques à un domaine, pour planifier par exemple les itinéraires empruntés par les éboueurs en tenant compte des anciennes données historiques.
D’autres éléments, comme l’architecture et l’infrastructure sous-jacente, sont essentiels aux environnements d’IA. C’est véritablement avec une plateforme open source, flexible et hybride, qu’une entreprise peut se soustraire à une relation de dépendance avec des fournisseurs, tout en restant informée des dernières innovations en matière d’IA et capable de les appliquer à n’importe quel cas d’utilisation. Avec la flexibilité apportée par les plateformes open source, les utilisateurs peuvent entraîner, régler, déployer et contrôler les modèles d’IA à la fois dans le cloud, en périphérie ou sur site. Par exemple, il est possible d’entraîner les modèles dans des fermes de GPU avec une nette séparation des clients dans le cloud ; le modèle peut ensuite être déployé sur site dans un environnement de production. Il n’est pas conseillé aux entreprises de construire une infrastructure GPU sur site, qui représente un certain coût, d’autant que l’utilisation des GPU est généralement inférieure à 25%.
Les partenaires d’IA/ML certifiés dans le cadre d’une approche « écosystémique » sont plus facilement accessibles grâce aux plateformes de cloud hybride ouvert., qui aident les entreprises à mettre à profit les solutions complètes rapidement et facilement pour les aider à développer, déployer et gérer des modèles d’applications intelligentes alimentées par l’IA. Face à l’IA, l’écosystème joue un rôle essentiel de stimulation de la concurrence et de l’innovation. Pour réussir à développer des modèles d’IA pertinents, mais aussi rendre les données d’entraînement accessibles à un large éventail d’utilisateurs et apporter des réponses à certaines questions éthiques, l’écosystème doit être au maximum fonctionnel pour une bonne base.
Le temps des belles promesses et de l’engouement autour de l’IA est révolu, au profit d’attentes plus réalistes. Sans dire que le règne de l’IA est fini, il s’agit seulement d’informer sur la nécessité de la repenser. C’est justement l’occasion qu’ouvre l’IA en essaim fondée sur de petits modèles spécifiques à un domaine : celle d’entamer une nouvelle étape dans l’utilisation de l’IA, porteuse de belles promesses et d’ouvrir une nouvelle opportunité de marché pour les fournisseurs européens, afin de continuer de soutenir l’IA en tant que technologie considérée comme clé.