IA générative : OVHCloud bâtit pas à pas son offre

IA générative : OVHCloud bâtit pas à pas son offre Dans le sillage des hyperscalers américains, le cloud de Roubaix investit lui-aussi sur le segment de l'intelligence artificielle générative. Il lance désormais des instances publiques NVidia H100.

OVHCloud est engagé depuis cinq ans dans l'intelligence artificielle. Son ambition ? Démocratiser l'IA pour toute taille d'organisation, de la PME au grand groupe. Et cette stratégie passe désormais, aussi, par la voie de l'intelligence artificielle générative.

Dans l'IA générative, OVHCloud peut se prévaloir d'un success story : LightOn. Cette pépite parisienne de l'IA générative a en effet choisi d'entraîner ses modèles de fondation en se basant sur un pod de GPU du fournisseur de Roubaix. Un pod équipé des fameux processeurs NVidia H100, ces cartes graphiques dessinées pour entrainer des large language model (LLM) géants. Avec l'allemand Aleph Alpha, LightOn est l'une des rares pépites de l'IA générative à proposer une offre industrialisable sur le Vieux continent (lire l'article LightOn et Aleph Alpha, les incontournables de l'IA générative en Europe).

L'offre de LightOn s'articule autour de l'environnent Paradigme. Une plateforme composée d'un LLM et de tous les outils pour en gérer le cycle de vie, depuis le fine tuning jusqu'à la création des prompts permettant de paramétrer l'application finale. Baptisé Alfred-40B-0723, le LLM que LightOn a entrainé chez OVHCloud est une version affinée du modèle de langue open source Falcon-40B.

Du cloud privé au cloud public

Fort du travail réalisé pour LightOn, OVHCloud est désormais en capacité de développer d'autres clouds privés taillés pour des cas d'usage d'IA générative. Qu'en est-il sur la partie cloud public ? "Nous commercialisons déjà depuis quelques mois des instances NVidia A100 et V100 qui permettent de gérer l'apprentissage de petits LLM", répond Yaniv Fdida, chief product officer d'OVHCloud, avant d'ajouter : "Nous venons de lancer des pods NVidia donnant accès à la version SXM des cartes graphiques H100, avec à la clé 67 Tflops de puissance de calcul. Cette infrastructure cible les cas d'usage plus intensifs (notamment l'entrainement de LLM de grande taille, ndlr)."

En attendant, le groupe a également annoncé la disponibilité sur son cloud public d'instances L40 S. "Elles profitent de la quatrième génération de Tensor Cores et des Transformer Engine FP8 pour de solides performances dans les tâches relatives à l'IA comme l'entraînement de LLM de moyenne taille ou l'inférence", indique-t-on chez OVH

"Notre plateforme de PaaS permet aux éditeurs de LLM de s'abstraire de la couche matérielle"

En parallèle, OVH propose aussi un PaaS taillé pour la data science. Ciblant également les fournisseurs de LLM, il s'articule pour l'heure autour de trois briques. D'abord, AI Notebooks qui gère le démarrage des notebooks Jupyter et de l'IDE Visual Studio Code. Ensuite, OVHcloud AI Training qui pilote le processus d'entraînement des modèles d'IA. Enfin, AI Deploy qui traite le déploiement et l'exécution (c'est-à-dire l'inférence) des modèles de machine learning une fois ceux-ci mis au point. "Notre plateforme de PaaS permet aux éditeurs de s'abstraire de la couche matérielle, et notamment des cartes NVidia A100 qu'elle prend en charge", résume Yaniv Fdida. "OVHcloud ajoutera graduellement des options NVidia H100 à cet ensemble de solutions d'IA orienté PaaS"

Pour la suite, OVHCloud entend mettre à disposition des bibliothèques de modèles métier et de data sets d'entraînement adaptés à des cas d'usage précis, le développement d'un chatbot par exemple. "Nous continuerons à renforcer notre chaîne du MLOps. Ce qui passera, notamment, par l'intégration des briques de data collector issues du rachat de ForePaaS", indique Yaniv Fdida, qui évoque plus globalement les enjeux de data préparation et de data visualisation. "Toujours en matière de LLM, nous comptons enrichir notre offre de modules pour gérer la vectorisation des données", ajoute-t-il.

Des modèles accessibles via API

OVHCloud met également en avant son réseau, autre brique nécessaire à l'entrainement d'un LLM. Avec à la clé un backbone d'une capacité de 100 Tb/s. Une infrastructure à laquelle s'ajoutent des capacités de 200 Gb/s au sein des centres de données. Qu'en est-il pour le stockage des data sets ? "Les rachats d'Exten et d'OpenIO illustrent notre volonté de monter en puissance dans ce domaine", pointe Yaniv Fdida.

Enfin, à l'instar d'Hugging Face, OVHCloud planche sur la mise à disposition de modèles d'IA par le biais d'API. "Ce que nous réalisons déjà avec les modèles de Gladia dans le speech-to-text, de Voxist dans la reconnaissance vocale et de Letria sur le front des modèles de LLM préentrainés", détaille le CPO d'OVHCloud. "Nous allons poursuivre dans ce sens, avec la volonté de proposer aussi, à terme, des modèles open source." Ce qui est loin d'être étonnant, les logiciels libres faisant en effet partie de l'ADN d'OVHCloud depuis le début.