Artificial intelligence public cloud : ces nouveaux acteurs qui bousculent le marché

Artificial intelligence public cloud : ces nouveaux acteurs qui bousculent le marché Une nouvelle catégorie de provider spécialisé est en train de voir le jour. Leur domaine ? Les configurations taillées pour entraîner et exécuter les grands modèles de deep learning.

Core Weave, Lambda Labs ou encore RunPod : les noms de ces cloud providers ne vous disent peut-être rien. C'est normal. Ils émergent tout juste sur le marché. Leur domaine de spécialisation : l'intelligence artificielle et plus précisément l'entrainement et l'exécution des grands modèles de deep learning. Ces fournisseurs commercialisent des configurations GPU taillées pour gérer les phases d'apprentissage de ces réseaux de neurones artificiels géants. Il s'agit par conséquent de fournisseurs d'IaaS, pour Infrastructure as a Service, orientés vers l'apprentissage de méga modèles. Entendez par là des artificial intelligence public cloud (AIPC).

Comparatif des instances d'entrée de gamme des artificial intelligence public cloud
  RunPod Lambda Labs Core Weave
Processeur NVIDIA H100  NVIDIA H100  NVIDIA H100 
VRAM 80 Gb 80 Gb 80 GB
RAM 125 GB 200 GB  256 GB
vCPU 16 26 48
Prix 4,29 dollars / heure 1,99 dollar / heure 4,25 dollars / heure

Core Weave, Lambda Labs et RunPod articulent leur offre autour d'infrastructures GPU. Leurs prix défient toute concurrence, y compris celle des hyperscalers. "Ils ont su anticiper la demande du marché et la pénurie de cartes graphiques Nvidia, en commandant des processeurs H100 au bon moment. Ces processeurs graphiques sont conçus pour former les modèles de fondation", explique Didier Gaultier, directeur du pôle data science et intelligence artificielle chez Business & Decision, (groupe Orange).

"Entraîner le modèle Llama 2 chez Lambda Labs sur 10 processeurs H100, et ce sur une période de deux semaines, revient à 6 720 dollars"

Un cas d'usage permet de se rendre compte du faible coût proposé. "Entrainer le modèle Llama 2 chez Lambda Labs sur 10 processeurs H100 (de 80 Go de RAM à 2 dollars de l'heure, ndlr), et ce sur une période de deux semaines, revient à 6 720 dollars. C'est une dépense qui est plus que raisonnable. Le stockage et l'indexation des données d'entraînement associées représenteront un coût paradoxalement plus élevé. On va donc jusqu'à inverser les termes de l'équation que proposent les hyperscalers classiques", détaille Didier Gaultier. A ces coûts devront évidemment être ajoutés ceux des équipes de data scientists, notamment en charge de la préparation des documents d'apprentissage.

Seule instance H100 proposée chez AWS, la p5.48xlarge est tarifée 98,32 dollars de l'heure. Certes, elle offre 192 vCPU et 640 Go de Ram, mais cette capacité ne justifie pas la différence de prix. Face à Core Weave, Lambda Labs et RunPod, Cerebras affiche un positionnement différent. Cet AIPC conçoit en effet sa propre infrastructure de calcul en s'appuyant sur des processeurs AMD Epyc. Baptisé Condor Galaxy 1 AI, son supercalculateur en mode cloud atteint la puissance de 4 exaFLOPS.

Pas d'acteur européen

"L'ensemble de ces acteurs sont pour l'heure centrés avant tout sur le marché américain. Un fournisseur de cloud européen aurait encore le temps de se positionner sur ce segment avant qu'ils ne prennent pied sur le Vieux continent", estime Louis Naugès, chief strategy officer de Wizy.io, éditeur français qui met l'IA à la portée des travailleurs en première ligne. "Un tel provider pourrait intéresser les grandes entreprises en quête d'une solution d'entraînement de large language model souveraine en Europe."

Seule condition à l'émergence d'un tel acteur : prendre les Américains de court en déroulant rapidement la croissance. Déjà deux clouds français avancent leur pion sur cet échiquier. OVHCloud propose une première offre de training basée sur des processeurs Nvidia V100 à 40 Go de RAM (tarifés 1,93 euro de l'heure). Une infrastructure moins performante en revanche que les très prisés H100. Quant à Scaleway, il affiche déjà un IaaS embarquant les fameuses cartes H100 en bêta privé

"CoreWeave, Lambda Labs et RunPod sont tous trois basés aux Etats-Unis. Ce qui laisse une place pour un fournisseur européen", estime Didier Gaultier chez Business & Decision. "Par ailleurs, il n'est pas sûr que ces acteurs soient capables de prendre en compte l'exécution des IA en aval de leur entraînement. Sur ce plan, les hyperscaler demeurent des valeurs sûres." Reste la phase de learning sur laquelle un Européen, voire un Français, pourrait venir se placer.