IA générative dans le cloud : Azure maintient son avance

IA générative dans le cloud : Azure maintient son avance Les trois hyperscalers proposent une large palette de modèles de génération de texte, d'images ou de code. AWS et Google tentent de rattraper Microsoft qui capitalise sur son partenariat privilégié avec OpenAI.

Pour Synergy Research, pas de doute, l'IA générative est l'un des principaux facteurs à l'origine de l'accélération du marché du cloud. Depuis deux ans et le lancement de ChatGPT 3, on assiste à une demande accrue en ressources cloud et tout particulièrement en processeurs graphiques (GPU) utilisés pour l'entraînement et l'inférence de l'IA. Des ressources rares et difficilement accessibles aux entreprises lambda. Au deuxième trimestre 2024, les dépenses des entreprises en services d'infrastructure cloud ont, selon le cabinet d'études, augmenté de 22% pour s'élever à 79 milliards de dollars dans le monde. Soit le troisième trimestre consécutif affichant un taux de croissance de 20% ou plus. L'IA générative rebat aussi les cartes entre hyperscalers. Si AWS conserve une forte avance sur le marché, l'écart avec Google Cloud et surtout Microsoft Azure se resserre.

En contrepartie des milliards investis dans OpenAI, la firme de Richmond a obtenu l'exclusivité du portage de ses grands modèles de langage (LLM) dans le cloud. Ce qui confère un avantage certain à Azure, son cloud maison. Pour Stéphane Roder, PDG d'AI Builders, l'ancrage historique de Microsoft dans le monde BtoB y est aussi pour quelque chose. "Microsoft Azure présente un environnement familier aux entreprises alors que les plateformes des deux autres hyperscalers s'adressent davantage à une population de data scientists", analyse le consultant.

Comparatif des services d'IA générative en mode cloud
  AWS Google Cloud Microsoft Azure
Plateforme d'exécution Amazon Bedrock Vertex AI Azure OpenAI, Azure AI Studio
Modèles de génération de texte Claude, Mistral, Llama, Cohere, Jamba, Titan… Gemini, Claude, Llama, Gemma… GPT, Mistral, Llama, Cohere, Jamba…
Modèles de génération d'images Titan, Stability AI Gemini, Imagen DALL-E, Stability AI
Modèles de génération de code Q Developper Codey GPT
Modèle de tarification Au token, débit provisionné Au token  Au token, réservation mensuelle ou annuelle

"Les entreprises ne veulent plus faire de la data science pour le plaisir mais pour développer des applications métiers", poursuit Stéphane Roder. "Les sociétés baignant dans la culture de l'innovation choisiront, elles, Google Cloud." Quant à AWS, le CEO d'AI Builders juge que le numéro un du cloud public propose "un trop plein de LLM qui pourrait désarçonner les décideurs". Microsoft Azure a, lui, opéré une sélection en faisant le choix du leader de l'IA générative.

Quel que soit l'hyperscaler, les entreprises semblent avoir pris le pli des LLM en service managé. En donnant accès à la puissance de calcul nécessaire, le cloud est le terrain de jeu naturel de l'expérimentation et du passage à l'échelle des projets d'IA générative. L'auto-hébergement reste rare. "Cette option est retenue par les entreprises qui ont déjà acquis un savoir-faire dans l'hébergement et qui disposent des infrastructures et des ressources dédiées", observe Domhnall Campbell, CTO - AI & Data chez Daveo. "Elles souhaitent conserver un contrôle total."

Selon Domhnall Campbell, la volumétrie entre aussi en jeu dans le choix de l'auto-hébergement. " La question peut se poser dans le cas d'un modèle avec 100 000 utilisateurs par jour ou d'un chatbot exposé au public devant offrir des réponses parfaitement pertinentes", indique l'intéressé. Dans tous les cas, l'expert conseille de commencer par un service managé puis, si cela ne convient pas, de passer à un service hébergé.

AWS, le plus grand choix

A défaut de s'attacher les services d'OpenAI, AWS a noué des partenariats avec la plupart de ses rivaux dont AI21Labs, Anthropic, Hugging Face, Meta ou encore Stability.ai. Baptisé Amazon Bedrock, son service managé d'IA générative prend en charge un large choix de LLM comme Claude 3.5, Mistral Large 2 ou sa propre famille de modèles de génération de texte ou d'images, baptisée Amazon Titan.

Amazon Bedrock s'enrichit continuellement. Fin septembre, AWS annonçait la disponibilité générale de Llama 3.2, la dernière version du LLM de Meta. "Attention, les modèles ne sont pas disponibles dans toutes les région", tempère Domhnall Campbell. Claude 3.5 Sonnet est par exemple accessible aux Etats-Unis mais pas à Paris.

Au-delà d'un large choix de LLM, AWS propose avec Amazon Bedrock Studio un environnement de prototypage rapide qui permet à des développeurs de collaborer autour de la création d'une application d'IA générative. Sur le principe de la génération augmentée de récupération (RAG), le service Knowledge Base vient enrichir un LLM via la base documentaire de l'entreprise.

Classiquement, l'offre d'Amazon est tarifée en fonction du nombre de tokens. AWS facturera, par exemple, 3 dollars un million de jetons en entrée pour le service Claude 3 Sonnet à Pairs, et 15 dollars pour le même nombre de jetons en sortie. Pour éviter les mauvaises surprises, AWS propose un service de provision ou débit provisionné (provisioned throughput) permettant de réserver à l'avance un quota de ressources.

Aux côtés de Bedrock, Amazon propose Q, un assistant conversationnel optimisé à l'IA générative. "Grâce à ce service, une entreprise peut créer un chatbot en quelques clics mais avec une portée limitée", note Domhnall Campbell. L'offre est gratuite pour les détenteurs d'un compte AWS.

Payant, Q Business va plus loin dans la personnalisation en utilisant les données internes de l'entreprise. Anciennement connu sous le nom de CodeWhisperer, Q Developer est un outil de génération de code. Enfin, n'oublions pas SageMarker, la plateforme d'AWS taillé pour la création, l'entraînement et le déploiement des modèles de machine learning.

Google Cloud, simplicité et performance

A l'inverse d'AWS, Google fait dans la simplicité. Il ne propose d'un seul service : Vertex AI. Sorte de mélange de Bedrock et de SageMaker, la plateforme de développement prend en charge les modèles de machine learning et de gen AI. Domhnall Campbell juge cette approche unifiée intéressante, "beaucoup de projets mêlant IA traditionnelle et IA générative".

Vertex AI permet d'accéder à plus de 150 modèles de fondation, à commencer par les dernières versions de Gemini de Google dans ses versions Pro, Mini ou Flash. LLM multimodal, Gemini est capable de comprendre et de générer du texte, du code, des images, des vidéos et de l'audio. Selon Chatbot Arena, un classement tenu par les utilisateurs, Gemini 1.5 Pro se tient en embuscade derrière ChatGPT-4o, le dernier né des assistant d'OpenAI, lui aussi multimodal.

Au-delà de Gemini, Vertex AI propose d'autres modèles propriétaires (Imagen, Codey ou encore Claude d'Anthropic) et open source (Gemma, Llama). Venant concurrencer Amazon Q ou Copilot de Microsoft, son Agent Builder permet de créer des agents d'IA conversationnelles en mode no code. Comme son nom l'indique, Gemini Code Assist se propose de doper la productivité des développeurs. Google Cloud capitalise sur son écosystème pour créer des synergies entre Gemini et Looker, son outil de business intelligence, ou encore avec BigQuerry pour générer des requêtes SQL. A l'instar d'AWS, l'hyperscaler propose une tarification au token.

Microsoft Azure, le leader

Principal bailleur de fonds d'OpenAI, Microsoft propose dans son cloud l'ensemble des modèles de fondation du leader de l'IA générative. Au catalogue d'Azure OpenAI service, on retrouve GPT-3.5, GPT-4, GPT-4o, un accès limité aux o1-preview et o1-mini mais aussi Dall-E pour la génération d'images ou Whisper pour la reconnaissance vocale. L'offre est complétée par les services maison d'Azure AI dans le domaine notamment de la recherche documentaire.

Avec son "hub de développement d'IA générative" Azure AI Studio, Microsoft s'ouvre également aux solutions tierces de Meta (Llama), Hugging Face mais également de Mistral AI. En février dernier, la firme de Richmond a noué un partenariat avec la startup française afin de proposer l'offre premium de cette dernière, Mistral Large, en tant que modèle as a service (MaaS). Azure AI Studio intègre aussi Phi, la famille de modèles de langage de petite taille (SLM) de Microsoft, taillés pour exécuter des tâches spécifiques.

Proposée en disponibilité générale depuis mai, Azure AI Studio entend devenir la plateforme de référence pour le développement et le déploiement d'applications d'IA générative en faisant un large appel aux outils de l'écosystème de Microsoft. L'intégration native d'Azure AI Search permet notamment d'extraire des données qui viendront alimenter un RAG. Une fois le modèle en production, Azure AI Content Safety viendra prévenir les contenus nuisibles, biaisés ou inappropriés susceptibles de le faire dériver.