IA générative dans le cloud : Microsoft Azure peut-il être rattrapé ?

IA générative dans le cloud : Microsoft Azure peut-il être rattrapé ? Dans la bataille que se livrent les hyperscalers sur le front de l'intelligence artificielle générative, Microsoft a pris une longueur d'avance. Mais ses deux concurrents n'ont pas dit leur dernier mot.

En investissant 10 milliards de dollars dans OpenAI, Microsoft a remporté une première bataille dans la guerre de l'intelligence artificielle générative face à Google Cloud et Amazon Web Services (AWS). Le partenariat signé avec la start-up de San Francisco lui permet de bénéficier sur Azure de GPT-4... qui s'avère être, à ce jour, le large language model (LLM) le plus puissant du marché. Un large language model généraliste dont la performance a été démocratisée par ChatGPT.

Comparatif des services d'IA générative des géants du cloud
  AWS Google Cloud Microsoft Azure 
LLM texte Titan PaLM GPT
LLM Code CodeWhisperer Codey GPT
Génération d'image - Imagen Dall-E
LLM partenaires et modèles tiers Hugging Face,  AI21Labs, Anthropic et Stability.ai Anthropic, Llama 2 de Meta  LLaMA 2 de Meta
Plateforme d'exécution  Amazon Bedrock Vertex AI Azure OpenAI
Base vectorielle dédiée au LLM - Google AlloyDB Omni Azure Cosmos DB, Azure Cache pour Redis Enterprise

"Il faut bien comprendre que Microsoft a une avance considérable. Son investissement dans les technologies d'OpenAI remonte à quatre ans, avec des équipes entières qui se sont concentrées à 100% au sujet pour réaliser une intégration parfaite dans son cloud Azure. AWS et Google ont deux années de retard", maintient Stéphane Roder, CEO d'AIBuilder. Reste que les deux challengers ne peuvent se permettre de rater le coche de l'IA générative. Partant de ce constat, ils investissent massivement depuis le début de l'année pour combler leur retard.

Microsoft Azure : le leader

"Microsoft Azure permet au travers d'Azure OpenAI de personnaliser GPT-4 de manière à ce qu'il fournisse des réponses par rapport à un corpus documentaire donné. Et ce à travers une ergonomie qui est tout à fait satisfaisante du point de vue d'un chatbot", commente Didier Gaultier, directeur du pôle data science et intelligence artificielle chez Business & Decision (groupe Orange). "Azure présente comme principal avantage d'offrir un contrôle complet sur les data qui servent d'alimentation à l'architecture du LLM. Ce qui est non négligeable en vue, notamment, de rendre le LLM performant, mais aussi les données manipulées conformes au RGPD."

Azure OpenAI recouvre l'ensemble des modèles de fondation d'OpenAI. Depuis GPT-4 jusqu'au modèle de génération d'images Dall-E en passant par GPT-3.5. Tous ont été intégrés à Azure ML, la plateforme d'IA d'Azure conçue pour gérer l'optimisation et le fine tuning des modèles. Côté base de vectorisation, Microsoft a étendu les fonctionnalités d'Azure Cosmos DB et d'Azure Cache pour Redis Enterprise pour prendre en charge la recherche sémantique et les scénarios de few-shot learning (ou apprentissage instantanée par indexation).

Google Cloud met le paquet

Du côté de Google, on met les bouchées doubles pour rattraper Microsoft. Historiquement, le groupe de Mountain View investit dans son LLM PaLM, mais aussi dans Imagen pour la génération d'images, et dans Codey pour la génération de code. Il planche également sur un modèle de fondation, baptisé Gemini, actuellement en bêta privé, avec la promesse d'une performance 5 fois supérieure à celle de GPT-4. En attendant, Google propose une bibliothèque regroupant plus de 100 modèles de fondation parmi lesquels on retrouve le LLM open source Falcon ou encore Llama 2 de Meta. "Nous proposons également des modèles sectoriels spécifiques tels que Sec-PaLM 2 pour la cybersécurité, afin d'aider les fournisseurs de sécurité comme Broadcom et Tenable, ou encore Med-PaLM 2 dédié aux grandes entreprises du secteur de la santé et des sciences de la vie, comme Bayer Pharmaceuticals, HCA Healthcare et Meditech", précise un porte-parole de Google.

Tous ces modèles sont accessibles depuis la plateforme Vertex AI, l'équivalent d'Azure ML sur Google Cloud. Pour faciliter ce portage, le groupe propose une extension : Vertex AI Generative AI Studio. Un environnement conçu pour développer les applications d'IA générative finale en incorporant par exemple, via le RLHF notamment, les évaluations humaines nécessaires pour personnaliser et améliorer en profondeur la performance des modèles. Vertex AI permet par ailleurs de créer des interfaces de chat personnalisées en quelques minutes, avec un codage minimal tout en bénéficiant d'un haut niveau de gestion et de sécurité. Pour finir, Google ajoute AlloyDB AI à l'édifice. Il s'agit d'une base de données dessinée pour accueillir les requêtes vectorielles des IA génératives.

AWS : le challenger

De son côté, Amazon investit dans sa propre technologie de modèles de fondation. Baptisée Titan, elle devrait devenir le socle d'une série de modèles commerciaux couvrant la génération de texte, d'images ou encore la traduction. Titan est déjà utilisé comme base pour l'assistant Alexa, le générateur de code Amazon CodeWhisperer, le service de reconnaissance faciale Amazon Rekognition ou encore le moteur de synthèse vocal Amazon Poly. Pour compléter le tout, il est fort à parier qu'AWS introduise très prochainement une base de données vectorielles qui sera sans doute intégrée aux serveurs d'informations Amazon RDS et/ou Aurora.

AWS a livré en début d'année Bedrock. Un environnement serverless sur lequel personnaliser les modèles de fondation avec ses propres données, les personnaliser et les déployer. "Cela comprend l'intégration aux fonctionnalités de ML Amazon SageMaker telles qu'Experiments pour tester différents modèles et Pipelines pour gérer vos modèles de fondation à grande échelle", précise-t-on chez Amazon. Bedrock donne accès aux modèles de plusieurs partenaires : AI21Labs, Anthropic, Hugging Face ou encore Stability.ai. Pour l'heure, Bedrock est un premier embryon de réponse à Azure OpenAI.