Comment les géants du cloud se positionnent dans l'IA générative

Comment les géants du cloud se positionnent dans l'IA générative Pour faciliter l'adoption des grands modèles de langage en entreprise, Microsoft Azure, AWS et Google Cloud ont multiplié ces derniers mois le lancement de services dédiés. Tour d'horizon des offres des trois hyperscalers américains.

Le phénomène ChatGPT a enflammé les réseaux sociaux et les médias avant de gagner le monde de l'entreprise. Après avoir testé l'IA générative d'OpenAI à titre privé, des utilisateurs ont rapidement vu quel intérêt ils auraient à l'utiliser dans un cadre professionnel. D'ailleurs, dans un sondage de Gartner, 45% des dirigeants affirment que ChatGPT a entraîné une augmentation des investissements de leur entreprise dans l'IA. Par ailleurs, 70 % des organisations conduisent des investigations ou des explorations dans le domaine de l'IA générative et 19 % mènent un pilote, voire sont déjà passés au stade de la mise en production.

Utiliser des outils publics comme ChatGPT, Dall-E, Midjourney ou Stable Diffusion exposent toutefois les organisations à des risques de fuite de données sensibles. Samsung a par exemple interdit partiellement l'accès à ChatGPT après que le code source d'un de ses nouveaux programmes ait été rendu public. Des développeurs du constructeur coréen avaient laissé l'IA le débugger. Selon Bleeping Computer, plus de 101 000 comptes d'utilisateurs de ChatGPT ont été volés par des logiciels malveillants sur les douze derniers mois et leurs données se sont retrouvées sur le dark web.

"L'enjeu pour ces hyperscalers est de pouvoir héberger des modèles afin de pouvoir vendre derrière de la puissance de calcul ou du stockage"

Plutôt que bannir purement et simplement les outils d'IA générative, ce qui nuirait à l'innovation et générerait du shadow IT, Stéphane Roder, CEO d'AI Builders, conseille d'encadrer leur usage en entreprise. Et pour cela, deux possibilités : intégrer des modèles open source ou souscrire aux offres packagées des providers cloud. "L'open source a bien sûr ses qualités mais elle peut pêcher par l'instabilité des modèles et leur maintenabilité dans le temps. Le providers cloud permettent de mettre en place des instances dédiées et des droits d'accès"

Un cadre de stabilité est d'autant plus important que, selon Stéphane Roder, la courbe d'apprentissage dans l'adoption des grands modèles de langage (LLM) est longue afin de créer des agents et les entraîner. "Il faut arriver à comprendre des concepts complexes comme le chainage du raisonnement et la décomposition de la demande par étapes. Par ailleurs, nous ne sommes plus dans une programmation linéaire mais dans une programmation inférentielle où l'on demande aux agents de faire les tâches."

Une bonne dose de test and learn est donc nécessaire, selon lui, pour appréhender ce changement de paradigme. Après avoir compris ces mécanismes, une entreprise pourra se tourner vers des LLM spécialisés dans une tâche comme la synthèse de texte ou la traduction, à la fois moins chères et meilleures. "L'avenir passe par cette verticalisation des modèles."

En attendant, une organisation peut expérimenter en recourant à une API proposée par un cloud provider. Ces derniers mois, Microsoft Azure, AWS et Google Cloud ont multiplié les annonces dans ce sens. " Tout l'enjeu pour ces hyperscalers, c'est de pouvoir héberger des modèles afin de pouvoir vendre derrière de la puissance de calcul ou du stockage", analyse Stéphane Roder.

L'expert met toutefois en avant l'enjeu de souveraineté que pose le recours à ce type de modèles conçus et pré-entrainés sur des jeux de données choisis par leurs créateurs. "Ces outils créent une dépendance d'autant plus forte qu'ils sont particulièrement puissants et offrent de réels gains de performance." A cet effet, Stéphane Roder rappelle qu'il existe des LLM européens comme Lighton en France ou Aleph Alpha en Allemagne.

Microsoft Azure fait la course en tête

Dans cette guerre que se mènent les hyperscalers pour démocratiser l'accès aux modèles de langage étendu au plus grand nombre d'entreprises, Microsoft part avec un atout de taille. Principal investisseur d'OpenAI, la firme de Redmond a injecté des milliards de dollars dans sa technologie. Ce qui lui permet aujourd'hui d'intégrer les dernières versions de ChatGPT et de Dall-E à son offre baptisée tout simplement Azure OpenAI Service.

Lors du lancement de sa préversion, en mars, Microsoft Azure revendiquait déjà plus de mille clients, dont la maison mère d'Office Depot, pour des cas d'usage aussi variés que l'optimisation de bots existants, la synthèse de conversations d'un centre d'appels, la résolution avancée dans le domaine du support client ou la rédaction de textes publicitaires.

Azure OpenAI peut être combiné avec les services cognitifs déjà au catalogue du Microsoft pour, par exemple, créer un agent conversationnel facilitant les recherches au sein d'une base de connaissances. Disponible sur la région France, le service est facturé au prix de 0,002 dollar pour mille jetons, un jeton correspondant à environ 4 caractères ou 0,75 mot d'une requête.

Autre propriété de Microsoft, GitHub Copilot utilise OpenAI pour aider les développeurs à coder plus rapidement en suggérant du code et des fonctions entières en temps réel, directement depuis l'éditeur. Dans une approche cette fois no code, Azure OpenAI Studio permet, depuis une interface graphique, de personnaliser ChatGPT et d'ajuster le comportement du modèle en fonction des réponses obtenues.

AWS mise sur les concurrents d'OpenAI

Amazon Web Services a mis un peu plus d'un mois à répliquer à Microsoft Azure. Présenté en "preview" limitée mi-avril dans un billet de blog, Amazon Bedrock donne accès via une API à des modèles pré-entraînés d'apprentissage automatique ou FMs (Foundation Models) édités par AI21 Labs, Anthropic et Stability AI.

Ces trois start-up ont pour point commun de proposer des alternatives à ChatGPT et Dall-E. Jurrasic-2 d'AI21 Labs génère du texte dans de multiples langues, dont le français. Claude d'Anthropic peut, lui, alimenter un agent conversationnel, répondre à des requêtes ou résumer des documents. A l'instar d'un Midjourney, Stable Diffusion de Stability AI est capable de générer des images, des illustrations, des logos et des designs.

Amazon propose ses propres LLM, baptisées Titan. Deux modèles sont pour l'heure disponibles. Le premier peut résumer un texte, rédiger un article de blog, créer une FAQ, classifier ou extraire de l'information. Le second convertit les entrées d'un texte (mots, phrases, paragraphes…) en représentations numériques contenant "la signification sémantique du texte ".

Pour diffuser plus largement Bedrock, AWS compte sur ses partenaires ESN comme Accenture, Deloitte ou Infosys mais aussi sur les éditeurs de logiciels tels que C3 AI et Pega qui intègrent sa solution. A l'image de Github Copilot, AWS a annoncé la disponibilité générale d'Amazon CodeWhisperer, un "compagnon" de codage qui améliore "radicalement" la productivité des développeurs en suggérant du code sur la base des commentaires des développeurs et l'historique du code déjà produit.

Fin juin, AWS a annoncé investir cent millions de dollars dans un nouveau programme visant à accélérer l'adoption des modèles d'IA générative. Generative AI Innovation Center mettra en relation les experts d'AWS en IA et en apprentissage automatique avec ses clients du monde entier pour "les aider à imaginer, concevoir et lancer de nouveaux produits, services et processus d'IA générative".

Google Cloud met les bouchées doubles

Acteur pourtant reconnu pour son expertise dans le domaine du machine learning, Google Cloud semble avoir été pris de court par la déferlante ChatGPT. L'outsider du cloud public tente de raccrocher les wagons en multipliant les initiatives. Trois mois seulement après avoir annoncé la prise en charge de l'IA générative par Vertex AI, sa plateforme d'entraînement et de déploiement de modèles de machine learning et d'applications d'IA, le service est déjà en disponibilité générale.

Les développeurs peuvent accéder à PaLM 2, le nouvel LLM qui est censé permettre à Bard, l'IA générative de Google, de dépasser ChatGPT-4 mais aussi à d'autres modèles maison comme Codey (text-to code), Imagen (génération d'images) ou Chirp (speech-to-text).

Le Model Garden fournit, lui, plus de soixante modèles, propriétaires ou open source, conçus par Google ou ses partenaires. Appelé à s'enrichir, ce catalogue couvre déjà un grand nombre de cas d'usage comme la conversion de texte en image ou la traduction automatique.

Google Cloud propose aussi Generative AI Studio, un studio intégré à Vertex AI pour faciliter le réglage et le déploiement des modèles en production. Dans le même esprit, Generative AI App Builder vise à permettre aux développeurs de créer plus rapidement des chatbots ou des moteurs de recherche personnalisés en tirant parti de toute la puissance de l'IA générative.