Google Cloud et Hugging Face signent un partenariat pour associer leurs plateformes

Google Cloud et Hugging Face signent un partenariat pour associer leurs plateformes Google Cloud et Hugging Face annoncent un partenariat "stratégique" ouvrant la voie à une interopérabilité entre les deux plateformes.

Vers une mise en production facilitée des projets d'IA. Le géant du cloud Google et la plateforme de référence dans l'IA open source Hugging Face annoncent ce jeudi 25 janvier la signature d'un partenariat stratégique visant à développer le développement du machine learning et de l'IA générative. Le partenariat apporte une interopérabilité poussée entre les plateformes de Google et d'Hugging Face.

Les modèles Hugging Face à disposition dans Vertex AI

Dans la pratique, d'ici le premier semestre 2024, les développeurs auront la capacité de rendre accessibles les modèles présents sur Hugging Face via la plateforme Vertex AI de Google. Ce processus sera accessible depuis l'interface utilisateur d'Hugging Face. Les services MLOps de Google seront ainsi utilisables très simplement. Les développeurs pourront également déployer leurs modèles et applications d'IA sur Google Kubernetes Engine (GKE). Les développeurs pourront donc construire leur propre infrastructure pour héberger leurs modèles et applications, en utilisant GKE, au lieu d'utiliser uniquement les services managés de Google Cloud. Ils pourront mettre à l'échelle leurs modèles facilement sur GKE, en utilisant des conteneurs spécifiques préparés par Hugging Face pour le deep learning.

Côté ressource hardware, la dernière génération de TPU disponibles sur Google Cloud (5e) sera également mise à disposition à davantage de développeurs. Ces derniers pourront aussi bénéficier progressivement des supercalculateurs A3, des instances de calcul de Google Cloud équipées des derniers GPU NVIDIA de la série H100 Tensor Core (jusqu'à trois fois plus rapidement pour l'entraînement des modèles).

Enfin le partenariat ouvre la porte à une simplification de la facturation. Dans le cadre du partenariat, les services gérés par Hugging Face comme Inference, Endpoints, Spaces, AutoTrain seront disponibles sur le marketplace de Google. Les frais d'utilisation des services Hugging Face y seront directement facturés via le compte Google Cloud.

Cette annonce marque le début d'une nouvelle ère pour Hugging Face qui fait de Google son partenaire cloud stratégique et privilégié pour "la gestion de ses entraînements et inférences". "L'ensemble de ce dispositif permettra d'accélérer la prochaine génération de services et d'applications d'IA", assure Thomas Kurian, PDG de Google Cloud. De son côté, Clément Delangue, PDG d'Hugging Face, voit dans ce partenariat une opportunité pour les développeurs qui pourront "accroître significativement leur capacité à construire leurs propres modèles d'IA."