Google Cloud Next : 4 annonces IA discrètes qui vont vraiment changer la donne en entreprise

Google Cloud Next : 4 annonces IA discrètes qui vont vraiment changer la donne en entreprise Ces quatre nouvautés de Google Cloud Next 2026 sont peut-être celles qui vont le plus impacter vos projets IA.

Si Gemini Enterprise Agent Platform est sur toutes les lèvres à Las Vegas lors de l'édition 2026 de Google Cloud Next, plusieurs annonces sont passées plus inaperçues… mais ont retenu l'attention du JDN, présent sur place. Cloud, cybersécurité, data… L'IA agentique offre désormais un pouvoir de transformation manifeste pour la majorité des organisations. Focus sur les 4 nouveautés qui, selon nous, vont véritablement impacter au quotidien les entreprises qui les adoptent.

1. L’IA en multi-cloud

Pour être véritablement pertinente, l’IA générative nécessite l’accès à la donnée. Or les données des entreprises sont, encore plus en 2026, souvent réparties chez différents cloud provider (c’est surtout vrai pour les organisations de taille conséquente). Et il est très complexe de mettre en place des applications agentiques en utilisant les données stockées chez plusieurs cloud providers. Pour faire face à cette réalité, Google présente son Cross-Cloud Lakehouse, une infrastructure de données pensée nativement pour l’agentique.

Le principe est simple : plutôt que de forcer les entreprises à tout rapatrier au même endroit, Google Cloud permet désormais à ses agents IA d'aller chercher les données là où elles se trouvent (que ce soit sur AWS, Azure ou Google Cloud) sans avoir à les déplacer. Sur scène, Karthik Narain, CPO de Google Cloud, a résumé la promesse : “Plus de transfert de données, plus de dépendance vis-à-vis des fournisseurs, place à la liberté."

2. Des agents deep research pour les données d’entreprise

Deuxième annonce discrète mais tout aussi importante : les deep research agents. Google lance deux nouvelles versions de son agent de recherche autonome, deep research et deep research Max, désormais accessibles via l'API Gemini. Avec un simple appel API, un agent peut enchaîner une recherche web, interroger BigQuery et synthétiser des documents internes pour produire une analyse complète et sourcée. L'agent ne travaille plus sur des données brutes, il raisonne sur un contexte métier enrichi, avec des entités mappées, des relations entre sources, et des citations vérifiables. Présenté comme une brique native de Gemini Enterprise, l’outil hérite de toute la gouvernance et des politiques d'accès déjà en place dans l’entreprise.

3. Une red team agentique

Avec l’IA, "le délai entre une intrusion initiale et le passage de relais à un second groupe d'attaquants est passé de huit heures à 22 secondes en trois ans", alerte Francis deSouza, COO de Google Cloud.  La cause ? L’IA. Elle permet désormais aux groupes malveillants d'automatiser et d'accélérer leurs chaînes d'attaque à une vitesse inédite.

Pour faire face à cette nouvelle réalité, Google mise sur… l’IA. Trois agents spécialisés sont présentés :  un “Red Agent” qui teste de manière offensive en continu le SI, un “Blue Agent” dédié à la surveillance défensive et un “Green Agent”. Ce dernier applique la remédiation de bout en bout et remonte automatiquement jusqu'à la ligne de code responsable, génère un correctif et l'envoie directement en pull request au développeur concerné, sans intervention humaine. Les trois agents forment une boucle de défense autonome.

4. Le RAG multimodal devient réalité

Dernière annonce, en marge de Next : l'arrivée en disponibilité générale de Gemini Embedding 2. Le modèle avait été dévoilé il y a quelques semaines, mais devient maintenant accessible à tous via l'API Gemini et dans Vertex AI. Si les modèles de fondation comme Gemini 3.1 concentrent toute l'attention, les modèles d'embeddings sont tout aussi importants. Ce sont eux qui permettent de vectoriser les données pour les rendre interrogeables par un LLM. Or jusqu'ici, la grande majorité des modèles d'embeddings du marché ne fonctionnaient que sur une seule modalité à la fois.

Avec Gemini Embedding 2, Google permet de vectoriser n'importe quel type de contenu (audio, vidéo, texte…) au sein d'un même modèle. Concrètement, un RAG peut désormais devenir nativement multimodal. Et parce que toutes les modalités sont projetées dans un espace vectoriel commun, la cohérence et la précision des réponses de l’IA s'en trouvent grandement améliorées.