Olivier Parker (Google Cloud) "Gemini 1.5 Pro repousse les limites de ce qui était réalisable jusqu'à présent"

Olivier Parker est vice-président de l'intelligence artificielle au sein de l'organisation go-to-market de Google Cloud. Il revient pour le JDN sur les annonces de la Google Cloud Next 24' et la stratégie globale de GCP.

JDN. Quels sont les cas d'usage les plus populaires d'IA générative que vous observez chez vos clients ?

Olivier Parker est vice-président de l'intelligence artificielle au sein de l'organisation go-to-market de Google Cloud. © Google Cloud

Olivier Parker. Premièrement, il y a ce que j'appellerais la conversation sur la productivité. En tant que travailleurs du savoir ou développeurs, nous cherchons à augmenter notre efficacité et notre rendement. Dans ce cadre, nous recevons de nombreuses demandes concernant le rôle de Gemini au sein de Gemini for Workspace, qui permet d'intégrer l'IA dans les activités quotidiennes des utilisateurs. Notre produit d'assistance aux développeurs, anciennement appelé Duet for Developers, qu'il soit open source ou interne, suscite également beaucoup d'intérêt en termes de productivité. Deuxièmement, nous observons une forte demande pour l'automatisation des tâches de back-office qui sont souvent très manuelles. Par exemple, j'ai récemment travaillé avec un client qui réalise un important travail de consolidation de jurisprudence et de résumés. L'IA générative est particulièrement adaptée pour la recherche, la récupération d'informations et la synthèse dans ce type de cas d'usage. Enfin, le troisième domaine concerne l'amélioration des expériences client. Notre plateforme d'IA pour les centres de contact, CCAI, a intégré des capacités génératives qui offrent un retour sur investissement impressionnant en termes d'expérience utilisateur. Que ce soit pour interagir avec un fournisseur de télécom ou un opérateur téléphonique, ces applications transforment nos interactions en tant que clients.

Avec Gemini 1.5 Pro, maintenant en public preview, vos clients sont capables de traiter jusqu'à 1 million de tokens de contexte. Quels sont les nouveaux cas d'usage potentiels ?

Bien que nous venons tout juste de rendre cette version accessible au public, je suis convaincu que nous verrons émerger une multitude d'applications innovantes. Imaginez les possibilités offertes par la capacité de traiter une vidéo d'une heure, soit 60 minutes, ou encore 30 000 lignes de code. Cela repousse véritablement les limites de ce qui était réalisable jusqu'à présent. Pensez à la quantité de contenu audio que l'on peut désormais analyser pour en extraire des résumés pertinents. C'est fascinant de voir tous les scénarios qui deviennent envisageables grâce à cette fenêtre de contexte élargie à un million de tokens.

Bien entendu, cette capacité ne sera pas forcément utile pour tous les cas d'usage. Néanmoins, Gemini 1.5 Pro apporte de nombreuses améliorations significatives, et la possibilité de traiter de longs contenus vidéo présente un intérêt particulier pour les entreprises évoluant dans l'industrie du cinéma ou de la production audiovisuelle. La faculté de résumer efficacement ce type d'assets différencie nettement notre solution par rapport à d'autres modèles disponibles sur le marché.

Avec 1 million de tokens de contexte, le RAG (Retrieval-Augmented Generation) ne devient-il pas obsolète ?

Je pense que le RAG continuera d'être utilisé. Certes, son rôle évoluera quelque peu avec cette extension du contexte, mais nous développons également des modèles plus compacts pour lesquels le RAG restera incroyablement précieux. Je ne crois pas que le RAG soit voué à disparaître, même avec l'émergence de fenêtres de contexte plus larges. Cela change fondamentalement la nature des cas d'usage que nous pouvons adresser.

Comment différenciez-vous Vertex AI par rapport aux solutions de Amazon et Microsoft notamment ?

De nombreux clients se tournent vers nous car nous offrons une proposition de valeur réellement différenciante. Forts de notre expertise de classe mondiale dans la construction de solutions d'IA, depuis les puces jusqu'aux couches les plus hautes, nous bénéficions d'un héritage unique.

"C'est la combinaison de notre stack technologique ainsi que notre historique de partenariats au sein de l'écosystème, qui nous différencie véritablement des autres fournisseurs."

Aujourd'hui, l'enjeu est de capitaliser sur cette immense capacité technique pour apporter une valeur tangible. Il faut également considérer notre historique en matière de standards ouverts et d'open source, ainsi que notre engagement envers l'écosystème et la richesse que nous insufflons dans cette plateforme. En tant qu'entreprise, nous avons accompli un travail considérable en interne, que nous intégrons désormais à Vertex. Prenez l'exemple de nos produits : nous réalisons nous-mêmes une grande partie des opérations de ML pour nos propres solutions, et nous mettons maintenant ces acquis au service de Vertex.

En définitive, c'est la combinaison de notre stack technologique, de ce que nous avons bâti en interne et que nous intégrons maintenant à la plateforme, ainsi que notre historique de partenariats au sein de l'écosystème, qui nous différencie véritablement des autres fournisseurs.

Pourquoi le déploiement de fonctionnalités IA et de nouveaux modèles est plus tardif en Europe ? Est-ce pour des raisons de régulation ?

Ce délai s'explique principalement par la nécessité de maintenir un dialogue continu avec les autorités compétentes. Prenons l'exemple de la France, qui a ses propres exigences réglementaires, parfois distinctes ou plus strictes que celles de l'Union européenne. Nous collaborons donc en permanence avec les régulateurs de chaque pays, ainsi qu'avec les instances européennes, pour garantir que nos déploiements sont conformes aux réglementations en vigueur. L'Union européenne représente un marché de première importance pour notre entreprise. Il est donc essentiel de fournir nos solutions d'IA en adéquation avec le cadre légal applicable. Cela peut effectivement entraîner un certain décalage par rapport à d'autres régions, mais nous sommes déterminés à proposer nos innovations tout en respectant scrupuleusement les règles fixées par les autorités compétentes.

En 2023, les entreprises ont mis l'accent sur des projets d'IA en bêta et des prototypes. A votre avis, est-ce que 2024 sera plutôt l'année où ces initiatives vont passer à l'étape de la mise en production à grande échelle ?

Il est vrai que nous sommes encore dans une phase où de nombreuses entreprises en sont au stade de l'expérimentation. Cependant, il y a trois mois, certains de ces clients sont passés à des scénarios de production. Je pense donc que nous continuerons à assister à une transition vers la mise en production. De nombreux clients ont identifié une multitude de cas d'usage pour l'IA, mais ils doivent désormais se concentrer sur ceux qui ont un impact commercial tangible, avec un business case solide et un financement interne dédié. La maturation des cas d'usage devient donc un enjeu crucial.

Selon moi, l'étape suivante, au-delà de ce que j'appellerais la production limitée, sera la mise en production à grande échelle. Certaines de ces solutions seront déployées en production pour une période donnée, avant d'être étendues à d'autres parties de l'organisation.

Comment utilisez-vous l'IA générative personnellement au quotidien dans votre travail ?

Comme la plupart d'entre nous, je consacre une grande partie de mon temps à la gestion de mes e-mails. Gemini for Workspace est profondément intégré dans mon quotidien professionnel, notamment pour la génération de résumés. J'utilise également beaucoup notre solution de vidéoconférence GVC, qui me fournit automatiquement des synthèses de réunions. Par exemple, lorsque je participe à une réunion interne chez Google, j'obtiens un compte-rendu complet de la discussion. J'utilise aussi l'IA pour résumer mes e-mails, mes fils de discussion ou mes conversations sur chat.