Benoit Dageville (Snowflake) "L'IA va être au centre de toutes les applications qui se trouvent sur Snowflake"

A l'occasion du Snowflake Summit, qui s'est déroulé à San Francisco, le JDN a rencontré son cofondateur et président aux produits.

JDN. Snowflake souffle cette année sa douzième bougie. Quelle est votre vision pour l'avenir de la société ?

Benoit Dageville est cofondateur président aux produits de Snowflake. © S. de P. Snowflake

Benoit Dageville. Les entreprises font face à des téraoctets, des pétaoctets d'informations. Or, si les données savent tout, personne ne sait vraiment comment y accéder, comment les connecter efficacement pour en extraire de la valeur. Traditionnellement, ces entreprises construisent des tableaux de bord. Mais ces derniers ont plusieurs défauts : d'une part, ils sont très ennuyeux, de l'autre, vous ne pouvez interroger les données que sur des questions que l'IT sait que vous allez poser. Ça reste donc assez limité.

C'est pourquoi notre vision, chez Snowflake, n'est pas le tableau de bord, mais des applications simples à construire. Car si elles prennent des mois à développer, ça ne marchera jamais. Il faut donc des applications qui puissent être mises en place en quelques minutes, voire quelques heures, mais qui soient interactives, très visuelles et qui permettent au business d'interagir avec les données.

Cela passe chez nous par la combinaison de Streamlit, qui est une application très simple à utiliser, avec l'AI. On peut construire des applications très riches, au-dessus des données et directement dans Snowflake, utilisables par les commerciaux. On transforme alors le lien entre les parties IT et business de l'entreprise. Et avec l'IA générative, il devient possible de poser des questions directement en langage naturel pour interroger les données et obtenir une réponse également en langage naturel. Puis, potentiellement, utiliser un autre LLM pour générer automatiquement un graphique à partir des données qu'on souhaite interroger…

Vous avez comparé Snowflake à l'Apple Store lors de votre intervention le deuxième jour de la conférence. Qu'entendez-vous par là ?

Si l'on pousse l'idée que j'évoquais à l'instant encore plus loin, on peut imaginer que ce n'est pas l'IT qui va construire des applications, mais des parties tierces, des entreprises, des start-up qui vont le faire, puis mettre leurs applications sur notre Snowpark Marketplace, l'App Store de Snowflake.

Lorsqu'on achète un iPhone, il y a quelques applications qui sont déjà installées, mais ce qu'on utilise tous les jours, ce sont principalement des applications qui n'ont pas été créées par Apple. Ce sont elles qui font la richesse d'un iPhone. Ce qui fait la puissance d'Apple, c'est tout cet écosystème. Nous voulons faire la même chose.

C'est du reste déjà ce qui se passe. Nous avons de plus en plus de clients qui installent ces applications dans leur compte Snowflake (comme ils le feraient sur leur iPhone). Ensuite, et c'est très important, cette application ne tourne plus chez le fournisseur, une nouvelle instance de celle-ci est créée et tourne directement chez l'utilisateur.

Pourquoi est-ce si important ?

Parce que le fournisseur ne verra jamais les données de l'utilisateur. D'une part, car l'application va tourner dans son centre de données, et d'autre part puisque la magie de ces applications est qu'elles peuvent sourcer des données ou des modèles du fournisseur. Et ainsi enrichir les données d'utilisateur, sans exposer ces données ou ces modèles.

Imaginez quelqu'un comme Mistral, qui a des modèles qu'il ne veut évidemment pas dévoiler, puisqu'ils constituent sa propriété intellectuelle. Eh bien, un utilisateur peut installer une application qui utilise ces modèles de Mistral, mais il ne pourra pas les ouvrir, ni voir les données que cette application utilise, bien qu'elle soit installée chez lui. La propriété intellectuelle est ainsi complètement protégée.

On a donc le meilleur des deux mondes : les données de l'utilisateur sont protégées, parce que l'application tourne chez lui, mais tout ce que l'application fait, et notamment les modèles qu'elle utilise, est également protégé de l'utilisateur, pour le fournisseur.

Vous avez récemment complété l'acquisition de TrueEra, spécialiste de l'observabilité de l'IA. Pourriez-vous dire quelques mots de cette acquisition ? Comment entendez-vous intégrer cette solution à votre offre ?

C'est une excellente start-up, qui dispose d'une très bonne technologie de suivi des performances, ainsi que de benchmarking et d'évaluation des modèles. Comment teste-t-on, vérifie-t-on l'utilisation et aussi comment contrôle-t-on le modèle d'IA pour éviter qu'il hallucine. Tout cela est très intéressant. L'idée est d'intégrer cette technologie dans notre offre générale autour de l'observabilité, en allant donc au-delà de l'apprentissage automatique.

Comment vous positionnez-vous sur les débats actuels, particulièrement vivaces en Europe, autour de la résidence des données et de leur souveraineté ?

Le jour où il y aura un cloud souverain, et il y a des initiatives allant actuellement dans ce sens (Blue chez Microsoft, S3ns chez Google, AWS European Sovereign Cloud…), il sera très facile pour nous d'ouvrir une région sur ce cloud. Mais pour cela, il faut qu'il y ait un cloud, car construire des clouds n'est pas notre métier.

Cette édition a été riche en annonces autour de l'IA. Comment définiriez-vous votre stratégie autour de cette technologie ? 

Il est évident que l'IA va être au centre de toutes les applications qui se trouvent sur Snowflake. Une application qui n'a pas de langage naturel pour interagir, de copilote, n'a pas d'avenir. Donc toute cette technologie, tous ces services vont être critiques. Si je me mets dans la peau d'un créateur d'applications, au moment de déterminer le meilleur cloud pour héberger celle-ci, je regarde en priorité les services : l'observabilité, la capacité de calcul, la sécurité… et l'IA, qui est vraiment centrale, qui s'impose de plus en plus comme un élément critique pour ces applications.

Et dans l'IA, l'une des composantes qui nous semblent particulièrement importantes, c'est l'analyse des données non structurées. Historiquement, il est très difficile de faire de l'analytique sur des fichiers, des PDF, des images, des vidéos, parce qu'il faut quelque chose qui extrait de l'information, qui structure les données non structurées. Or, ça, c'est très difficile.