Ashutosh Kulkarni (Elastic) "L'IA générative représente une rupture plus importante que le cloud"

De passage à Paris, le CEO du spécialiste des plateformes de données détaille sa stratégie et ses ambitions dans l'intelligence artificielle en 2023.

JDN. Comment Elastic se positionne-t-il dans l'IA générative ?

Ashutosh Kulkarni est CEO d'Elastic. © Elastic

Ashutosh Kulkarni. Nous avons déjà des centaines de clients payants qui bâtissent des applications d'IA générative au-dessus de la plateforme Elastic. L'IA générative contribue à créer une toute nouvelle plateforme pour les années à venir. Une plateforme qui va permettre aux entreprises de bénéficier directement de l'IA pour offrir de meilleurs services, une meilleure expérience, tout en étant plus efficaces et plus productives. C'est une rupture technologique au même titre qu'Internet et que le mobile l'ont été. Fondamentalement, l'IA générative permet d'interagir avec des systèmes et des données de manière à la fois plus intuitive et plus human centric. C'est un changement fondamental. L'IA générative représente une rupture plus importante que le cloud.

Or, les large language models (LLM, ndlr) qui permettent de générer les informations sont entraînés sur des données publiques. Du coup, ils n'englobent pas le contexte de votre activité. Ils ne saisissent pas la data d'entreprise de quelque nature que ce soit. Elastic vient construire ce pont, en temps réel, entre les LLM et les données business pour fournir le contexte métier.

En matière d'IA générative, quels sont les cas d'usage d'Elastic ?

Les projets de nos clients dans ce domaine recouvrent tous les secteurs d'activité et l'ensemble des régions du monde. C'est notamment le cas en France dans les domaines de la finance et de l'assurance. Les cas d'usage portent notamment sur le support client, à la fois interne et externe. L'IA générative contribue à rendre ce type d'expérience bien meilleur. Elle permet de fournir la bonne information en temps réel sans devoir recourir à une intervention humaine.

Un autre exemple de cas d'usage concerne l'e-commerce. Aujourd'hui, les clients des sites marchands doivent beaucoup chercher sans avoir l'assurance de dénicher le meilleur produit. Via l'IA générative, ils n'ont plus qu'à décrire leur souhait. Par exemple vous pourriez indiquer que vous êtes intéressé par un short que votre acteur favori portait lors de la dernière cérémonie des Oscars. Dénicher ainsi le produit correspondant exactement à vos désirs devient réalité grâce à l'IA générative.

Avez-vous déjà des références client dans l'IA générative ?

Cisco a développé une application de support interne à base d'IA générative en capitalisant sur la plateforme d'Elastic. Son objectif était à la fois de réduire le nombre d'heures d'ingénieurs de support et d'améliorer l'expérience utilisateur. C'est notre référence client la plus récente dans ce domaine.

"L'IA générative fait partie de nos principaux domaines de R&D"

Mais au-delà du support et de la relation client, je pense que l'IA générative va venir bouleverser tous les domaines de l'entreprise, du recrutement à la production en passant par la gestion de la chaîne logistique. L'observabilité et la sécurité seront aussi concernés. Dans ce domaine, nous avons lancé des assistant à base d'IA qui fournissent des informations et des recommandations en réponse à tel ou tel événement cyber.

Quelle est votre approche en matière de large language model ?

Dans ce domaine, nous avons une approche très ouverte. Nous vous permettons de recourir à n'importe quel LLM que vous souhaitez utiliser, que ce soit en mode cloud ou sur votre environnement interne. Nous proposons des intégrations avec OpenAI à travers Microsoft Azure ainsi qu'avec Llama 2. Nous travaillons aussi avec Google et son modèle Bard, mais également avec AWS et son modèle Bedrock. Nous collaborons par ailleurs avec d'autres fournisseurs de LLM comme Cohere entre autres.

Au sein de l'écosystème des LLM de façon plus globale, nous avons signé des partenariats forts avec des éditeurs de frameworks comme LangChain. Nous avons en outre conclu un accord avec Hugging Face.

Au-delà de l'IA générative, d'autres cas d'usage ont-ils émergé au sein de votre base de clients ces derniers mois ?

L'approche d'une data platform centralisant toutes les données d'entreprise devient de plus en plus prégnante chez nos clients. Durant les trois à quatre derniers trimestres, nous avons constaté un vaste mouvement en ce sens. Sachant que notre offre couvre un très grand nombre de problématiques, depuis l'observabilité et la sécurité jusqu'à l'IA générative en passant par la recherche et l'analytics. En parallèle, notre modèle tarifaire est basé sur l'abonnement. Il s'adapte donc parfaitement aux fluctuations d'activité. Vous ne payez que ce que vous consommez. Partant de là, de plus en plus de clients font d'Elastic le cœur de leur stack numérique en consolidant de plus en plus de traitements autour.

Quelles sont vos principales priorités d'investissement en matière de R&D ?

Comme indiqué, l'IA générative fait partie de nos principaux domaines de R&D. Mais nous continuions à investir au-delà de la recherche vectorielle, dans la recherche hybride, sémantique, etc. Le serverless est aussi l'un de nos champs de développement clé. 2023 sera l'année de la sortie de notre offre serverless en bêta. Elle permet de découpler entièrement le traitement informatique du stockage, et d'auto-dimensionner notre plateforme à la volée comme jamais.

Nous investissons en parallèle dans un nouveau langage de requêtage baptisé ESQL (pour ElasticSearch query language, ndlr). C'est un langage qui permet de développer des requêtes complexes, conçues pour enchainer différentes tâches. Il contribue à consolider une variété toujours plus grande de workloads sur Elastic. C'est une possibilité que proposent Splunk ou Microsoft, qui était très demandée par nos clients.

Ashutosh Kulkarni rejoint Elastic en janvier 2021 comme chief product officer. Il est nommé CEO de l'éditeur de San Francisco en janvier 2022. Ash Kulkarni a commencé sa carrière chez Sun Microsystems en tant que group manager. En 2005, il rejoint Informatica. Embauché d'abord comme directeur marketing produit, il gravit les échelons pour terminer vice-président sénior et general manager d'Informatica Cloud. Avant d'être recruté par Elastic, il occupe des postes de direction successivement chez Akamai et McAfee.