L'émergence des entreprises AI-native

L'IA progresse lentement en entreprise, freinée par des outils B2B rigides. Les acteurs AI-native, plus agiles, automatisent et transforment les usages tout en offrant une expérience plus interactive.

Les salariés n’ont pas autant accès à l’IA qu’ils le souhaiteraient

2 ans et demi après l’arrivée de ChatGPT dans nos vies, l’émergence des LLM dans nos logiciels et outils du quotidien semblent encore limitée. En démontre les articles et contenus qui continuent à paraitre sur « comment intégrer l’IA dans son entreprise ».

Ce n’est pourtant pas l’envie qui manque. Une étude du Boston Consulting Group menée sur 13 000 employés dans le monde affirmait en 2024 que 42% des salariés se déclaraient confiants quant à l'impact des IA sur leur travail. Une autre étude de Slack exprimait que, parmi les personnes ayant utilisé l’IA au travail, 71 % déclaraient que ces technologies amélioraient leur productivité.

Mais force est de constater que l’adoption au bureau n’avance pas aussi vite que prévu. En cause, une difficulté de nombreux éditeurs de nos logiciels B2B du quotidien à intégrer l’intelligence artificielle dans leur stack technologique déjà complexe.

Les éditeurs ont du mal à intégrer l’IA dans leurs outils

En effet, intégrer un LLM demande de repenser l’ensemble des fonctionnalités et l’interface utilisateur de son logiciel. Quelles fonctionnalités existantes peuvent être mieux réalisées par l’IA ? Quelles fonctionnalités nouvelles celle-ci peut apporter ? Comment intégrer la capacité des LLM à apporter une expérience utilisateur plus personnalisée et adaptative ? Autant de questions à se poser avant de commencer, et de choix d’itération à réaliser une fois la vision claire.

Il est toujours compliqué de détruire quelque chose qui marche. Aller en arrière pour mieux rebondir. Et aujourd’hui, ce contexte chamboule les marchés des SaaS avec l’arrivée des nouveaux acteurs ultra-argiles qui n’ont pas à faire ces choix ; des entreprises AI-native.

Les entreprises AI-native rebattent les cartes du monde des SaaS

Moins pressées de trouver de nouveaux marchés (comme ce fut le cas avec la FinTech) que de venir faire mieux que des acteurs historiques sur de marchés très établis, les entreprises AI-native ont des avantages indéniables :

  • D’abord, un changement de vision technologique : l’intégralité de leur stack technologique est basée sur des LLM. Chaque étape clé de traitement de l’information est manipulée par des modèles propriétaires, capables de vectoriser l’univers sémantique des données. Cela permet une plus grande compréhension des données, et donc un meilleur croisement entre elles.
  • Ensuite, une automatisation poussée des tâches : les LLMs sont particulièrement performants pour comprendre et créer des flux d’informations, réduisant ainsi la quantité de tâches manuelles à réaliser par l’utilisateur. Cela veut dire que l’intégralité du workflow informationnel est automatisé par l’IA. L’humain n’est plus qu’au deux extrémités de ce workflow. Au début pour définir les axes de travail de l’outil et à la fin pour analyser les résultats remontés par l’outil.
  • Aussi, une amélioration continue de l’outil : chose impossible pour un logiciel traditionnel qui est figé par nature, les entreprises AI-native développent leurs propres systèmes de RAG (génération augmentée de récupération) qui permettent à l’outil de s’améliorer au fil des interactions avec les utilisateurs et qui affine ses recommandations.
  • Enfin, un changement d’usage : l’utilisateur peut poser des questions précises à l’outil pour découvrir des insights, au lieu de creuser la donnée et en extrapoler manuellement des informations d’intérêt. On ne fait plus que lire et cliquer. On parle. On interagit.

Être AI-native, un gain de temps et un gage d’améliorations continu

Développer une solution AI-native permet de réduire le temps de recherche de l’information au profit de l’analyse et de la prise de décision. L’erreur est aussi limitée : plus de saut de ligne sur un tableau de données, plus de sélection de mauvais filtres de données, plus d’erreurs dans un paramétrage de tâches.

Cela donne surtout la capacité de profiter pleinement des améliorations continues que proposent les grands éditeurs de LLM, car leurs améliorations deviennent les nôtres sitôt qu’elles sont accessibles : au lieu de devoir revoir son choix de LLM quand la petite brique de tâches utilisées s’est complexifiée et dessert maintenant son objectif initial.

C’est un gage de qualité et d’innovation, pour son entreprise et pour les utilisateurs de la solution.