Trois vérités sur l'IA en entreprise

Comment douter que l'IA soit un accélérateur d'innovation ? Il faut cependant admettre une vérité essentielle : sa performance dépend fondamentalement des données qui l'alimentent.

Partout dans l'entreprise, on discute nouvelles pratiques et adoption de l’IA, et on comprend aisément pourquoi. Déjà, ses différents cas d’usage créent un avantage concurrentiel sans précédent pour qui les déploie, augmentant de fait la productivité et l’efficacité. Demain, des agents seront même capables de faire tourner l’entreprise, et de générer de nouvelles opportunités. Mais force est de constater que les entreprises n’en tirent pas toutes les mêmes bénéfices. Certaines prennent une avance considérable quand d’autres restent bloquées à l’étape de la planification, soulignant le fossé qui peut exister dans la mise en œuvre concrète de l’IA.

Comment douter que l’IA soit un accélérateur d’innovation ? En quelques mois, nous sommes passés des fondations des grands modèles de langage (LLM) et des processus d’optimisation de leurs résultats (appelés RAG) à l’avènement des agents IA spécialisés. Pour comprendre pourquoi, il faut admettre une vérité essentielle : la performance de l’IA dépend fondamentalement des données qui l’alimentent. C’est aussi vrai pour les modèles d’IA que pour les agents IA. Pour atteindre le niveau de valeur critique que les entreprises attendent, qu’on appelle aussi Intelligence Agentique, les agents IA doivent accéder à des données contextuelles de qualité couvrant l’ensemble de l’organisation.

Selon moi, cette équation peut être résolue à partir des trois principes suivants :

Les applications SaaS telles que nous les connaissons n’existent plus. Place aux applications d’entreprise

Pendant des années, le modèle SaaS a réussi à combler l’écart entre les besoins humains et ceux des systèmes de données. Pour beaucoup, l'expérience quotidienne des données de l’entreprise passe encore exclusivement par le prisme de ces applications SaaS.

Or l’IA redéfinit complètement la manière dont les humains accèdent et gouvernent leurs données, en vue de collaborer. L’avenir réside dans le recours à des agents IA agnostiques vis-à-vis des fournisseurs, opérant sur des architectures centrées sur les données et menées par l’Intelligence Agentique. 

Les architectures de données d’entreprise étant complexes, les applications métiers ont jusqu’ici fourni des interfaces graphiques conviviales (GUI) autour de silos de données propriétaires. Cela avait du sens tant que les seuls utilisateurs étaient humains. Mais avec l’IA agentique, nous avons franchi un cap : désormais, ce sont les données contenues dans ces applications qui comptent davantage que les applications elles-mêmes, rendant la mission principale du SaaS obsolète.

Ironiquement, les interfaces orientées utilisateur des applications SaaS étaient un atout. Mais à l’ère de l’IA, elles n’apportent plus aucune valeur aux agents. Ces derniers accèdent directement aux données, sans intervention humaine. Il est donc inutile de les intégrer dans les plateformes de données, puisqu’ils les “traverseront”, offrant des interactions intelligentes, personnalisées et conversationnelles.

Et cela ne relève pas du futur lointain : cela se produit déjà aujourd’hui et s’accélère. McKinsey prévoit que d’ici 2030, 30 % du travail en entreprise sera effectué par des agents, quand Deloitte estime que 50 % des entreprises les auront adoptés d’ici 2027. Résultat : des enseignements plus riches, avec moins d’interactions humaines directes.

De même, les données sur site (on-premise) ne cessent de croître, et cette tendance va se poursuivre. Ce sera même un facteur d’accélération pour l’adoption de l’IA par les entreprises. Ce n’est pas ce à quoi vous vous attendiez ? Laissez-moi expliquer.

La disparition des données sur site ? Au contraire, les données les plus critiques au monde sont hébergées localement !

Depuis l’essor du cloud, on a souvent présenté les données sur site comme obsolètes. C’est tout le contraire : elles alimentent certaines des applications les plus critiques au monde. Et avec l’IA, leur rôle va croître. Comme l’indique Arthur Lewis, président de Dell Technologies Infrastructure Solutions Group, en mars 2024 : « 83 % des données mondiales sont stockées sur site. » Elles ne disparaîtront pas alors même que leur volume augmente. C’est un fait qu’il faut accepter si l’on veut comprendre comment aider les entreprises à adopter l’IA.

Pourquoi ces données restent-elles sur site ? Parce que les clients et les entreprises en ont besoin. Certains secteurs, tels que les services financiers, l’assurance, la santé ou le secteur public fonctionnent totalement ou majoritairement sur site non par manque de modernité, mais parce que c’est cohérent avec leurs exigences réglementaires et à leurs besoins opérationnels. Les données qu’ils gèrent sont ultra sensibles, et ils veulent en garder la maîtrise tout en y accédant partout où elles se trouvent. La possibilité de déployer l’IA sur site, en utilisant les données et modèles locaux ne fera que faire grandir le besoin de données sur site.

Savoir à qui appartiennent les données va devenir essentiel

L’IA apporte des opportunités, mais aussi de nouvelles règles et de nouveaux risques. Ces enjeux ne sont pas nouveaux pour les professionnels de la donnée, l’IA ne fait que les amplifier. Pour autant, la sécurité et la gouvernance des données vont devenir cruciales à mesure que l’IA va s’imposer. Avec l’IA comme accélérateur, ce qui était critique devient essentiel.

La propriété et le choix des architectures de données d’entreprise comptent pour l’analytique, et plus encore pour l’IA. La capacité à interroger des sources multiples sans avoir à déplacer ou cloner les données devient essentielle. Déployer l’IA dans un environnement hybride devient alors la clé pour garantir une gouvernance réelle et efficace. Sans compter que la souveraineté des données s’impose désormais comme une exigence non négociable. À défaut, les projets risquent d’être freinés ou abandonnés, faute de conformité avec les régulations.

Clairement, nous vivons un moment charnière pour repenser l’architecture des données et la rendre compatible avec l’IA, en s’appuyant sur les trois piliers fondamentaux que sont l’accès, la collaboration et la gouvernance.

Reste que nombre d’entreprises n’ont pas encore pu passer à l’action, faute de savoir comment amener l’IA à leur données plutôt que l’inverse. Peu à peu, se dessine pourtant un modèle pour l’analytique : celui du lakehouse, cette architecture qui combine les avantages d’un entrepôt de données et d’un lac de données, et qui permet à l’IA de s’y arrimer naturellement. On parle alors de « Lakeside AI » une IA alimentée par le lakehouse. Et c’est en effet le chemin le plus direct et sécurisé pour garantir aux agents IA développés par l’entreprise un accès à toute source de données ou application SaaS. Plus qu’une bonne architecture technique, c’est une véritable stratégie d’entreprise. Cela prépare l’IA de demain basée sur des fondations solides, centrées sur les données, la gouvernance et l’interopérabilité.

Pour résumer : L’IA utile ne viendra pas par magie. Adopter une approche lakehouse, c’est poser les rails pour une IA pertinente, sécurisée et réellement transformative. C’est un choix stratégique, pas seulement technique.