La recette d'une adoption réussie de l'IA en entreprise

Alors que la majorité des entreprises s'engouffre actuellement dans les projets d'IA, la réussite de ces derniers repose sur une recette établie.

La compétitivité et donc la viabilité future des entreprises sont de plus en plus liées à la manipulation et à l'utilisation de l'intelligence artificielle (IA). Selon le cabinet McKinsey, 70 % des entreprises utiliseront au moins une forme d’IA d’ici 2030. Or, pour que cette utilisation de l’IA soit efficace et réussie, cela nécessite à la fois une plateforme de données de qualité et des flux de travail efficaces et efficients qui gardent un œil sur l'ensemble du système et processus IA. 

Actuellement, la majorité des entreprises adoptent une approche de pipeline étroitement intégrée pour leurs projets analytiques. Ces pipelines sont généralement des processus de bout en bout, conçus et construits pour résoudre des problèmes projet par projet (cas d’usage). Si cette approche fonctionne parfaitement à court terme pour les projets de tests, de recherche ou encore d’expérimentation, elle n’est pas adaptée pour des projets à l’échelle de l’entreprise, car elle conduit rapidement à des processus inefficaces qui créent des silos de données et de code. 

En effet, les équipes dupliquent souvent leurs efforts en développant des fonctionnalités presque identiques à partir des mêmes données, mais isolées dans leurs propres pipelines et inextricablement liées aux modèles prédictifs, s’apparentant à une « jungle de pipelines ». Cela entraîne non seulement des coûts supplémentaires dus à la duplication des efforts, mais également un allongement de la durée des projets et donc un ralentissement des délais de commercialisation. En conséquence, la confiance dans la valeur du Machine Learning (ML) au sein de l’organisation est fortement impactée.

En matière d’analytique, l’approche pipeline met alors de plus en plus en péril la compétitivité des entreprises et leur flexibilité à s’adapter aux exigences de l’économie numérique de demain. Pour déployer l’IA durablement, elles doivent s’appuyer sur une approche plus dynamique.

L'Enterprise Feature Store (EFS) pour des projets d’IA à l’échelle de l’entreprise

Un premier pas vers plus de dynamisme et de flexibilité consiste à découpler les différents domaines de processus et à se concentrer sur trois éléments clés : l'ingénierie des « features » (caractéristiques, données et variables dérivées), la formation des modèles et leur déploiement. La réussite des initiatives de ML et d’IA en entreprise dépend grandement de l’attention portée aux éléments critiques des deux côtés de la formation des modèles : la réutilisation des features et le déploiement du modèle.

Par conséquent, la création et la maintenance d’un Enterprise Feature Store (EFS) devient un impératif, puisqu’il permet de collecter de façon organisée des variables avec une valeur prédictive prouvée, matérialisée sous forme de tableaux, le tout situé dans un système de gestion de base de données relationnelle analytique (SGBDR). Ces fonctionnalités stockées et organisées peuvent alors être utilisées pour former des modèles ou pour l'analyse prédictive.

Si la création de telles features et leur catalogage précis, nécessitent beaucoup de temps, cet investissement devient rapidement rentable puisque les projets peuvent ensuite facilement réutiliser des features existantes et bien documentées. En effet, les efforts et les coûts concernant la préparation et la gestion des données sont alors réduits de 80 %, améliorant considérablement la productivité des data scientists et le délai de rentabilisation de nouvelles analyses en entreprise.

Stimuler la création et l’entraînement des modèles d’IA

L’un des autres critères essentiels pour mener à bien la feuille de route d’une entreprise en matière d’IA réside dans le développement des modèles d’IA à la fois robustes et précis qui offrent un retour sur investissement tangible et quantifiable. Pour cela, les dirigeants doivent donner aux data scientists la liberté d’explorer librement les données et les algorithmes qui les régissent, tout en leur donnant accès à un large panel d’outils adaptés.

Il est essentiel que les données exploitées pour entrainer les modèles soient réutilisées et proviennent des variables de l’Enterprise Feature Store (EFS). En outre, l’ensemble des nouvelles features créées doivent être à leur tour insérées dans l’EFS à des fins de réutilisation. La création de modèles d’IA, selon cette approche itérative, permet de rendre les étapes de découverte et d’évaluation des données indissociables l’une de l’autre. Un fois le modèle créé et testé, il est essentiel de transférer le code qui sous-tend ces features vers l’EFS, afin qu’il ne soit plus lié à un modèle spécifique et disponible à d’autres cas d’usages. Le fait de considérer la création de modèles comme une activité à part entière permet d’intégrer en toute transparence des modèles bâtis sur des systèmes externes au sein de la plateforme de données ou plate-forme data elle-même.

Afin de maximiser la création de valeur d’un projet d’analyse, il est nécessaire de s’appuyer sur des plateformes de données mises à jour en temps réel. Aujourd’hui, l’entrainement des modèles d’IA repose généralement sur des échantillons de données historiques soigneusement sélectionnées. Toutefois, afin de procéder à une évaluation pertinente des modèles, il faut pouvoir accéder à des ensembles de données à jour et complets. La difficulté qui consiste à passer de la phase d’entrainement du modèle à l’étape d’évaluation est souvent sous-estimée et représente l’une des principales causes d’échec de certains projets d’analyse de données.

En adoptant une approche Bring Your Own Model (BYOM), les data scientists peuvent sélectionner l’outil qui leur paraît le plus adapté afin de bâtir un modèle prédictif et de l’évaluer à grande échelle, en s’aidant directement des données de production contenues dans l’EFS. Grâce à une intégration étroite et à un ensemble de méthodes comme le PMML ou ONNX, la conversion au format SQL ou le code natif, il devient également possible d’évaluer des modèles d’IA entrainés sur des systèmes externes dans la plateforme de données en production et de les déployer à grande échelle.

Evaluer le retour sur investissement en matière d’IA/ML

Dans le cadre de l’analyse prédictive, il est essentiel de définir des processus à la fois simples et robustes. Grâce à l’EFS et aux modèles ainsi entrainés, tous les éléments nécessaires à l’analyse sont disponibles au sein de laplateforme de données elle-même. Il n’est alors plus nécessaire d’opérer des transferts de données vers ou depuis des systèmes externes. Il est également crucial que les systèmes soient connectés directement aux endpoints opérationnels via de multiples canaux et qu’ils soient en mesure de prendre en charge des requêtes métiers afin d’évaluer les modèles en temps quasi réel grâce à des temps de latence extrêmement réduits. Les workloads de notation doivent également être performants et évolutifs afin de générer de nouvelles prédictions portant sur des données de production à jour grâce à l’IA/ML. Les projections qui en découlent offrent alors aux entreprises une véritable valeur ajoutée et leur garantissent un retour sur investissement.

Si l’IA et le ML devrait assurer un avenir radieux pour les entreprises, il est toutefois crucial d’éviter les silos de données, les systèmes fragmentés et la duplication des tâches pour un déploiement réussi et une maîtrise des coûts. Le recours à une plateforme de données évolutive et puissante devient alors essentiel, car elle facilite la factorisation non seulement des données mais de l’exécution à l’échèle des modèles. Cette simplification de l’écosystème data permet d’amplifier la démocratisation des usages analytiques.

De cette manière, les « jungles de pipelines » dans les entreprises, la dette des données qui en résulte et des audits cauchemardesques peuvent être évités – et un retour sur investissement maximal est plus susceptible d'être garanti.