Comment construire une usine d’Intelligence Artificielle au sein de son entreprise

La montée en maturité des organisations sur le sujet de l’intelligence artificielle peut sembler contradictoire avec l’absence de succès notables au seins des entreprises. Nous nous sommes interrogés sur les raisons fondamentales de cet écart et sur les conditions du succès.

Les organisations qui réussissent voient l’émergence de nouveaux modèles: les “AI factory”, concentré de talents, de méthodes et de technologies, au service des métiers de l’entreprise.Les cycles d’innovations suivent tous irrémédiablement la fameuse “Hype Curve” du cabinet Gartner : une phase de succès est précédée par une phase de “désillusion”. Trop de complexités peuvent venir entraver la réussite de ces projets. L’enjeu de réussir le pari de l’Intelligence Artificielle est pourtant immense : selon le cabinet Accenture, les entreprises qui tirent parti des atouts de l'intelligence artificielle pourraient accroître leur rentabilité de plus de 30% ! A cela s’ajoutent également de nouvelles sources de revenus, qui peuvent venir d’une meilleure expérience client ou encore d’une meilleure position concurrentielle.L’IA, qui est un ensemble de sciences très théoriques, encore à ses prémices, doit pour autant être regardée avec un oeil très “économique” par les entreprises, et non pas, par un prisme d’innovation (syndrome du nouveau “joujou” à la mode). Comment alors tirer profits de ces expérimentations ? Comment obtenir le fameux “passage à l’échelle” ? Notre réponse passe par de nouveaux schémas organisationnels, on parlera “d’AI factory” ou encore “d’Usine de l’IA”.
Aujourd’hui en effet, de plus en plus d’algorithmes et “d’intelligences” sont disponibles sur l'étagère. Tout du moins les premiers niveaux. Les premiers partenaires Cloud en Europe que sont Amazon (AWS), Microsoft (Azure), Google (GCP) et IBM proposent tous différents niveaux d’abstraction permettant de “produire” de l’IA chez soi (Google vient récemment d’annoncer un nouveau service managé universel Anthos), un peu à la méthode du kit “Chimie 2000” que nous avons connu plus jeunes. Ils proposent un accès simple à des infrastructures étudiées spécifiquement pour répondre aux besoins du machine learning comme les TPUs de Google, des services managés permettant de concentrer les équipes sur les applications. A cela s’ajoutent encore de nombreuses librairies open source disponibles (scikit-learn, Tensorflow, Pytorch) ou encore des APIs propriétaires (de reconnaissance d’image, de texte, de voix). Le problème survient après les premiers succès : car seule une faible partie de ces fameux tests arrivent au mode de production, générant frustrations et évidemment perte d’opportunités. La plupart des “grandes organisations” ont fait le pari, - à juste titre, le cabinet McKinsey annonçait en 2016 qu’il manquerait 250 000 Data Scientists en 2021 rien qu’aux US- d’investir massivement dans la Data Science. Or, on se rend compte aujourd’hui que ces profils, très orientés sur les modèles de données, les statistiques, et les algorithmes, ne sont pas suffisants pour transformer l’entreprise avec de l’IA. On a par exemple fait l’impasse sur les Data Engineers ou Data Architects qui sont des ressources clés de ces prochaines années dans les succès de ces projets, mais qu’il faut savoir intégrer aux équipes projets.
Un nouveau mode d’organisation voit progressivement le jour : l’usine de Intelligence Artificielle, ou “l’AI factory” , qui respecte un certain nombre de grands principes simples, mais important dans le succès de ces initiatives: 
C’est d’abord une gouvernance centralisée 
Avec un très fort niveau d’ambition : l’idée étant de mutualiser les efforts d'investissement et de pilotage. Un très petit nombre de projets à très grande valeur ajoutée dans l’entreprise vont être scrutés à la loupe par des sponsors très engagés dans le succès de ces projets. Le choix des cas d’usages doit être extrêmement exigeant : en particulier, aucun projet ne doit voir le jour s’il ne respecte pas la règle simple du 10X (avoir un retour sur investissement de 10:1). Le succès et l'impact de chaque cas d'usage doit se mesurer à travers un KPI simple et compréhensible, et l'amélioration systématique de ce KPI doit être la raison d'être des équipes.
Il s’agit aussi d’une organisation projet dédiée : les features teams.
Popularisée par Spotify, les feature teams répondent aux enjeux de réduction de “Time to Market”, de “transversalité”, et de continuité de ces projets. Dirigée par un responsable métier, elle regroupe un product owner, des data scientists, des data engineers et des DevOps. L'implication du DevOps / IT au sein de la feature team garantit la bonne supervision et une maintenance pérenne de la solution IA. Une “platform team” assure elle la cohérence technologique de l’ensemble des briques déployées par les features teams. Il est important de noter que ce modèle d’organisation passe très fortement à l’échelle (jusqu’à 10 features teams par “Tribu” chez Spotify!)
C’est ensuite une méthodologie spécifique : le Lean AI. 
C’est une méthodologie qui permet de lutter contre l’incertitude de l’efficacité puis de l’applicabilité des solutions d’IA. Les modèles ne sont jamais parfaits et ont besoin d’être testés en situation réelle. La méthode consiste en une boucle d’amélioration via des cycles courts qui comprennent la formulation d’hypothèses, l’identification des données pertinentes, la construction et l’entraînement d’un ou plusieurs modèles, suivi d’un déploiement sur un périmètre de test et la collecte des feedbacks utilisateurs. Le cycle se répète avec la formulation de nouvelles hypothèses, de nouvelles données, etc. Cette méthode permet de tester en situation réelle, puis d’améliorer les cas non couverts, jusqu’à couvrir un taux satisfaction considéré comme acceptable par l’organisation pour ensuite industrialiser

Et également d’une infrastructure adaptée 
Le déploiement doit être envisagé dès les premiers jours du projet, faute de devoir repartir à zéro dans un autre environnement technique ! Il faut aussi éviter de créer de nouveaux silos de données, en s’appuyant au maximum sur les datalakes et puits de données déjà en place dans les organisations, et construire les applications IA dans une logique d’architecture orientée service. Les technologies de conteneurisation et d’orchestration telles que Docker et Kubernetes permettent de gérer de manière simplifiée des écosystèmes de microservices, facilitant l’utilisation des modèles IA via des APIs consommables par toutes les divisions de l’organisation.

Il faudra considérer un travail sur la transformation et l’adoption en interne 

C’est pour beaucoup un lieu commun, c’est pourtant l’absence du travail sur le changement du modèle opérationnel qui fait défaut au succès des projets IA. Par exemple Un “Chatbot” attenant à un site marchand doit s’intégrer naturellement dans le parcours de vente, et ne pas être considéré comme un “Silo” d’acquisition séparé.

Pour finir, un enjeu éthique de plus en plus fort  

On l’a vu récemment avec l’exemple Alexa et la mauvaise surprise des écoutes (nécessaires et prévues pour améliorer l'entraînement supervisé). La réglementation aura toujours du retard sur la technologie. Il est important que les entreprises qui utilisent l’intelligence artificielle appréhendent les enjeux éthiques de ces solutions. Sept grands principes éthiques, ont été publiés par le comité d’experts indépendants mandaté par la commission Européenne: un IA au service de l’humain, Fiable, qui respecte les données privées, transparents, non discriminatoire, tourné vers l’amélioration du bien-être commun, et enfin avec une responsabilité humaine clairement définie.

De plus en plus d’organisations, comme l’enseigne Carrefour, qui a récemment annoncée le lancement de leur Laboratoire Intelligence Artificielle en partenariat avec Google, ou Wallmart, qui a annoncé le lancement de sa “Cloud Factory” à Austin avec Microsoft décident d’appliquer ces principes pour extraire la valeur de l’IA. Il y a fort à parier que ces nouvelles méthodes d’organisation, centrées sur la valeur, pragmatiques dans leur rapport à l’innovation, soient de plus en plus déployées avec succès dans les années à venir.