Pourquoi la moitié des projets IA échouent
L'échec des chantiers d'intelligence artificielle est consubstantiel au domaine, notamment compte-tenu des défis à relever dans la data.
La moitié des projets menés sur le front de l'intelligence artificielle sont voués à l'échec. C'est là l'un des principaux enseignements tiré d'une étude réalisée début 2019 par IDC auprès de quelque 2 500 organisations à travers le monde. Les décideurs IT consultés évoquent le plus souvent des attentes irréalistes et un manque de main-d'œuvre parmi les causes de ces revers. Autres raisons invoquées : le coût des solutions d'IA et les potentiels biais présents dans les jeux de données d'entrainement.
Le constat est loin d'être étonnant. Comme ce peut être le cas dans d'autres champs de l'informatique, les projets échafaudés dans l'IA se heurtent à des problématiques liées aux dépenses à engager ou aux compétences à acquérir. Rien de plus commun. Mais dans l'intelligence artificielle, il est une barrière qui demeure impossible à franchir. "Pas de data, pas d'IA", résume Didier Gaultier, directeur datascience & intelligence artificielle chez Business & Decision, une ESN filiale d'Orange. Pour éviter de se retrouver dans le mur, un état des lieux des données disponibles et exploitables doit par conséquent précéder tout chantier.
Pour Andrea Mogini, data scientist senior au sein du cabinet de conseil Keyrus, "les modèles de machine learning se construisent à partir d'exemples d'apprentissage basés sur l'expérience passée. Disposer d'exemples est donc indispensable. Dans le même temps, ces exemples doivent être présents en suffisamment grand nombre pour parvenir à une IA généralisable et applicable sur le terrain." Autre condition évoquée par le consultant : disposer de datas recouvrant l'ensemble des variables explicatives nécessaires. Dans la finance par exemple, estimer la capacité à rembourser un crédit implique de connaître les changements de situation de l'emprunteur : la naissance d'enfants, une séparation, un licenciement... "Les banques ne disposent pas d'une vision dynamique de ces éléments. Ce qui rendrait les résultats d'une telle modélisation forcément incorrects."
"Un véhicule autonome ingérant de mauvaises données pourrait causer un accident"
Plus qu'en data science, la qualité intrinsèque des données représente en machine learning un élément central. "Avec l'IA, l'objectif est in fine d'automatiser un process de bout en bout. Résultat, des datas incorrectes mèneront à des actions incorrectes", pointe Didier Gaultier. En juin dernier, Google Maps est tombé dans le panneau. Suite à un accident sur l'un des principaux axes de Denver, l'application a proposé aux automobilistes un itinéraire alternatif qui les a menés sur un chemin de terre privé. La voie étant boueuse suite à des intempéries, un embouteillage s'est formé. Google s'est défendu en déclarant que cette route n'était pas indiquée comme privée. "Imaginez qu'un véhicule autonome ingère de mauvaises données, il pourrait causer un accident", ajoute Didier Gaultier.
Pour éviter de se retrouver en difficulté, mieux vaut intégrer d'emblée une culture de l'échec estime l'expert de Business & Decision. "Suite à l'audit de données réalisé en amont, il faut apprendre à se faire à l'idée qu'un projet n'est pas forcément réalisable. Ce qui n'est pas toujours simple. Dans beaucoup d'entreprises, l'échec est encore mal perçu", analyse Didier Gaultier.
Autre défi à relever, la problématique business du projet devra être correctement posée pour être ensuite traduite sous forme d'algorithme. Régression, classification, segmentation... En fonction du besoin, on pourra s'orienter vers un algorithme différent. "En poursuivant sur l'exemple de la gestion des risques, on partira plutôt sur une classification binaire si le risque est conçu comme binaire, positif ou négatif. En revanche, on s'orientera vers les probabilités si l'échelle d'estimation du risque est plus granulaire et linéaire."
"Nombre d'entreprises souhaitent s'orienter vers l'auto-apprentissage. Ce qui n'est pas applicable à tous le cas"
En parallèle, il est recommandé de choisir avec soin le type d'apprentissage associé : apprentissage supervisé, non-supervisé, renforcé, profond. "Nombre d'entreprises souhaitent s'orienter vers l'auto-apprentissage (via des algorithmes non-supervisés, ndlr). Ce qui n'est pas adapté à tous les chantiers, loin de là", prévient Didier Gaultier. "Cette solution conviendra par exemple dans la recommandation de produit. Car dans ce cas, c'est le client final qui, via son comportement d'achat, joue le rôle de coach en vue d'enrichir le modèle. En revanche, cette voie ne sera pas adaptée à la voiture autonome compte tenu des enjeux et du niveau de criticité d'un tel système."
Partant de là, disposer à minima d'une culture de l'IA se révèle indispensable pour parvenir à une formulation de besoins traduisible sous forme d'algorithmes. L'étude d'IDC le montre aussi : le manque de qualification peut conduire à l'échec. "Nous conseillons de dispenser des séances d'acculturation d'une demi-journée à une journée en préalable à toute initiative", indique Didier Gaultier.
Pour répondre à la question des biais, également posée par l'étude d'IDC, le consultant de Business & Decision recommande de recourir à la statistique. Une solution qui permet, via notamment "l'analyse de l'homogénéité de la variance des réponses", d'anticiper, avant qu'elles ne surviennent, les potentielles déviances, incohérences ou erreurs des modèles de machine learning déployés sur le terrain.
Enfin, il est conseillé d'avoir en tête dès la phase amont du projet les besoins et contraintes de mise en production. "Si l'IA nécessite d'être exécutée en temps réel, il faudra partir sur un algorithme adapté à ce type de traitement, tous ne le sont pas. De même en fonction de l'infrastructure ciblée pour le déploiement, une plateforme de calcul distribuée Hadoop par exemple, il faudra également s'avoir s'adapter et faire certaines concessions", avertit Andrea Mogini.