Pourquoi l'explicabilité sera la pierre angulaire de l'adoption de l'IA

Un plus grand contrôle et une meilleure interprétation de l'IA sont devenus nécessaires pour convaincre les plus réfractaires à l'adopter.

Ce n’est plus à démontrer, l’intelligence artificielle s’est bel et bien immiscée dans nos vies.  À tel point que nous n’en avons même plus conscience : assistants vocaux numériques, reconnaissance faciale, réseaux sociaux, voitures connectées…  cette omniprésence peut endiguer une certaine défiance à l’égard de l’IA. 

Jusqu’ici, le processus de calcul de plusieurs modèles d'IA pouvait être considéré comme une boîte noire  : les spécialistes des données et les ingénieurs, à l’origine de la création des modèles, n’étaient pas toujours en mesure d’expliquer les rouages à l'intérieur de cette boîte - ni les résultats obtenus. Ce manque d’interprétation a fait réfléchir les entreprises à deux fois avant de tendre vers l'IA, et plus particulièrement dans des domaines critiques tels que la santé ou la finance. C’est ainsi qu’est apparu le concept de l’IA explicable, qui peut être défini comme un ensemble de processus qui aide les humains à comprendre comment un algorithme arrive à un résultat spécifique. 

Cependant, l’IA explicable ne consiste pas seulement à divulguer les critères utilisés par l'algorithme pour parvenir à une décision, mais aussi à révéler pourquoi il a choisi cette option particulière plutôt que les autres. Une entreprise peut s’appuyer sur l'IA explicable afin de comprendre les forces et les faiblesses de ses programmes, les erreurs auxquelles elle est sujette et connaître les corrections nécessaires.  

Pourquoi l’interprétation est nécessaire ? 

L’IA explicable sera en mesure de caractériser la précision et les résultats des modèles, et permettra également aux organisations d'adopter une approche responsable lors du développement d'algorithmes . L'IA rend les processus plus transparents et, par conséquent, plus équitables. Il devient plus aisé de se conformer aux lois. Une meilleure interprétation renforcera également la confiance des clients  : une meilleure compréhension sur les décisions de l’IA insuffle un meilleur taux de confiance dans l’organisation. Enfin, l’IA explicable peut apporter des résultats plus tangibles en offrant des informations précieuses sur les indicateurs clés d'une entreprise. 

Comment développer cette approche ? 

En somme, les développeurs doivent intégrer des techniques d'IA explicables dans leurs flux de travail respectifs. Plus facile à dire qu’à faire… cette approche ne peut certainement pas être portée par une seule personne ou via la création d’un rôle - comme par exemple responsable de l'éthique ou de responsable de l'IA. Tout comme un ordre social équitable et juste nécessite l'implication de chacun. La responsabilité d'appliquer des techniques d'IA explicables repose sur chaque employé de l'organisation. Mais comment y parvenir ? 

1. Maintenir la qualité des données

Le succès des modèles d'IA dépend de la qualité des données utilisées pour les construire. Des données non fiables, inexactes ou biaisées peuvent entraîner un biais dans l'algorithme. Les contrôles de qualité des données, qui permettent d'évaluer rigoureusement chaque situation, de vérifier l'impact de chaque décision et d'examiner quelle partie des données a conduit à un résultat particulier, peuvent atténuer les résultats involontaires.  

2. Offrir aux utilisateurs une visibilité sur les chemins de décision  

Les organisations doivent offrir à leurs utilisateurs une transparence sur leurs pipelines de données et leurs processus basés sur les données afin d'instaurer la confiance. Alors que les algorithmes d'IA sont généralement protégés par la propriété intellectuelle et ne sont pas révélés, lorsque les organisations partagent leur code de conduite et les directives relatives à leurs programmes basés sur les données, il est indéniable que la confiance des utilisateurs finaux se voit renforcée.  

3. Marier les pratiques d'IA explicables à un environnement MLOps 

Le MLOps doit être intégré aux contrôles de qualité de l'IA explicable. À chaque étape du cycle de vie du développement logiciel, en plus des tests d'erreurs de codage, il est possible de vérifier les résultats souhaités. Tout écart par rapport aux résultats escomptés peut alors être corrigé avant de passer à la production finale. 

4. La présence humaine est nécessaire 

L’Humain continuera à jouer un rôle essentiel, en veillant à ce que les modèles d'IA soient "équitables" d'un point de vue humain et se basent sur les bonnes tendances/les bons insights. 

5. Responsabiliser les scientifiques de l'IA 

Les experts IA et les data scientists doivent prendre à bras le corps leurs responsabilités en s'assurant d’exécuter la bonne formation aux machines avec lesquelles ils travaillent. Les organisations doivent également établir le code de la prise de décision éthique et diffuser des informations sur l'impact de leurs actions sur l'utilisateur final.   

Les explications des modèles d’IA peuvent rendre nos systèmes d’IA plus fiables, conformes, efficaces, équitables et robustes. Des conditions optimales pour favoriser et accélérer l’adoption de l’IA et de sa valeur commerciale. Les entreprises qui s’appuieront sur une telle approche seront, pour sûr, celles qui tireront leur épingle du jeu sur le long-terme.