IA et éthique : l’entreprise à la croisée des chemins

Parce qu’elle conçoit ses règles à partir de la pensée humaine, l’Intelligence Artificielle place l’entreprise face à ses contradictions et lui impose de clarifier ses choix stratégiques et éthiques.

L’Intelligence Artificielle est en train de devenir une composante incontournable des efforts de transformation numérique dans les entreprises. Choix stratégiques, conquête  de nouveaux marchés,  relation client, gestion financière… L’IA porte en elle la promesse d’une efficacité accrue pour tous les métiers et dans tous les secteurs. A en croire le cabinet IDC, elle va bénéficier d’un doublement des investissements mondiaux d’ici 2022.  

Des voix dissonantes s’invitent néanmoins régulièrement dans le débat pour mettre en garde contre les risques avérés de biais dans les recommandations produites par les algorithmes. Ce faisant, elles soulèvent des questions éthiques dont les implications vont bien au-delà des simples transactions entre machine et humain… jusqu’à poser la question fondamentale de l’équité et de la traçabilité des décisions.  

L’enjeu est jugé suffisamment fondamental pour que les gouvernements s’en saisissent : la Commission européenne a récemment présenté une série de recommandations visant à assurer un cadre juridique et éthique approprié pour l’IA. Il est vrai que des affaires retentissantes viennent régulièrement confirmer ces inquiétudes, d’autant plus spectaculaires qu’elles impliquent souvent de grands acteurs des technologies. Le système de reconnaissance faciale d’Amazon s’est ainsi récemment illustré par son incapacité à reconnaître convenablement les sujets à peau foncée. Ce qui aurait alors pu être considéré comme de banals errements de laboratoire a suscité l’émotion de la communauté scientifique dès lors qu’il fut question de l’utilisation du logiciel in vivo par des forces de sécurité.  

D’où proviennent les biais de l’Intelligence Artificielle ? Sont-ils volontaires ou involontaires ? Y a-t-il un moyen de les éviter, voire de les éliminer durablement ? Les solutions sont-elles exclusivement techniques ? 

Le 3 novembre 1936, Franklin D. Roosevelt est réélu triomphalement à la tête des Etats-Unis avec plus de 60% des voix, au grand dam du Literary Digest, l’un des magazines phares de l’époque qui avait prédit une victoire écrasante du camp républicain. Le sondage à l’origine de cette prédiction, pourtant mené auprès d’un titanesque échantillon de 2,4 millions de personnes, souffrait d’un biais qui prête aujourd’hui à sourire : les sondés étaient issus du lectorat du magazine, ainsi que de listes de propriétaires de voitures et d’abonnés au téléphone, autant dire un échantillon représentatif… des catégories aisées en cette période de dépression ! Sur la base d’un échantillon comparativement minuscule de 5 000 sondés représentatifs de la population, le statisticien George H. Gallup avait quant à lui annoncé une victoire de Roosevelt avec 56% des voix.  

Evénement fondateur de la science des sondages d’opinion, l’élection américaine de 1936 est connue de tous les étudiants en statistiques. A huit décennies de distance, Amazon s’est heurté au même écueil que le vénérable Literary Digest : des données non représentatives. Entraîné sur des photos d’individus à l’épiderme majoritairement clair, le programme s’est logiquement révélé déficient dès lors qu’il s’est agi de reconnaître des sujets sortant de son champ de référence.  

Le problème étant posé en ces termes, la parade semble simple : il suffirait de fournir à l’algorithme un corpus de données suffisamment diversifié pour lui permettre de devenir plus performant. Vrai. Mais que faire lorsque le biais est consubstantiel aux données ?  

Prenons l’exemple d’un algorithme qu’il s’agirait d’entraîner à déterminer le risque associé aux demandes de prêts bancaires. Grâce à sa capacité d'apprentissage automatique (Machine Learning), le système analysera les dossiers de prêts traités par la banque depuis dix ans : quels dossiers ont bénéficié d’un prêt et à quel taux, en fonction de différents critères (salaire, situation familiale, lieu de résidence, etc.). Ce faisant, il reproduira à coup sûr les biais des décisions humaines de cette période : si les dossiers des demandeurs issus d’une zone géographique particulière étaient rejetés, ou s’ils payaient des intérêts plus élevés par exemple, cette injustice se perpétuera ; ce qui n’était qu’un biais statistique observable sur un jeu limité de données devient une règle systématique pour l’algorithme. Plus grave, cette règle est implicite, car l’algorithme est le plus souvent une "boîte noire", qui n’est pas conçu pour "expliquer" ses choix.  

Dans son livre Algorithmes, la bombe à retardement la data-scientist Cathy O’Neil explique très bien le danger que représentent des algorithmes ayant pour unique objectif la création de valeur à court terme : ces derniers tendent généralement à exacerber les inégalités.  

Que faire alors ? Avant d’être technique, la réponse est de nature stratégique. Et c’est, il faut le dire, une excellente nouvelle ! 

Une application d’IA est un programme informatique et, en tant que tel, elle poursuit un objectif déterminé par son concepteur. En l’occurrence, dans notre exemple, il s’agit pour l’IA de reproduire au mieux le processus de décision du banquier. S’écarter de cette finalité implique nécessairement, dans la phase d’apprentissage, de ne pas tenir compte uniquement du taux d’erreur. Il s’agit non seulement d’une approche techniquement plus complexe (donc coûteuse), mais aussi particulièrement structurante au plan stratégique : dans notre exemple, la banque est-elle prête à prendre un peu plus de risque dans le traitement des dossiers pour favoriser une plus grande équité ? A l’ère de l’Intelligence Artificielle, on peut toujours rêver (et pas que de moutons électriques). 

On voit bien ici que l’adoption de l’IA impose en réalité à l’entreprise de formaliser ses choix stratégiques, impliquant des considération économiques mais aussi éthiques. Quel est le projet de mon entreprise ? La performance est-elle mon seul horizon ? Quelle posture sociétale veut-on assumer ? De manière inattendue, l’Intelligence Artificielle peut, et doit, jouer un rôle de révélateur pour l’entreprise. Il appartient notamment aux data scientists de bien expliciter ces enjeux en amont de tout projet IA. 

L’autre garde-fou essentiel tient à la posture de l’utilisateur. Dans un environnement économique ultra complexe, où les décideurs sont bombardés de millions de données contradictoires, le modèle de l’entreprise data-driven est plus séduisant que jamais, et il est tentant de laisser le gouvernail à une machine infaillible qui saura à coup sûr prescrire les bonnes décisions. Ce mythe, en réalité, a fait long feu, et il n’a jamais été plus crucial de favoriser une approche raisonnable, qui donne toute son importance à l’instinct humain issu de l’expérience. Le propre de l’IA est de fournir des recommandations optimales en fonction de critères pré-établis. Mais lorsque l’environnement change brutalement, ses déductions peuvent devenir aberrantes ou discriminantes, a fortiori lorsque ses données de base se révèlent biaisées. L’analyse humaine, le bon sens du professionnel, demeurent à cet égard le seul rempart efficace.  

Comme la société dans son ensemble, nos entreprises sont à la croisée des chemins vis-à-vis de l’Intelligence Artificielle. Elles ont toutes les cartes en main pour que soit tenue sa grande promesse : augmenter l’intelligence humaine, sans encourager ses travers. Dans un parallèle astucieux, l’ancien champion du monde des échecs Garry Kasparov déclarait dernièrement que l’éthique ne pouvait pas s’enseigner à la machine, comme on peut le faire avec les règles d’un jeu complexe. "L'une des clés est d'utiliser ces machines pour mettre au jour nos préjugés d'êtres humains afin que nous puissions nous améliorer et rendre notre société meilleure grâce à un cercle vertueux" avance le grand maître. Vision naïve ? A nous d’en décider.