Intelligence artificielle, l'objectiver c'est l'adopter

Dès lors que nous parlons d'intelligence artificielle, il ne se passe pas un jour sans que fleurissent une invraisemblable quantité d'articles sur la substitution de l'humain par la machine. Question bien réelle et essentielle mais qui est souvent traitée de manière manichéenne avec un angle destruction ou création d'emploi.

En matière d'IA, le véritable enjeu réside dans la compréhension des caractéristiques de cette nouvelle collaboration humain / machine apprenante et des conditions nécessaires pour en faire un cercle vertueux.

En effet, l’utilisation des algorithmes pour assister la décision humaine s’immisce dans toutes les pans de notre société, souvent de façon visible - avec ParcoursSup, pour orienter les lycéens après le bac, ou l’aide à la décision juridique avec l’exemple de COMPAS - mais de plus souvent de manière discrète et massive, pour les décisions médicales, l’octroi de crédit ou le filtrage d’alertes sur des transactions financières. Tous ces cas posent par nature des questions profondes sur la juste place de l’exercice du libre arbitre dans une décision affectant autrui.

Pourtant, en se penchant sur les raisonnements humains et artificiels lors d’une prise de décision, rien n’indique qu’il faille les opposer. L’intelligence artificielle a la capacité de gérer une quantité conséquente de données et de variables pour en tirer des conclusions probabilistes, là où l’humain, limité par sa capacité à ingérer autant de données, est en mesure d’adapter son processus de décision en rajoutant d’autres variables ou éléments de contexte pour prendre sa décision. Ainsi, leurs qualités respectives se complètent, si toutefois on sait mettre en valeur les atouts de chacun. Cette différence fondamentale de raisonnement pave la voie, non pas à un remplacement de l’humain par la machine, mais bien au contraire, à une intéressante complémentarité intellectuelle mutuellement bénéfique pour aboutir à des décisions optimales. Cette intuition anime nos projets de transformation depuis maintenant plus de 4 ans et constitue aujourd’hui une conviction avérée de notre part.

L’état de l’art de la recherche et l’expérience avec nos clients nous montrent que la collaboration Homme/Machine s’avère être un processus de décision susceptible de surpasser à la fois la décision humaine et la décision algorithmique. Ces expérimentations sont porteuses d’autres enseignements décisifs dans un contexte de collaboration Homme/Machine. En effet, au-delà d’identifier la pertinence de cette collaboration, nous avons été en mesure de quantifier le gain de performance associé à ce processus de décision.

Mais ce n’est pas tout, nous nous sommes également penchés sur l’impact de l’expérience utilisateur (UX) et des spécificités de l’interface (User Interface) sur le processus décisionnel, en faisant varier la manière dont les recommandations de la machine étaient présentées à l’humain. Plus spécifiquement, nous avons étudié s’il était possible d’identifier et de réduire les biais cognitifs à l’œuvre lors d’une prise de décision. Dans notre cas, la présentation optionnelle des recommandations algorithmiques a permis de maximiser l’exercice de l’esprit critique humain (la résistance) vis-à-vis de la recommandation de la machine, sans dégrader les performances de la prise de décision. À l’inverse, présenter les résultats algorithmiques de manière systématique tend à générer un biais d’automatisation : l’humain suit mécaniquement la recommandation sans suivre suffisamment son intuition.

Qu’apporte cette objectivité dans ce contexte de collaboration Humain/Machine apprenante et plus globalement d’adoption de l’intelligence artificielle ? Ici, nous avons su montrer empiriquement que l’intelligence augmentée pouvait être le meilleur processus de décision. De manière plus générale, nous avons formalisé une méthodologie nous permettant de déterminer, objectivement, quel était le meilleur processus de décision pour une décision donnée : l’IA, l’Humain ou bien la collaboration Homme/Machine.

En outre, nous nous attachons à comparer les performances absolues de chacun de ces processus de décision, en fonction du niveau de confiance de la machine. Cette comparaison nous permet d’identifier jusqu’à quel niveau de confiance de l’IA il est possible d’automatiser une tâche, à partir de quel niveau de confiance du modèle est-il préférable de faire collaborer l’humain et la machine, et enfin, quand l’humain doit-il prendre la décision seul, sans aide de l’IA.

Ce faisant, nous sommes en mesure d’approfondir l’analyse et étudier quelles sont les modalités optimales de collaboration entre l’humain et la machine : comment présenter les recommandations de la machine ? Comment valoriser les capacités humaines de manière optimale ? Quand et pourquoi doit-on être ‘tolérant’ vis-à-vis de certains biais qui s’avèrent positifs dans la prise de décision ? Doit-on rappeler le niveau de performance de la machine à l’utilisateur ? Voilà quelques illustrations de questions auxquelles nous pouvons aujourd’hui apporter des réponses.

Le sujet de l’objectivité du processus de décision ainsi adressé apparait donc clairement comme le complément indispensable des sujets d’auditabilité, de transparence, d’explicabilité des modèles. L’enjeu est bel et bien de pouvoir donner confiance à toute prise de décision impliquant cette nouvelle collaboration qui est maintenant une réalité et une marque de fabrique de cette nouvelle ère d’un monde augmentée. Avec la confiance vient l’adoption et l’appropriation, les 2 clefs pour une mise à l’échelle effective de l’IA au sein de la société.

Article rédigé avec le concours de :

  • Grégoire Colombet, Consultant IA et Finance IBM France
  • Thomas Baudel, Directeur de Recherche IBM Lab France