Être "woke" ou "philosophe", les enjeux éthiques de l'IA

Dans la course de vitesse que se livrent les acteurs de la " tech " dans l'IA générative, il est possible de trébucher.

Gemini, le modèle d'IA de Google, qui produit de remarquables images à partir d'" inputs " textuels mais a dû être mis " en pause " quelques jours après son lancement.

En cause, un problème vite pointé du doigt par de nombreux utilisateurs, plus ou moins bien intentionnés : quand on lui demande de représenter des Vikings ou les pères fondateurs des États-Unis, Gemini présente des images montrant exclusivement des personnes noires ou autochtones dans des tenues traditionnelles. Il écarte par ailleurs la possibilité de générer des images de figures historiques telles qu’Abraham Lincoln, Jules César et Galilée. Quant à sa préférence entre Staline et un influenceur conservateur présent sur TikTok, Gemini répond que c’est une "question très complexe et qu'il n'y a pas de réponse facile".

De là à inférer que cela confirme les opinions libérales des grands acteurs de la tech, il n’y a qu’un pas pour nourrir des heures de débats clivants sur les chaînes infos. Il y a pourtant une leçon importante à tirer de cet épisode, qui est une variation des mésaventures de Tay, le chatbot qui tenait des propos racistes après quelques heures d’échanges avec les internautes en 2016.

 Cet épisode met en lumière qu’il est opportun, sinon nécessaire, pour les entreprises, de réfléchir dès aujourd’hui aux risques multiples que recèle l’utilisation de l’IA : risques réputationnels, réglementaires, juridiques et business. « A grands pouvoirs, grandes responsabilités » : par sa puissance (tirée de bases de données gigantesques) et ses applications (déployées mondialement et présentes dans nos vies quotidiennes comme l’algorithme des primes d’assurance), l’utilisation de l’IA présente des risques à la hauteur des gains potentiels de productivité qu’elle laisse espérer.

 A l’heure où le sujet émerge aussi au niveau réglementaire avec l’IA Act de l’Union Européenne, trois enjeux essentiels doivent être pris en compte : l’anticipation et la réduction des biais, la protection des données personnelles et l’explicabilité des modèles.

 Le cas d’usage de l’analyse des CV pour identifier les meilleurs candidats à une offre d’emploi résume bien les difficultés : c’est une situation à risque (davantage que recommandation d’une série sur une plateforme de streaming), les données d’entraînement peuvent être biaisées, et il n’est pas toujours simple de comprendre à temps pourquoi. Amazon a ainsi abandonné un programme de ce type après un an de travail, constatant que l’algorithme discriminait les femmes pour les postes avec des compétences techniques en informatique. Il est aujourd’hui assez facile de développer ce genre de logiciels avec les technologies LLM. Reste à bien contrôler ces usages potentiellement explosifs au sein des entreprises.

 Comment anticiper ces risques ? Reid Blackman, un spécialiste de l’éthique et de l’IA, suggère de différencier les « contenus », c’est-à-dire les risques éthiques à éviter, de la « structure », à savoir la manière d’identifier et remédier à ces risques par des règles et une organisation. En travaillant sur les contenus, on pourra plus facilement mettre en place la structure idoine aux enjeux de l’organisation.

 L’utilisation de l’IA mérite de travailler à plusieurs mécanismes « protecteurs » le plus en amont possible. D’abord une évaluation rigoureuse des données : il est utile d’analyser a priori les échantillons d’entraînement pour détecter et corriger les biais. Ensuite, une gouvernance éthique de l’IA : la création de comités d’éthique pour superviser les développements et applications de l’IA. Enfin, un panel de compétences diversifiées au sein de ce comité et des équipes : les sujets abordés sont tellement complexes et sensibles que la variété des points de vue – techniques, juridiques, philosophiques, gestion du risque… - ne peut qu’enrichir la compréhension et l’approche des problématiques qui se poseront inévitablement aux entreprises qui prennent le chemin de l’IA.