Si l'IA ne règle pas le problème des biais de genre, le risque est grand qu'elle échoue dans sa mission

L'IA a des biais de genre, causant discrimination et manque de transparence. Il est essentiel que les entreprises mettent en place une IA responsable et s'engagent dans des initiatives collaboratives

Depuis l’année dernière, l’intelligence artificielle (IA) est au cœur des conversation avec le développement des bots tels que ChatGPT, qui surprennent par leur capacité à générer des textes réalistes et même du code informatique. Pourtant, l’IA commet des erreurs. Alors, comment faire et quelle attitude adopter ?

La question mérite d’être posée. Les biais, de genre notamment, sont fréquents avec les systèmes IA. Les conséquences sont possiblement fâcheuses : discrimination, manque de transparence, problèmes de sécurité et de respect de la vie privée. Il est même possible que de mauvaises décisions prises par l’IA portent préjudice à des carrières ou en viennent à coûter des vies. Négliger les risques générés par le biais revient à mettre à mal la technologie elle-même, qui pourrait bien ne jamais atteindre son plein potentiel au service de l’humanité. 

L’IA ne peut être de qualité que si les données sur lesquelles elle est entraînée le sont également. Or, nombreuses sont les données qui sont biaisées en faveur des hommes, de même que dans le langage utilisé au quotidien, qu’il s’agisse d’actualités en ligne ou de livres. Des études ont montré que des IA entraînées avec des données de Google Actualités en viennent à associer les hommes aux rôles de « capitaine » et de « financier », tandis que les femmes seront plus volontiers associées aux rôles de « réceptionniste » et de « ménagère ». 

La conséquence est que de nombreux systèmes d’IA, formés sur des données ainsi biaisées et souvent créés par des équipes essentiellement masculines, désavantagent le public féminin. Cela va d’organismes bancaires qui proposent des crédits plus avantageux aux hommes et à des outils de diagnostic médical utilisés pour le dépistage du COVID ou de maladies du foie. Or de mauvaises décisions peuvent ici entraîner des problèmes financiers voire mettre en danger la santé des gens.

Il faut ajouter à ceci que seuls 22 % des professionnels de l’IA et de la science de la data sont des femmes, d’après une étude du Forum économique mondial. Et à mesure que la question du genre devient plus complexe avec la prise en compte des personnalités non-binaires et transgenres, cela accroît le risque de biais de formes multiples.

L’IA est un outil puissant qui pourrait nous aider à régler des problèmes insolubles jusqu’ici, du cancer au changement climatique, mais tant que des biais perdureront, les productions de l’IA manqueront de fiabilité, voire seront erronées. Si les professionnels de l’IA ne parviennent pas à dépasser le problème des biais, ces outils deviendront inutiles et l’industrie de l’intelligence artificielle pourrait bien vivre un nouvel hiver (un ‘AI Winter’), comme ce fut le cas dans les années 1970 avec un fort déclin de l’intérêt pour la technologie.

La question des données

Il est certain qu’à l’avenir les entreprises auront de plus en plus recours à l’IA pour exploiter tout le potentiel de leurs données. D’après le rapport Data for Humanity de Lenovo, 88 % des dirigeants d’entreprise estiment que l’IA sera un facteur clé pour valoriser leurs données au cours des cinq prochaines années.

Alors comment ces dirigeants vont-ils gérer le problème des biais ? C’est la première fois de l’histoire que nous disposons d’une technologie aussi puissante entièrement créée d’après notre propre compréhension du monde. L’IA est un miroir de nous-même. Nous ne devrions pas être choqués de ce que ce miroir nous renvoie. Nous devrions plutôt saisir l’occasion pour changer nos façons de faire. Pour ce faire, il faudrait commencer par veiller à ce que nos entreprises soient équitables en matière de représentation des genres et d’inclusion, mais aussi nous montrer vigilants quant aux conditions de collecte et d’utilisation des données. 

Chaque fois que l’on se met à collecter des données, à les traiter ou à les exploiter, on prend le risque d’insérer des biais. Ceux-ci peuvent se glisser n’importe où : il suffit qu’un genre soit davantage représenté dans les données ou que les questions posées soient uniquement élaborées par des hommes. Les dirigeants d’entreprises vont donc devoir se montrer plus vigilants encore sur l’origine des données, leurs conditions d’utilisation et les moyens à mettre en œuvre pour prévenir les biais. Des solutions techniques allant dans ce sens joueront un rôle clé, sachant que les data scientists n’auront pas le luxe de parcourir une à une les lignes de texte utilisées dans un modèle d’apprentissage.

Il y a deux solutions possibles. La première est de recruter davantage de personnes pour tester le modèle et identifier les problèmes. La seconde, pour aller plus loin, est de se doter d’outils plus efficaces à détecter les biais dans les données qui viennent alimenter l’IA ou dans le modèle lui-même. Avec ChatGPT, par exemple, les chercheurs utilisent un modèle d’apprentissage mental pour annoter les données possiblement problématiques. La communauté de l’IA doit accorder une grande attention à ce sujet. Il faudra aussi des outils permettant une plus grande transparence quant au fonctionnement des IA.

Bien comprendre les biais

Prenons un peu plus de recul. Les outils que nous utilisons aujourd’hui créent déjà des biais dans les modèles que nous appliquerons à l’avenir. Nous pouvons très bien penser avoir « réglé » un biais, mais dans 50 ans, rien ne dit que de nouveaux outils ou preuves n’auront pas totalement changé notre façon de voir. Ce fut le cas avec le diagnostic du syndrome de Rett, les données d’étude ayant été essentiellement collectées auprès de petites filles. L’absence de données concernant des garçons atteints du syndrome a introduit des biais dans la modélisation des données plusieurs années plus tard avec à la clé des diagnostics erronés et la préconisation de traitements inadaptés pour les garçons.

De même, dans 100 ans, les êtres humains ne travailleront peut-être plus que trois jours par semaine. S’appuyer sur des données issues de semaines de travail de 5 jours sans prendre en compte cette évolution risquerait fort d’introduire des biais. Les data scientists et les chefs d’entreprise doivent donc prendre en compte le contexte. Et la prise en compte de ce contexte n’est pas seulement primordiale d’un point de vue temporel mais également spatial, géographique, tout particulièrement pour les entreprises qui opérent dans de nombreux territoires.

La maîtrise de ces problématiques sera l’une des pierres de touche d’une IA responsable. Les dirigeants des entreprises utilisant l’IA devront accorder une attention croissante à ce sujet, en même temps qu’il sera de plus en plus discuté de manière générale au sein de la société.. D’ici l’année prochaine, 60 % des fournisseurs d’IA proposeront un filet de sécurité pour prévenir les  dommages potentiels, selon Gartner

Il appartient à chaque entreprise de mettre en œuvre une IA responsable, en définissant ce que cela implique compte tenu de leur activité, en identifiant et en évaluant les risques, en prenant les mesures nécessaires pour les prévenir. C’est un travail qui doit être fait à tous les niveaux de l’entreprise, à commencer par la gouvernance, et ne doit pas hésiter à faire intervenir toutes les parties prenantes qui peuvent y contribuer. C’est un travail de longue haleine qui demande un effort soutenu.

Préparer l’avenir dès maintenant

La tâche peut sembler d’une telle ampleur de prime abord qu’il n’est pas toujours évident ni de définir ni de mettre en œuvre la bonne méthode à l’échelle de l’entreprise pour assurer le développement d’une IA éthique et responsable. C’est là que l’intelligence collective et une approche collaborative peuvent jouer un rôle clé, associant les entreprises, des spécialistes, les pouvoir publics ainsi que la société civile.

Il existe d’ores et déjà plusieurs initiatives qui vont dans ce sens. C’est par exemple le cas du pacte « Femmes & IA » du Cercle InterElles. Elle est le fruit du travail d’un groupe initié en 2019 et auquel j’ai eu le plaisir de contribuer. Elle propose une méthode et des outils pour développer des IA non-sexistes. Elle repose sur sept principes et se veut un référentiel pour mettre en œuvre la démarche au sein de l’entreprise, depuis la création d’un comité IA à la sensibilisation et la responsabilisation en passant par la conformité dès la conception, le choix et le traitement des données ou encore la diversité des équipes IA.

La route est encore longue et les entreprises gagneraient à s’engager dans cette voix dès à présent.