L'intelligence artificielle, le meilleur outil dans la lutte contre les discriminations

Pour éviter les biais, l'IA doit être nourrie de données correctes. Elle a besoin d'instructions le plus éthique possible afin d'éliminer les préjugés humains et de pallier au déficit de données historiques, en vue de parvenir à un équilibre optimal.

Dans le monde de l'entreprise, l'équité est un sujet complexe. Le lien avec l'intelligence artificielle (IA) n'est pas évident, mais Facebook ne s'y est pas trompé en nommant son centre d'IA "FAIR" ("équitable"), pour Facebook Artificial Intelligence Research. Si nous retenons souvent que les IA pouvaient être discriminantes, la réalité est plus subtile : l'IA reproduit les discriminations contenues dans les données avec lesquelles elle a été nourrie lors de son entrainement.

Le problème des données historiques

L’analyse des données, quelle que soit leur source, montre rapidement l’injustice des décisions humaines. L’injustice n’est pas à comprendre au sens moral – bien ou mal – mais comme révélateur du déséquilibre du monde dans lequel nous vivons. Les données sont descriptives, et si le monde est injuste, les données seront biaisées.

C’est un constat que nous faisons quotidiennement en tant que citoyens. Les riches devraient-ils payer plus d'impôts ? Ce n'est pas équilibré, mais beaucoup diraient que c'est juste. Pourtant, le prix d’une baguette de pain ne changerait pas. Déjà, l'idée de proportionner les dépenses aux revenus devient incohérente, et c'est peut-être injuste en soi.

Appliquons maintenant cette notion à l'IA. Rappelons au préalable que l’IA se nourrit de données pour faire fonctionner des algorithmes et prendre des décisions qu’on espère précises et fiables. Si les données utilisées sont biaisées, les décisions prises seront injustes. L’IA peut ainsi maintenir un schéma discriminant. Par exemple, un algorithme qui prend en compte divers facteurs sociodémographiques (genre, origine géographique, école ou université fréquentée, etc) aura tendance à favoriser le recrutement de personnes similaires à celles qui ont déjà été embauchées. Cela n’aide pas à diversifier le recrutement.

Ce biais peut être corrigé par une décision humaine et une manipulation des données introduites dans l’algorithme. En l’absence de telles décisions, on peut se retrouver dans le cas de figure d’Amazon dont l’algorithme de recrutement a été pointé du doigt : parce qu’il s’appuyait sur des données historiques (et donc injustes), il favorisait le recrutement des hommes au détriment des femmes.

Si ce biais du logiciel de ressources humaines d’Amazon a d’abord surpris, cela a permis à la communauté de l’IA de se saisir du problème. Des méthodes ont été développées pour que les algorithmes soient en mesure de prendre des décisions justes à partir de données injustes. De nombreuses entreprises prennent maintenant soin d'utiliser des données plus équilibrées pour l’entrainement.

La question de l’équité

Les entreprises doivent fournir à l'IA des données correctes. Elles ont besoin d’instructions le plus éthique possible afin d'éliminer les préjugés humains et de pallier au déficit de données historiques, pour parvenir à un équilibre optimal.

La bonne nouvelle, c'est que les algorithmes et les "instructions" sont relativement faciles à adapter. La technologie est là, prête effacer les discriminations.

Mais cela ne fait que déplacer le problème des mathématiques vers la philosophie et les sciences de l’organisation : qu’est-ce qui est juste, et qui en décide ? Cette question est fondamentale, car il faut une définition claire avant de pouvoir la traduire dans les algorithmes. Et il n’est pas aisé d’y répondre. Par exemple, devrait-il y avoir le même nombre de professeurs d'informatique masculins que féminins, même s'il y a cinq fois plus d'hommes qui étudient en informatique ? Et ce ratio de 5 à 1 est-il naturel, ou est-il dû à un manque d’opportunités et d’encouragements pour que les femmes poursuivent des études en informatique ? Au final, est-il plus pertinent de viser le 50-50 en matière d’embauche ou de prendre en compte les complexités sociales pour en tirer un ratio différent ? 

Ainsi, l’algorithme ne peut devenir un outil de lutte contre les discriminations qu’une fois que les notions d’éthique et de justice sont définies de façon suffisamment précise pour être traduites dans le code informatique.

La précision mathématique de l’IA

Une fois ces définitions établies, l’IA peut devenir un outil d’aide à la prise de décision juste. Cela pourrait permettre de niveler certaines des discriminations les plus flagrantes observées dans les domaines des ressources humaines, des écarts salariaux, ou des inégalités hommes-femmes.

Bien entendu, si une injustice est introduite dans l'algorithme, la situation discriminatoire ou contraire à l'éthique sera maintenue ou exacerbée. Mais lorsqu'il est utilisé à bon escient, nous avons une arme précise entre les mains - une arme faite de données et d'algorithmes qui peuvent défaire les déséquilibres culturels, historiques et sociaux de manière beaucoup plus rapide que nous ne pourrions le faire appliquer par la loi.

C’est une promesse ambitieuse qui repose sur le fonctionnement même de l’IA : effacer les biais et les influences humaines qui ont créé les inégalités.

L'IA fonctionne sur la base de données. Et tant que les données fournies à ces algorithmes sont assemblées avec de bonnes intentions, nous avons une arme très puissante à utiliser dans la lutte contre la discrimination. L’actualité récente, des émeutes de Kenosha aux Etats-Unis aux actions du Comité Vérité pour Adama en France, montre le besoin pour une meilleure remédiation des injustices.