Pour éviter les biais de l'IA, mieux vaut s'intéresser au facteur humain qu'aux questions techno

Un aspect de l'IA reste préoccupant aux yeux du plus grand nombre : les biais de l'intelligence artificielle ou la discrimination algorithmique. Mais est-ce réellement juste une question d'algorithme ?

Les interrogations et les craintes au sujet de l'intelligence artificielle (IA) ne sont guère nouvelles. Longtemps les débats ont porté sur la destruction d'emplois par des robots, toutefois le grand public a peu à peu admis que l'IA était plutôt synonyme de nouveaux métiers et d'évolution des compétences. Un aspect de l'IA reste néanmoins préoccupant aux yeux du plus grand nombre : les biais de l'IA ou la discrimination algorithmique. Mais est-ce réellement juste une question d'algorithme ?

Les problèmes de biais dans l’IA...

Lorsqu’elle est mise en œuvre convenablement, l’IA peut engendrer des gains d’efficacité considérables et des améliorations significatives en matière d’expérience et d’engagement client.

Toutefois, si les outils d'IA permettent de prendre de meilleures décisions, plus rapidement et avec plus de précision, leur mode de fonctionnement peut aux yeux de certains demeurer opaque et la défiance quant aux biais potentiels demeure. Les algorithmes sont considérés comme impartiaux et neutres car basés sur les mathématiques. Mais ce système d’apprentissage est alimenté, entraîné et interprété par un humain et de fait potentiellement parsemé de biais, conscients et inconscients.

L’an passé, Twitter a vu sa réputation ternie par des accusations de racisme après que ses algorithmes de recadrage de photos "préféraient" parfois des visages clairs aux visages plus foncés, rendant ainsi la reconnaissance faciale beaucoup plus difficile pour certaines personnes. En 2018, c’est Amazon qui a été taxé de sexisme après l’utilisation d’un outil d’IA pour le tri de CV, qui avait appris à privilégier les candidats au détriment des candidates.

Les biais dans l’IA peuvent se révéler préjudiciables dans d’autres secteurs. Ainsi des individus jugés “à risque” pourraient voir le tarif de leur complémentaire santé augmenter en fonction de leur état ou de leurs habitudes (consommation d’alcool, manque d’activité physique, mauvaise alimentation...). Ou une information telle que le département pourrait écarter les habitants d'un département pauvre pour l'obtention d'un prêt bancaire.

Comment s’attaquer au problème ?

Il faut d’abord garder en tête que l’IA n’est qu’un outil et que son biais est surtout imputable à celui des données sur lesquelles elles s’appuient. Pour en finir avec les algorithmes biaisés, il nous faut commencer par évaluer le facteur humain. 

S’il arrive que l’IA employée à mauvais escient fasse les gros titres, celle-ci est intrinsèquement neutre mais, comme tout outil, elle peut être à double tranchant. C’est ainsi qu’un couteau peut servir à couper de la nourriture ou à attaquer quelqu’un, son usage final étant déterminé par la personne qui le tient. De la même façon, les outils d’IA sont entraînés à partir de données, dont le mode de collecte, d’acquisition, d’analyse et d’exploitation influencera les résultats. Si l’IA est entraînée au moyen de données biaisées, il est probable que les résultats le seront également. Pour reprendre l’exemple de Twitter mentionné plus haut, si un algorithme de deep Learning traite un plus grand nombre de photos représentant des visages à peau claire, il en résultera qu’à l’arrivée le système de reconnaissance faciale identifiera plus facilement ce type de visages que ceux de couleur plus foncée.

Pour lutter contre le biais de l’IA, il est crucial que les équipes de développement soient formées à l’utilisation de méthodes transparentes de collecte de données pour veiller à ne pas alimenter l’IA avec des données biaisées. Dans cette optique, les entreprises doivent agréger des données diverses afin d’obtenir une vue aussi complète que possible, sans oublier que ces données peuvent être biaisées, non seulement par ce qui y est inclus, mais aussi par ce qui en est exclu. La surreprésentation de certains groupes, par exemple, peut fausser les résultats en introduisant un biais.

Il est essentiel de disposer de la bonne infrastructure pour y remédier. En outre, cette infrastructure doit permettre une analyse approfondie des données et offrir des moyens transparents et ouverts pour leur collecte. Des plateformes doivent interconnecter des bases de données isolées en silos afin de créer une vue d’ensemble des individus. Cela facilite l’analyse des données et leur utilisation au service de stratégies marketing et de l’engagement avec les prospects et les clients.

De l’importance de l’équité dans l’IA

En 2019, un groupe de 52 experts réunis par la Commission européenne a ainsi publié ses "règles éthiques pour une IA de confiance". La Commission souhaite soutenir le développement et l’adoption d’une IA éthique et digne de confiance dans tous les secteurs économiques à condition qu’elle soit "éthique, durable, axée sur le facteur humain et respectueuse des valeurs et droits fondamentaux".

Comprendre et mesurer “l'équité" de l’IA est devenu, dans ce contexte, indispensable. Il existe plusieurs façons de mettre en œuvre cette équité en exigeant, par exemple, que les modèles aient une valeur prédictive moyenne égale pour tous les groupes ou que les modèles aient des taux de faux positifs et de faux négatifs égaux pour l’ensemble des groupes. En particulier, la notion de “counterfactual fairness" considère une décision juste envers un individu si elle est la même dans le monde réel versus un monde alternatif où l'individu appartiendrait à un groupe démographique différent.

La solution est la combinaison de l’IA et l’humain

En dépit du tableau sombre qui est brossé de l’IA, celle-ci peut, à condition d’être mise en œuvre correctement, jouer un rôle déterminant pour l’entreprise et prendre des décisions plus égalitaires et objectives que si elles étaient rendues par un humain seul. Si l’on reprend l’exemple du prêt bancaire, un établissement financier a découvert, via l'IA, que les demandeurs très jeunes et très âgés ne bénéficiaient pas d'un accès égal au crédit. Pour encourager des décisions de crédit plus équitables, la banque a conçu un modèle dont l'algorithme devait minimiser un score d'injustice.

L’IA est essentielle pour aider les entreprises à tirer de précieux éclairages des données à grande échelle. Cependant, pour que l’IA tienne ses promesses, il faut veiller à la mettre en œuvre et à l’entraîner convenablement mais également être conscient des préjugés qui se cachent dans les données. C’est ainsi que pourront être déployés des modèles qui aident les entreprises et qui sont éthiques. Plutôt que de rejeter la responsabilité du biais sur l’IA, nous devrions nous intéresser de plus près au facteur humain.