Intelligence artificielle en entreprise : comment limiter le risque de biais

Alors que les outils d'intelligence artificielle sont plébiscitées par les organisations depuis quelques mois, les biais algorithmiques qu'ils comportent peuvent être un danger pour les entreprises.

Depuis le lancement de ChatGPT ou encore DALL-E-2, autre branche d’OpenAI pour la génération d’image, la question de la nature des données sur lesquelles sont entraînés ces outils est devenue prépondérante. Solutions futuristes capables de répondre à un message avec un texte ou un visuel pertinent, elles reposent sur une approche qui reste encore imparfaite et souffre intrinsèquement de limites technologiques.

Un moteur de performance incontournable

Les organisations se tournent de plus en plus vers les outils d’intelligence artificielle (IA) et d’apprentissage profond (Machine Learning) pour bénéficier des avantages considérables qu’ils présentent, à savoir la rapidité d’exécution, l’optimisation des procédures, les gains de performance et le potentiel d’innovation. Les conséquences de la généralisation de l’IA doivent cependant être examinées attentivement.

Selon le cabinet d’analyse américain Forrester, « les progrès rapides dans les domaines de la recherche fondamentale sur l’IA, les nouvelles applications des modèles existants, l’adoption de cadres et de rapports sur la gouvernance et l’éthique de l’IA, et bien d’autres développements feront de l’IA une part intrinsèque de ce qui fait une entreprise performante ». Les dépenses en logiciels d’IA devraient presque doubler, passant de 33 milliards de dollars (31 milliards d’euros) en 2021 à 64 milliards de dollars (60 milliards d’euros) en 2025, une accélération bien plus rapide que celle du marché global des logiciels.

Ces perspectives de croissance sont toutefois à relativiser, notamment parce que les solutions supportées par l’intelligence artificielle peuvent comporter certains biais algorithmiques, qui se produisent lorsque les biais humains sont répercutés dans les algorithmes eux-mêmes.

Une IA fondamentalement biaisée ?

Alors que beaucoup pensent que ChatGPT pourrait être utilisé comme un moteur de recherche et se substituer à Google, les résultats obtenus sur ChatGPT manquent de fiabilité et peuvent être partiaux. Formuler une question à ChatGPT d’une certaine manière amène parfois à des résultats offensants et biaisés (par exemple ChatGPT a ainsi classé des personnes qui devraient être torturées selon leur pays d’origine).

Utiliser des données biaisées pourrait bien nuire à l’activité des entreprises si cette utilisation résulte dans la prise de décisions inappropriées. Plus d’une organisation sur deux se dit d’ailleurs préoccupée par le risque que les biais de l’IA nuisent à son activité. Les organisations encourent même des sanctions juridiques, compte tenu des risques éthiques liés au biais de l’IA. Un exemple de ces risques est le recrutement basé sur l’IA, susceptible de favoriser les candidats aux candidates. Les données biaisées peuvent également porter atteinte à la réputation et à la crédibilité d’une entreprise en raison de prévisions inexactes. 36 % des entreprises déclarent ainsi que leur activité a été négativement impactée par le biais de l’IA, ce qui a entraîné une perte de revenus… et de clients.

Les résultats offensants trouvent le plus souvent leur origine dans des modèles formés à partir de base de données qui contiennent du contenu problématique. Ce type de contenu est largement disponible sur Internet, et s’y ajoute la désinformation et les discours haineux. C’est sur des contenus de ce type que sont entraînés de nombreux modèles d’IA actuellement très populaires. Ces bots génèrent ensuite à leur tour de nouvelles données biaisées, polluant donc encore plus la source de données disponibles.

Comment éliminer les biais de l’AI ?

À l’avenir, les données antérieures ou postérieures à l’ère de l’IA seront évaluées différemment. Mais où commencent les biais ? Ils peuvent généralement être attribués à des données biaisées ou à des données qui sous-représentent ou ignorent des populations entières. Ce sont ces biais dans les ensembles d’échantillons sur lesquels les modèles d’IA sont entraînés qui conduisent à une IA non fiable.

Il semble difficile d’éliminer les biais de l’IA tant ils sont liés aux biais humains. Toutefois, des outils d’IA actuels pourraient bien être formés de manière à repérer les préjugés humains. Ce serait un grand pas en avant.

Le biais inhérent aux données est une combinaison du biais humain et de la manière dont le biais se traduit dans les données. Si s’efforcer de corriger le biais humain est une tâche perdue d’avance, la correction des biais des modèles d’IA est en revanche réalisable. Les data scientists doivent être mieux formés afin que des pratiques éthiques soient suivies lors de la collecte et du nettoyage des données. Ils doivent également être les garants de la conservation de données de haute qualité.

Quant à la sous-représentation des personnes, la transparence est la meilleure solution. En veillant à ce que les données soient « ouvertes » et accessibles au plus grand nombre possible d’experts, des groupes de personnes plus diversifiés pourront échantillonner les données et signaler les biais qui s’y dissimulent. Ces méthodes devraient contribuer à la mise en œuvre de modèles d’IA capables d’entraîner elles-mêmes des IA moins biaisés. Cela permettra également d’automatiser cette inspection, car il sera impossible pour les humains de contrôler les volumes de données en question.

Les biais de l’IA ne sont pas insolubles. À l’image du vaccin contre le coronavirus pour lequel le monde universitaire, l’industrie et les instances gouvernementales ont uni leurs efforts pour partager des connaissances et réduire les formalités administratives, l’association d’une multitude d’acteurs peut permettre de lutter contre les biais de l’IA. C’est ce niveau exceptionnel de collaboration entre les entreprises, les chercheurs et les organisations publiques qui sera nécessaire pour déterminer et appliquer des solutions pour bénéficier d’une IA fiable et éthique.