L'importance de comprendre les défis et bonnes pratiques d'une IA éthique

L'IA éthique exige une compréhension de ses impacts, une atténuation des biais et une collaboration entre acteurs pour la transparence et la responsabilité.

L'IA s'est rapidement répandu   ces dernières années, avec un impact majeur sur notre société, notre manière de travailler et de se divertir.  Alors que la technologie ne cesse de se développer, sa mise en œuvre éthique doit également faire l'objet d'une attention accrue.

Pour développer l'IA de manière éthique, les acteurs du secteur doivent comprendre ses implications à court et long terme. Dès sa conception, l'égalité doit être une considération centrale dans les cas d'utilisation par les entreprises et la société au sens large. Dans le cas de la conception par modélisation, des quantités importantes de données doivent être utilisées pour s'assurer que la technologie soit inclusive et ne comporte pas de préjugés à l'égard de certains groupes ou individus. Si certains sont détectés, les développeurs devront ajuster les systèmes et leurs données. Toutes les IA ne présentant pas un niveau de risque équivalent, les organisations ont donc intérêt à se focaliser sur les utilisations susceptibles d’avoir un impact plus négatif.

Le risque d’inégalités systématiques

Les secteurs de la santé et de la justice sont parmi les plus sensibles pour la mise en œuvre de l'IA. Dans le premier, les principales préoccupations concernent la protection de la vie privée, la sécurité des données et l'atténuation des biais. Les données sensibles des patients doivent en effet être traitées de façon éthique, en veillant à ce que le consentement et la confidentialité soient toujours respectés.

Dans les deux domaines, le profilage est une question importante.  Alors que l'IA est entraînée sur des données existantes, des présupposés non intentionnels peuvent être introduits dans les nouveaux systèmes. C'est pourquoi les algorithmes d'IA doivent être rigoureusement contrôlés afin de minimiser les biais susceptibles de favoriser des inégalités en matière d'accès aux soins de santé, et dans le cas de la justice, d'éviter des condamnations injustes. Dans ces cas spécifiques, l’usage de l’IA, notamment générative, doit être étroitement contrôlé afin de réduire au maximum de potentiels préjudices.

Un devoir de transparence et de responsabilité

Afin de favoriser la responsabilisation, rendre publics les sources de données, les algorithmes et les processus de prise de décision impliqués dans les systèmes d'IA semble primordial. En dévoilant ces informations, les régulateurs, les industries et le grand public pourront comprendre comment les décisions sont prises et identifier les préjugés ou les potentielles erreurs.

Les entreprises doivent alors mettre en place des mécanismes permettant à des organismes indépendants d’évaluer leur impartialité, leur fiabilité et leurs performances. Cela implique de définir les rôles et les responsabilités en matière de développement, de déploiement et de suivi des systèmes d'IA. Il s'agit notamment d'établir des voies de recours et de réparation en cas d'erreurs algorithmiques ou de résultats défavorables ainsi que d'établir des canaux de conversations avec des experts et différentes communautés afin que les systèmes d'IA servent le bien commun.

Pour aider les différents acteurs, l'Union européenne a notamment adopté l'AI Act, le premier texte législatif émanant d'un grand organisme de réglementation à réguler spécifiquement cette technologie. Cette législation est novatrice et sera certainement une référence pour celles à suivre.

Comment s’assurer que l’IA est éthique ?

La contribution de l'ensemble des acteurs est essentielle pour concevoir une IA éthique - les groupes et les individus apportant des perspectives et des responsabilités singulières. Les gouvernements et les organismes de réglementation doivent donc établir et appliquer des cadres juridiques destinés au développement, déploiement et à l'utilisation de cette technologie. Les entreprises seront alors chargées de concevoir et de mettre en œuvre des systèmes d'IA qui respectent les cadres juridiques établis.

Les chercheurs et universitaires contribuent activement à faire progresser la compréhension de l'éthique de l'IA et à élaborer des lignes directrices éthiques et des bonnes pratiques. La société civile, via des organisations militantes, joue ce rôle de prévention, en soulevant ces questions et en plaidant pour un développement et un déploiement responsables. Enfin, les utilisateurs finaux et les communautés concernées devraient participer activement à la conception et au déploiement des systèmes d'IA afin de s'assurer que la diversité des perspectives, des valeurs et des besoins soit représentée. C'est à travers une collaboration efficace que l'IA pourra être développée et déployée dans le respect de l'éthique.

Afin de superviser les développeurs dans leurs efforts d’éliminer les présupposés, les entreprises ont intérêt à nommer un responsable de l’IA, qui coordonnera les activités autour de cette technologie et son déploiement, et aura ainsi un rôle majeur. Enfin, les équipes commerciales et marketing sont chargées de présenter de façon responsable les produits et les outils d'IA. Avec un discours honnête et prudent, les consommateurs et les utilisateurs auront ainsi des attentes réalistes vis-à-vis de l'IA, notamment à propos de la manière dont elle pourrait et devrait être utilisée.

L'IA tient déjà et aura un rôle prépondérant dans les domaines comme la cybersécurité, l'efficacité énergétique ou encore la recherche médicale. L’ensemble de la société pourrait donc profiter de son efficacité. Pour cela, les différents acteurs (gouvernements, entreprises, chercheurs …) doivent travailler ensemble afin de s’assurer que les systèmes d’IA évitent au maximum les préjugés et toute forme de discriminations.