Confiance et éthique : une nécessité pour une intelligence artificielle durable et performante

L’ère de l’IA gagne chaque jour un peu plus en maturité. Les transformations qu’elle apporte peuvent bénéficier à notre société et nos entreprises, et l’IA pourrait, à long terme, aider l’humanité à relever des défis majeurs.

Au-delà de ces promesses, émergent en parallèle de véritables enjeux liés à l’éthique et à la confiance que nous plaçons dans le développement et l’utilisation de l’IA ; la course vers le développement technologique peut-elle être une menace pour les valeurs humaines ? Comment éviter les biais engendrant de potentielles discriminations ? Quels sont les risques pour l’autonomie humaine ? Ces préoccupations, relayées depuis de nombreuses années par les auteurs de science-fiction, trouvent un écho de plus en plus grand au sein de la société. Clients, employés ou simplement citoyens manifestent leur inquiétude quant à la robotisation de notre vie quotidienne… comme l’illustre la décision de Google de se retirer d’un projet de surveillance militaire, à la suite d’une pétition signée par plus de 4 000 de ses employés(1). 

Les institutions et les groupes de réflexion sont au rendez-vous, à nous de les suivre !

Pour répondre à ces enjeux, différents groupes de réflexion, comme Impact AI(2) en Europe ou Partnership on AI(3) aux Etats-Unis, proposent des premières pistes pour permettre aux organisations publiques et privées de renforcer l’encadrement de leurs projets de développement d’IA. Certaines institutions majeures se mettent également en mouvement, comme la Commission Européenne qui a publié en décembre 2018 une liste de principes à respecter et des exemples d’outils opérationnels à mettre en œuvre pour s’assurer du développement d’une IA éthique et digne de confiance(4). Ces publications ne sont pour l’instant que des lignes directrices, mais des lois pourraient leur succéder.

Ces principes d’encadrement peuvent être perçus comme des obstacles au développement de l’IA, mais entreprises et organismes publics pourraient et devraient y voir des opportunités. Ils permettront en effet de réduire les risques d’abandon de projets liés à des conflits éthiques ou à des biais dans les algorithmes, et peuvent aider à garantir la pérennité des initiatives. De plus, le respect de ces principes aura un impact positif sur l’image de marque, dans un monde où les consommateurs valorisent de plus en plus les entreprises à la fois innovantes et éthiques.

La nécessaire mise en place de dispositifs permettant de développer une IA éthique et digne de confiance

Il semble donc primordial que les entreprises mettent en place des dispositifs permettant de développer ce que l’on pourrait qualifier de « Sustainable AI » : juste, fiable et maîtrisée. Au-delà de la rédaction et de la publication d’une charte comme fondement de la vision de l’entreprise en la matière, il est indispensable d’encadrer l’IA tout au long de son cycle de vie. Pour y parvenir, les organisations pourront réaliser des analyses d’impacts lors de la conception des projets ; mettre en œuvre des procédures de contrôle permettant d’identifier des biais potentiels dans les données, les modèles ou les décisions prises par l’IA ; assurer des canaux de communication avec les utilisateurs pour permettre la remontée de failles ; ou encore déployer des programmes de sensibilisation d’envergure. Ces méthodologies ne sont pas sans rappeler les réflexions autour du RGPD et de fortes synergies peuvent être envisagées avec les programmes de protection des données personnelles lancés ces dernières années, afin de limiter les coûts liés à la transformation et d’anticiper les potentielles réglementations à venir.

Pour conclure, rappelons ici que le risque ne vient pas de l’IA en soi, mais bien de la manière dont elle est développée et utilisée par les humains. C’est à nous tous, acteurs de cette transformation, de prendre nos responsabilités afin de tirer le meilleur parti de l’intelligence artificielle et de ses promesses pour la société, dans le plus grand respect d’une éthique responsable et éclairée

Source 1 
Source 2 
Source 3