Responsabilité programmée : l'intelligence artificielle à la recherche d’une éthique

La science travaille depuis des années à recréer artificiellement l'intellect humain, ou tout au moins à reproduire, accélérer et optimiser la résolution de problèmes, qu’il s’agisse des robots qui jouent au football ou qui peuvent battre le champion du monde d'échecs.

Ce qui était de la pure fiction dans les années 1960 est maintenant devenu réalité : les robots humanoïdes aussi bien que les robots sans corps, ont depuis trouvé leur chemin hors des livres, des bandes dessinées et des films. Néanmoins, le titre du roman de science-fiction de Philip K. Dick, publié il y a un demi-siècle, soulevait déjà une question : Les machines ont-elles une conscience ? L'historien israélien et auteur de best-sellers, Yuval Noah Harari dont Dans “Homo Deus - A Story of Tomorrow et A Short History of Mankind“, crée une vision sombre de l'avenir. Alimentés par des masses de données, les algorithmes auto-apprenants étendent leur champ d‘applications à l'infini. Cette accumulation de connaissances permet rapidement aux robots d’influer sur la direction d‘entreprises entières ou même d‘États. Seuls quelques programmeurs sont nécessaires pour le développement ultérieur des algorithmes, de sorte que l‘Homme moyen verrait sa place se réduire.

La question d’éthique ne cesse d’être remise sur la table – à juste titre – afin que des normes éthiques fassent partie de l'ADN de tous les algorithmes d'auto-apprentissage et des systèmes d'aide à la décision. Cela peut se matérialiser par des ajouts de disciplines telles que la neurologie, la psychologie et même la philosophie en plus de l'informatique afin de répondre aux exigences éthiques de notre société

L‘omniprésence des algorithmes

Il ne fait aucun doute que les algorithmes auto-apprenants prennent de plus en plus le contrôle de nos vies. Nous leur confions déjà les décisions de sécurité pour la conduite (partiellement) autonome, tout comme nous le faisons en médecine pour le diagnostic des maladies : L'IA propose aux oncologues des diagnostics et des méthodes de traitement, tout cela sur une base statistique à partir de l'historique des résultats médicaux ou des antécédents des patients. Mi-juillet, le National Health Service (NHS) soit l’équivalent de la Sécurité sociale britannique, a annoncé s’associer avec Alexa, l’assistant vocale d‘Amazon pour conseiller ses assurés, et alléger ainsi la charge du personnel médical[1].

Au milieu de l'intelligence artificielle se trouve une dimension concrète : l’éthique. Comment gérer les "décisions" de l'intelligence artificielle ? Qui porte la responsabilité du choix fait par un algorithme ? Comment faire en sorte que nos normes éthiques, ancrées dans la loi, ne soient pas sapées, parce qu'elles ne se justifient peut-être pas du « point de vue » de l'intelligence artificielle ? En somme : est-ce qu’une solution optimale est éthique ?

En ce qui concerne l'IA, tous les acteurs - la politique, le secteur privé et la recherche - se trouvent encore dans une zone grise. Il s'ensuit un débat public intense sur des règles communes et significatives pour le développement de systèmes dont l'influence sur nos vies peut être multiple. Un vieil adage informatique dit : "Un imbécile avec un outil est toujours un imbécile". Et cela vaut également pour l'IA "outil". Mais il faut que ce soit clair : Nous ne devons pas être des imbéciles naïfs et de bonne foi qui n'apprécient que les réalisations de l'IA sans en affronter les implications éthiques. Sinon, nous prenons le risque que ce progrès technique constitue une régression pour l'humanité.

L'IA responsable doit répondre à des critères éthiques

Afin d‘exploiter l'intelligence artificielle de manière responsable, les programmeurs et les fournisseurs de technologies doivent s'assurer que les chemins menant vers des décisions prises par un algorithme soient compréhensibles. Nous devons également nous assurer que la finalité, les actions engendrées par l’IA, répondent à nos normes éthiques. La transparence est à juste titre l'un des critères exigés par le philosophe suédois Nick Bostrom en ce qui concerne les actions de l'IA - au même titre que la sécurité - contre la manipulation.

Lorsque les technologies d'auto-apprentissage et d'auto-jugement sont utilisées dans les entreprises, l'industrie et les institutions gouvernementales, elles doivent être évaluées selon les mêmes normes que les actions effectuées par des humains. Une étude publiée récemment montre que l'industrie technologique prend ses responsabilités dans ce domaine : 92 % des entreprises leaders dans le secteur de l'intelligence artificielle proposent déjà des formations spécifiques sur les questions éthiques et 74 % analysent les résultats de leurs systèmes d'IA sur une base hebdomadaire. Cela suppose toutefois que les entreprises intègrent non seulement les connaissances technologiques, mais aussi l‘éthique comme une compétence clé.

Dans ce rôle de premier plan, le Chief Artificial Intelligence Officer (CAIO) peut être une fonction clé où il ne doit jamais perdre de vue l'orientation éthique d’un projet qui utilise l’IA et doit veiller à ce que la responsabilité éthique reste au cœur de ses processus. Il veille à ce que ses développeurs accroissent non seulement leurs compétences techniques, mais aussi élargissent l'horizon de leur réflexion éthique. Si nous pouvons déléguer nos actions aux machines, nous en gardons la responsabilité.

Si le potentiel économique de ces technologies est gigantesque, la dimension éthique doit rester au cœur de leur exploitation. Doter les machines d’une conscience éthique restera de la science-fiction pour un moment. Néanmoins, nous pouvons et devons dès à présent encadrer l’utilisation de nos robots comme nous le faisons naturellement avec nos autres outils…

[1] Source