Intelligence artificielle éthique : vers la conscience et libre-arbitre

L'IA est sensée simuler le cerveau humain et "travailler" comme lui, mais plus vite. Or, un cerveau humain est contenu dans le crâne d'un individu, qui habite dans un pays, au sein d'une certaine civilisation, culture… Si l'IA veut reproduire son fonctionnement, elle doit intégrer ces éléments.

L’intelligence artificielle et les algorithmes au sens large ont fait irruption dans notre vie quotidienne ; ils sont désormais partout !

Des tâches complexes se trouvent maintenant déléguées à des applications de plus en plus élaborées et autonomes, à mesure que les méthodes de machine learning et de deep learning se développent. Ces utilisations exponentielles, associées à des volumes impressionnants de données, désormais disponibles dans quasiment tous les secteurs, soulèvent de nombreuses questions.

A cet effet, la CNIL, dans son rapport de décembre 2017 : "Comment permettre à l’homme de garder la main ?  Les enjeux éthiques des algorithmes et de l’IA ", expose les préoccupations soulevées par ces nouvelles technologies et leurs applications. Elle identifie six problèmes éthiques, et apporte en réponse deux principes (Loyauté et Vigilance/réflexivité) ainsi que six recommandations.

Le rapport met en exergue plusieurs points fondamentaux, par exemple "Les questions posées par les algorithmes et l’IA renvoient à des choix de société et concernent tous les citoyens". Or ces choix sont-ils universels ? S’appliquent-ils dans tous les pays, pour toutes les cultures, au sein de toutes les applications ? Alors que la majorité de ces dernières sont conçues aux USA mais utilisées partout dans le monde ?

Les medias sont remplis d’articles parlant de responsabilité en cas de sinistre, de peur de ne pas maîtriser ces Golems que l’industrie numérique est en train de fabriquer.

Si le travail majeur de la CNIL revêt une importance cruciale, il n’est pas suffisant pour poser les bases d’un écosystème maîtrisable et maîtrisé dans ce domaine. Il est nécessaire d’aller plus loin dans l’analyse et de proposer des axes de solutions plus complets. En effet, L’IA est sensée simuler le cerveau humain et "travailler" comme lui, mais plus vite. Or, un cerveau humain est forcément contenu dans le crâne d’un individu, qui habite dans un pays, au sein d’une certaine civilisation, culture … Il a parfois des croyances, une idéologie, une religion. Si l’IA veut reproduire le fonctionnement du cerveau humain, il faut aussi qu’il intègre tous ces éléments. 

De nos jours, nous assistons à un développement fulgurant des applications à base d’intelligence artificielle, souvent dénommée IA.  Son utilisation se retrouve dans tous les secteurs : santé, transports, éducation, gestion des ressources humaines, banque, assurance et bien d’autres. Bien souvent, les applications IA se trouvent embarquées dans des robots, des voitures… Se pose alors la question de la responsabilité.

Nous avons tous à l’esprit les questions qui se posent lorsque l’actualité nous informe par exemple, sur un accident qui pourrait être causé par une voiture autonome.

Qui est responsable si une voiture autonome écrase un piéton, ou si elle se fracasse contre un mur tuant par là même ses passagers ?

  • Le propriétaire de la voiture ?
  • Le concepteur du programme ?
  • Le programme lui-même ?  (un algorithme peut-il être civilement ou pénalement responsable ?

Afin de mieux répondre, il nous faut explorer l’univers de la conscience, mais aussi de la culture, des religions...

Comme le stipule en essence la Loi, l’homme est responsable de ses actes lorsqu’il est conscient, sain d’esprit… La machine ou l’algorithme peuvent-ils être conscients ? Et donc responsables ? Et quand bien même ? Comment mettre en œuvre dans ce cas la réparation des préjudices ?

Autre exemple : aux USA, des applications de sélection automatique de candidatures à base d’analyse de CV’s ont été jugées discriminatoires. Et pour cause, le système de machine learning était nourri de CV’s de candidats blancs et masculins ! La machine apprend ce que l’homme lui apporte en nourriture !

L’IA est un ensemble de concepts et de technologies mis en œuvre pour réaliser des systèmes capable de simuler, même partiellement, l’intelligence humaine dans des domaines tels le raisonnement logique ou l’apprentissage.

Les applications sont nombreuses, telles que l’aide au diagnostic, la maintenance assistée, l’amélioration de processus dans beaucoup de domaines : médecine, finances, gestion des ressources humaines, gestion de la relation client…

L’IA utilise pour cela des méthodes de résolution de problèmes de type logique et/ou algorithmique.

Le développement de l’IA a été lié et fortement corrélé au développement phénoménal de la puissance de calcul des ordinateurs (avec la célèbre loi de Moore qui n’est toujours pas démentie) et des volumes de stockage de plus en plus grands (on parle maintenant de Big Data).

Les années 1980 marquent le début de l'apprentissage automatique (machine learning)

Dans les années 80-90, on commençait à développer des systèmes experts, principalement pour des applications dans la finance, la santé ou la maintenance. Ces systèmes offraient une aide au diagnostic grâce à l’expertise d’un homme de l’art, qui explicitait et permettait de formaliser son expérience du domaine concerné.

Les systèmes Experts sont composés d’une base de connaissance, d’une base de règles et d’un moteur d’inférence (chaînage avant / arrière). En fait, il s’agissait alors de pouvoir modéliser, formaliser et conserver l’expertise des meilleurs praticiens dans les domaines concernés. Pour ne pas perdre ces savoirs mais aussi pour utiliser ces applications pour former les nouveaux experts.

Les systèmes experts non malheureusement pas eu l’écho qu’ils auraient mérité, essentiellement pour deux raisons. A l’époque, les coûts représentés par les puissances de calculs et les volumes de données nécessaires étaient prohibitifs. Mais surtout, beaucoup d’experts ont rechigné à délivrer leur savoir, à le modéliser, à le transmettre.

Cependant, la voie était tracée. A la fin des années 90, en mai 1997 l’ordinateur Deep Blue battra Garry Kasparov au jeu d'échecs !

Depuis longtemps, la France était à la pointe de la recherche en IA, avec notamment des experts tels Jacques Pitrat et Jean-Louis Laurière (Université Paris 6 - Jussieu). Depuis les années 70, leurs laboratoires travaillaient à la reconnaissance des formes et à la théorie des jeux.

Malheureusement pour notre pays, de nos jours, la recherche dans le domaine de l’IA se fait principalement aux États-Unis, notamment à l'université de Stanford, au MIT et à l'université Carnegie-Mellon.

A partir des années 2000, l’accroissement impressionnant des volumes de stockage disponibles (big data) et le développement de nouvelles puissances et infrastructures de calcul (architectures parallèles…), permettent à certains ordinateurs d'explorer des masses de données sans précédent.  Un nouveau mot est né : l'apprentissage profond (deep learning).

Le deep Learning correspond à l’exploitation d’énormes masses de données structurées ou non (SQL et Non-SQL), permettant également à la machine de créer de nouvelles règles en fonction des données mises à sa disposition.

Aujourd’hui, l’ordinateur doté d’applications IA fait souvent mieux que l’homme !

En mai 2017, un ordinateur a battu le meilleur joueur de Go au monde. Le coréen Lee Se-Dol, champion du monde de jeu de Go, a été battu par l'intelligence artificielle AlphaGo de Google lors de la première manche de cette rencontre qui s’est déroulée en cinq matchs. Après cela, Lee Se-Dol a décidé d’arrêter la compétition de Go.

Autre exemple, selon un article de l’Usine Digitale du 21 Août 2020, AlphaDogfight : un pilote de chasse de l'US Air Force s'est pris 5-0 contre une intelligence artificielle. "Lors d'un concours organisé par la Darpa aux Etats-Unis, plusieurs industriels ont opposé leurs systèmes de pilotage autonome les uns aux autres pour en déterminer le meilleur. Le duel final a opposé l'un de ces systèmes à un pilote de l'Armée de l'air des Etats-Unis... qui s'est fait battre à plate couture."

Pour terminer les exemples qui sont nombreux et qui montrent comment les choses évoluent et à quelle vitesse elles le font, voici un article paru dans JDN le 28/08/2020, qui montre que même les nouvelles professions telles les data Scientists, risquent d’être dépassés : "Le machine learning automatisé va-t-il remplacer le data scientist ?"

De nos jours,  le secteur de l'intelligence artificielle cherche à relever plusieurs défis ; les enjeux étant d’élaborer une IA en mesure de : percevoir l'environnement, comprendre une situation et surtout prendre une décision.

Un autre enjeu de taille, pour lequel travaillent en parallèle de nombreuses équipes de recherche : Stocker et organiser des volumes très importants de données de qualité, structurées ou non, qualifiées et historisées.

Aujourd’hui, dans ce secteur qui n’a pas atteint sa pleine maturité, les concepteurs et développeurs d’applications IA utilisent des règles de bon sens, ou dictées par les besoins fonctionnels du domaine traité (santé, droit…), exprimées par les experts du sujet.

Ainsi, la jurisprudence étant encore très pauvre, la responsabilité en cas de sinistre pourrait incomber à l’utilisateur de l’IA, ou à son propriétaire, ou au concepteur de l’IA ou à son éventuel employeur. Tout est affaire de contrat.

Les avocats utilisent les éléments à leur disposition à un moment donné (jurisprudence, contrats…). Le débat juridique est loin d’être clos et les situations peuvent être complexes. Il y a tout à élaborer en la matière. Et il y a urgence à le faire !

Certains parlent de doter les IA de conscience. Sachant que même dans ce cas, cette conscience et les degrés de liberté qui lui seraient associés seraient bien forcément programmés par des humains.

Pour l’instant, ce niveau de conscience est difficilement programmable car l’on ne peut coder que ce que l’on maîtrise. Or l’Homme ne maîtrise pas la conscience, ni le subconscient, ni l’inconscient. Que signifie "Je suis conscient que je suis un homme?" Et comment le programmer ?

Le concept d’intelligence artificielle forte a vu le jour, faisant référence à une machine capable de reproduire l’intelligence d’un cerveau humain, mais aussi d’éprouver une impression d'une conscience de soi et des sentiments.

Les chercheurs pensent pouvoir créer un jour une intelligence consciente sur un support matériel, voire totalement immatériel. Il n'y aurait alors aucune limite à la conception de toutes sortes d’IA ;  les seules limites seraient celles de l'aptitude humaine modéliser des idées et des concepts abstraits à et à développer les logiciels correspondants.

Dans la mesure où une conscience peut être modélisée sous la forme de faits et de règles, il est possible de la concevoir et de l’implémenter dans un système IA. Mais rien ne permet de penser que les robots (IA) pourraient, par exemple, avoir un jour conscience de leur propre existence de manière autonome.

Pour atteindre un certain niveau de conscience, l’architecture d’un système IA devrait inclure, de manière nécessaire mais non suffisante, dans son noyau (back end), une base de règles universelles (les règles minimum acceptées par l’ensemble des humains ; par exemple : Ne pas tuer ? Ne pas voler ?…).

A côté de cette base de morale - éthique universelle, s’il est possible de le faire, l’IA devrait disposer également de référentiels renfermant les règles liées à une religion, une culture, une idéologie (écologie, culture asiatique, socialisme…). Enfin, on pourrait considérer possible de développer des IA avec un référentiel particulier à une profession, un groupe d’individus voire un seul individu.

Le schéma simplifié de cette nouvelle architecture est proposé dans l’encadré ci-après.

Sans pour autant porter de jugement de valeur, en fonction du pays ou de la culture dans lesquels l’IA serait conçue, mais aussi là où elle serait utilisée, les référentiels mis en œuvre pourraient être différents et donneraient donc des résultats différents, provoquant par là-même des conséquences différentes.

Certaines tribus d’Indiens d’Amérique, il y a trois ou quatre siècles, traitaient les personnes âgées d’une manière que nous ne pourrions que réprouver de nos jours. Par exemple, lorsque femme âgée n’avait plus de dents et ne pouvait donc plus travailler (assouplir le cuir…), on lui donnait une ration de pain et une gourde d’eau et on la laissait mourir sur une montagne. Autre exemple, un pays ne permettant pas aux femmes de conduire une voiture aurait une sélection particulière et des filtres que nous pourrions considérer discriminatoires, par exemple pour l’embauche d’un chauffeur-livreur.

Mais sans aller chercher si loin, des règles permettant de choisir entre deux situations existent tout près de chez nous. Prenons le cas d’un grand hôpital parisien, auquel il ne resterait qu’un seul lit en réanimation dans le service de cardiologie. Si le SAMU les appelle pour leur demander s’ils peuvent leur amener un patient victime d’un infarctus, le chef de clinique de garde répondrait du tac au tac : "quel âge ?" En effet, ils préféreront garder le lit pour un malade jeune, plutôt que de l’utiliser pour un malade de plus de 85 ans par exemple.

Si l’on souhaite bâtir une IA fonctionnant comme le cerveau humain et prendre les mêmes types de décisions, les règles telles que celles de notre dernier exemple devront également être introduites.

A côté d'un référentiel universel, plusieurs référentiels pourraient ainsi être modélisés, par exemple au niveau des religions, les référentiels musulman, chrétien, juif, hindou, laïc… disposeraient de bases de règles conformes aux prescriptions contenus dans leurs Livres ou enseignements.

Une IA travaillant dans le cadre d’un référentiel pourra produire des résultats conformes à ce référentiel, les résultats pouvant varier de manière importante selon le référentiel choisi (exemple : réponses aux questions relevant de la PMA, de la GPA…).

L’utilisateur d’une telle IA pourrait choisir son référentiel d’utilisation, conforme à ses souhaits et son propre référentiel humain. Il lui restera à s’assurer auprès d’une compagnie qui le propose, sur les conséquences de ses choix, qui pourraient pour certains ne pas être conforme à la Loi de son endroit d’utilisation.

La grande question est : les hommes voudront-ils expliciter toutes ces règles qui pourraient être formalisées et connues de tous ?

Les concepteurs pourraient également doter les IA d’une partie sur le libre-arbitre, permettant à ces IA de faire des choix personnels, dans le cadre de son référentiel d’exécution. Ce libre-arbitre pourrait fonctionner par exemple sur la base du hasard (modules de randomisation) ou autre principe, mais forcément avec des algorithmes programmés par des humains à la base, donnant à la machine certains degrés de liberté.

L’opposition entre prédestination et libre-arbitre a alimenté depuis longtemps les débats en la matière. Dans un contexte IA, l’un et l’autre pourraient être programmés, avec un degré de liberté plus ou moins grand laissé à la machine, sachant que même cette liberté et cette autonomie de décision serait programmée par l’homme.

Car, nous autres les Humains, ne sommes-nous pas en fin de compte, chacun d’entre nous, une intelligence dotée d’une conscience et d’une portion de libre-arbitre, programmée par une force supérieure, peu importe comment nous souhaitons la nommer : nature, évolution, hasard, d-ieu ?

Architecture de l'IA

Les architectures généralement utilisées actuellement pour les systèmes à base d’intelligence artificielle reposent sur modèle à trois couches :

  • Le back-end - Le noyau IA : il contient des scripts qui vont faire appel à des bibliothèques de réseaux neuronaux qui existent souvent sur le marché. C’est le composant principal IA.
  • La couche middle-end : il s’agit essentiellement du traitement sur les données issues de la couche interface utilisateur et de les formater pour alimenter le noyau AI.
  • La couche UI : il s’agit de l’interface utilisateur pour exploiter les modules IA (ou d’une API en cas de dialogue avec une application).

Les programmes constituant les couches UI et le middle-end sont assez similaires à ceux des applications classiques (sans IA). Le back-end, lui est spécifique.

Dans les systèmes à base de connaissance, la base de règles comporte souvent des modèles implémentés par des experts du domaine concerné. Les indications fournies par le feedback, les modules de machine learning et de deep learning, permettent à la machine d’aller au-delà de la simple expérience humaine.

Si l’on souhaite inclure des référentiels particuliers de types culturels ou idéologiques par exemple, nous arriverons alors à une architecture d’une IA éthique dont nous décrivons un exemple ci-dessous.

Exemple simplifié d’architecture d’une IA éthique :

© Bernard Cohen Solal