Apolline Guillot (Philonomist) "Tout l'enjeu est de créer une IA ouverte à la réflexion éthique"

La rédactrice en chef de la revue Philonomist revient sur les défis éthiques de l'intelligence artificielle. Elle détaille notamment l'importance de bénéficier de données d'entrainement transparente.

JDN. Quels sont les principaux défis éthiques posés par le développement de l'IA ?

Apolline Guillot est rédactrice en chef de Philonomist. © philomag

Apolline Guillot. On a tendance à séparer la question de l'éthique, qui serait gérée après-coup par un groupe d'experts indépendants, de la conception des IA elles-mêmes. Les enjeux éthiques se posent dès la création des systèmes d'IA. Ils se posent aussi lorsqu'on utilise l'IA au quotidien. Pour bien comprendre, il faut revenir à la définition de l'éthique en philosophie. Ce n'est pas un ensemble de règles qui définissent ce qui est bien ou mal. Mais c'est le fait même de se poser la question de ce qu'est le bien et le mal. Du coup, parler d'une IA éthique n'a pas de sens car ce serait évoquer une IA qui serait bonne ou mauvaise par définition, c'est-à-dire indépendamment du contexte et de la personne qui l'utilise.

On peut néanmoins se poser la question de savoir comment concevoir une IA qui serait la plus démocratique possible. Ici, tout l'enjeu est de créer une IA ouverte à la réflexion éthique. Les personnes qui l'utilisent devront pouvoir bénéficier d'une certaine liberté dans son paramétrage. L'outil ne devra pas être conçu pour leur enlever leur faculté de prendre des décisions en conscience. Il devra en revanche laisser la place au questionnement. La manière d'utiliser l'IA est donc primordiale et intimement dépendante de la manière dont ces outils sont conçus. L'outil n'est jamais neutre. Son usage est conditionné par son mode de conception. Il dépend du design, de l'ergonomie...

Comment concevoir une IA en ligne avec ces objectifs éthiques ?

Il s'agit de créer une IA qui laisse la place aux allers-retours entre l'utilisateur et le système. Pour ce faire, il est déconseillé de définir un système d'IA de manière abstraite en modélisant les interactions humaines de façon très théorique et loin du public auquel le système va être dédié. Il est recommandé a contrario de faire intervenir des anthropologue, des psychologues et autres spécialistes des sciences humaines pour étudier en situation comment les utilisateurs s'approprient l'outil et quel est l'espace de liberté dont ils disposent.

Un autre domaine d'action renvoie au levier juridique, notamment mené à l'échelle européenne. Sur ce plan, ce n'est pas tant les règlements liés à l'IA qui vont nous intéresser, mais les projets (législatifs, ndlr) qui sont liés à l'économie de l'attention. Il existe par exemple des législations contraignantes qui obligent les plateformes à intégrer un droit de paramétrage. L'idée est d'aboutir à un système qui incite à la réflexivité. Ce sera une application qui permettra par exemple de prendre conscience des publicités (poussées par l'IA, ndlr) apparaissant dans le flux d'informations des réseaux sociaux. Il s'agit là d'ajouter de la friction. C'est une idée que le philosophe Henri Bergson énonçait déjà dans L'Évolution créatrice. Il indique que la conscience émerge à partir du moment où il y a un petit retard sur nos actions qui permet de bénéficier du temps de réflexion nécessaire avant de s'engager. C'est ce qui nous permet de faire un choix éclairé.

Quels sont les critères qui vont permettre de définir une IA démocratique ?

Il ne peut y avoir de critères mesurant la perfection d'un système et son aspect intangible. L'idéal serait de mener des études sur un panel de personnes donné pour étudier la manière dont leur comportement vis-à-vis de l'IA évolue dans le temps d'un point de vue démocratique. Il s'agira de les confronter à plusieurs versions de la même application avec différents niveaux de réflexivité. Avec à la clé un pool de testeurs et des populations témoins. Partant de là, on se posera plusieurs questions. Est-ce qu'elles délèguent une partie de leurs décisions à l'IA ? Si oui, quelles décisions déléguent-elles ? Pourquoi décident-elles de les déléguer ? Quelles seront les conséquences de ces actions ? Les réponses à toutes ces interrogations permettront de jauger le caractère démocratique du système d'IA, et donc son ouverture sur la réflexion éthique.

La question éthique de l'IA n'est-elle pas liée aussi à la transparence algorithmique ?

C'est un enjeu crucial. Dans une société démocratique, il est nécessaire de pouvoir avoir une vision sur les données d'entraînement. Dans tous les cas, les données produites par les humains sont biaisées par définition. Ce qui est important sera de définir un pourcentage de certitude. Pour ce faire, on pourra dresser une cartographie de la base d'entrainement des modèles, c'est-à-dire établir par exemple qu'elle est à 90% masculine, à 90% produite dans des pays anglo-saxon.

Derrière cette démarche, l'idée est de mettre en œuvre une distance critique, à la manière des informations indiquées sur les paquets de cigarettes alertant sur les risques de cancer liés à leur consommation. En matière d'IA, l'outil pourrait être designé pour rappeler à l'utilisateur les risques de biais algorithmiques. A cela s'ajoute un travail réalisé par les chercheurs pour enrichir les bases de données d'informations qui ne proviennent pas seulement du continent nord-américain.

Quid des questions éthiques liées à l'utilisation de l'IA générative ?

La question de savoir sur quelles bases de données les IA génératives sont entrainées est fondamentale. Notre société s'est construite sur la protection de la liberté intellectuelle, la création, ainsi que la légitimité et la crédibilité des médias. Dans une société démocratique, un des enjeux principaux est orienté vers l'information. Dans une démocratie, on part du principe que les citoyens sont au courant de ce qui se passe dans le monde, dans leur pays... Avec l'arrivée de l'IA générative, on va avoir la tentation d'accéder à une masse d'informations qui ne va pas être produite par des professionnels, voire à des données de type deepfake difficile à détecter.

"Remplacer les humains par des agents conversationnels peut poser problème"

Il existe certes des modèles qui permettent d'accéder aux sources des résultats produits. Mais on se rend compte que cette fonctionnalité n'est pas très souvent exploitée par les utilisateurs. La plupart des technologies ont été conçues pour nous faire gagner du temps. Partant de là, la question va être de savoir à quel point l'utilisateur va déléguer une partie de ce discernement professionnel. Cela vaut pour les journalistes comme pour les professeurs ou les chercheurs. Même dans le cas d'une IA qui cite ses sources, on n'ira pas forcément les vérifier. De la même manière, on ne fait pas souvent l'effort de vérifier les sources d'un article déniché sur un blog.

On doit désapprendre un certain nombre de réflexes acquis à la fin du XXe siècle, notamment que la photo est une preuve de vérité. En tant qu'être humain, on est tenté de vouloir minimiser l'incertitude en faisant confiance à ce qu'on voit. Dans le même temps, on va vouloir s'économiser de l'énergie en cherchant à minimiser au maximum son effort, au risque de s'éloigner de la vérité.

Comment aborder l'enjeu démocratique et éthique lié à l'utilisation des agents intelligents ?

Remplacer les humains par des agents conversationnels peut poser problème. Dans le cas où une personne est en danger ou est confrontée à un problème complexe, l'assistant ne sera pas forcément capable de lui répondre, ce qui va créer de la frustration. Du coup dans une démocratie, il est nécessaire d'avoir des agents publics en chair et en os qui seront capables de faire face à ces problématiques. Evidemment, une première phase de tri pourra être pris en charge en amont par des chatbots. Mais le dernier mot doit revenir à l'humain.

Reste que l'agent conversationnel pose un problème démocratique à partir du moment où il génère un attachement émotionnel. Il apprendra à connaître notre profil psychologique, nos habitudes, et fera notre portrait-robot dans l'optique de nous livrer les informations qu'on a envie d'entendre. A partir de là, on aura tendance à faire confiance plus facilement à cette IA qu'à un moteur de recherche ou toute autre source d'information. Ce qui peut poser problème.

Apolline Guillot est journaliste et philosophe des techniques. Normalienne agrégée de philosophie de l'ENS de Lyon, elle a fini ses études à HEC-Paris, où elle s'est spécialisée dans l'innovation et les médias avant de rejoindre l'équipe de Philonomist, dont elle est aujourd'hui la rédactrice en chef.