IA et éthique : et si l’on faisait confiance à l’intelligence… collective ?

Nous sommes en train de transférer l’écriture des mondes de demain à des développeurs. Est-ce que cela ne questionne pas notre identité en tant que citoyen ? La façon dont nous participons à la vie de la cité ?

Les initiatives autour du numérique "for good" se multiplient et arrivent au cœur des initiatives digitales du Cac 40 : création d’incubateurs pour soutenir les start-up de l’économie sociale et solidaire du numérique, déploiement de programmes ambitieux par de très grands acteurs internationaux du numérique... Pourquoi et avec quelles conséquences ?

Ce mouvement du "for good" pourrait surprendre. Par définition, le numérique aplatit les hiérarchies, démocratise la prise parole et connecte l’humanité. Il favorise donc a priori la diversité de position, de pensées, de personnes. Pour ceux qui militent depuis des années pour l’inclusion et la réduction de la fracture numérique et lancent des programmes d’accompagnement et de sensibilisation, le numérique devrait forcément être vecteur de liens et de progrès social.

Pourtant, par conception même, le numérique est un outil partial. C’est un code, fait de 0 et de 1. Quel que soit le niveau de raffinement ou de complexité des algorithmes, la vocation de la programmation est de choisir, de façon purement binaire, entre 0 et 1. Sa fonction unique : identifier les facteurs qui permettent de classer d’un côté ou de l’autre. Séparer. Exclure. Discriminer, donc.

A l’instar de la compression d’image, la représentation algorithmique du monde est par définition fausse, caricaturale. Le but est de limiter au maximum les catégories (les couleurs ou pixels pour la photo) tout en donnant l’impression que l’image reste la même. Pas par malice ni par calcul pervers. Il s’agit de faire plus simple, plus efficace, plus rapide. Le monde qui nous entoure, à présent trop complexe et interconnecté, ne peut plus être appréhendé dans sa globalité par le cerveau humain. Le rêve humaniste du XVIIIème de pouvoir embrasser toutes les sciences via un savoir encyclopédique à 360° est définitivement enterré.

En proposer une représentation intelligible passe forcément par la simplification. En quoi est-ce fondamentalement pernicieux ?   

L’exemple le plus courant : Facebook. Puisque nous sommes physiquement incapables de discuter avec tous nos amis, un jour des développeurs ont choisi d’optimiser notre mur en favorisant les informations liées à une certaine catégorie de personnes. L’algorithme propose alors une interprétation de cette notion de tous mes amis et va sélectionner ceux qui me ressemblent le plus. Traduire : qui partagent des points de vue similaires. Comme pour la photo compressée, j’ai l’impression de voir la même image, mais tout devient plus fluide. Les développeurs sont contents, les annonceurs aussi. Personne n’a sciemment conçu l’outil comme étant susceptible de conforter certaines opinions au détriment d’autres. Personne n’a réfléchi à l’impact de ces "bulles" algorithmiquement créées sur la peur, les croyances et contre la diversité.

Ce prisme est valable pour tous nos outils numériques ou presque. Avec le temps, nos écrans deviennent un filtre à travers lequel nous pensons voir le monde extérieur de façon objective. Ils nous en proposent en réalité une construction où chaque ligne de code porte en elle une décision, que ce soit pour la catégorisation des messages que l’on aura le plus de chance de voir sur ses réseaux sociaux ; pour la définition de seuils d’alerte de risque d’une assurance ou d’un emprunt, etc.  

Ces choses insignifiantes que l’on décide de rendre programmables pour se faciliter la vie deviennent, dans leur ensemble, le support d’un acte politique, avec la capacité d’influencer le champ des possibles et de favoriser une vision qui, chaque jour renforcée, a un impact sur la société et la manière dont nous interagissons avec elle.

Par comparaison : prise individuellement, chaque ligne du code civil a-t-elle un impact sur nos vies ? Sans doute pas plus qu’une ligne de code informatique. Et pourtant. Personne ne doute du fait que le code civil ou la constitution façonnent nos vies au quotidien. Pourquoi n’en serait-il pas de même pour les « constitutions » numériques des espaces virtuels dans lesquels nous vivons une part de plus en plus importante de nos vies ?

Il y a une responsabilité dans ces choix. Nous sommes en train de transférer l’écriture de la constitution des mondes de demain à des développeurs dont l’action quotidienne a priori est sans intention ni même conscience politique. Est-ce que cela ne questionne pas notre identité en tant que citoyen ? La façon dont nous participons à la vie de la cité ? Des initiatives de robotiques sociales voient le jour, que l’on pourrait communément appeler "démocratie augmentée" si elles ne se révélaient pas en fait des outils de "démocratie diminuée".

Il faut agir, certainement, mais comment ? Des initiatives émergent. Le G7 a initié un comité d’éthique de l’IA. La Commission Européenne propose de mettre à l’épreuve 7 principes éthiques pour tout projet d’IA. Ces initiatives, dont il faut se féliciter, vont devoir se confronter à des millions d’algorithmes mis à jour quotidiennement. Quel rôle dès lors pour de tels comités ? Quel process de validation du respect des principes ? On comprend qu’une instance serait physiquement dans l’incapacité de valider un tel volume de données et encore moins d’en évaluer l’impact.

Il est désormais indéniable qu’au XXIème siècle, chaque développeur impacte potentiellement nos vies et que chacun de ses actes aura une portée sociale ou sociétale De plus, tout code peut potentiellement toucher des millions d’utilisateurs : qu’il s’agisse de code ouvert (open source), produit par un seul développeur, et potentiellement réutilisé dans des centaines ou des milliers de programmes, ou d’un code propriétaire disséminé par un géant du numérique.

Si la mise en place d’un "organe de contrôle" n’est techniquement pas envisageable, souhaitons-nous pour autant déporter la responsabilité sociétale du code produit sur les seuls développeurs, sans s’interroger sur l’impact potentiel d’une telle décision ?

Face à la sélection sur concours des quelques rédacteurs de lois au Sénat ou à l’Assemblée Nationale, se trouve une foule de développeurs libres d’exercer leur métier comme bon leur semble – sous l’égide de leur employeur ou donneur d’ordre. Il ne fait aucun doute qu’une réflexion de fond doit se tenir, avec une gouvernance adaptée pour prévenir les dérives.

La récent règlement européen sur les données personnelles (RGPD) propose le principe de "redevabilité" des entreprises face à l’utilisation des données personnelles.  Le même principe pourrait s’appliquer aux algorithmes d’intelligence artificielle que ces dernières produisent. En parallèle, la formation des développeurs aux sujets de l’éthique apparaît comme une urgence. Il en va de la construction de la société à laquelle on aspire.  

IA et éthique : et si l’on faisait confiance à l’intelligence… collective ?
IA et éthique : et si l’on faisait confiance à l’intelligence… collective ?

Les initiatives autour du numérique "for good" se multiplient et arrivent au cœur des initiatives digitales du Cac 40 : création d’incubateurs pour soutenir les start-up de l’économie sociale et solidaire du numérique, déploiement de programmes...