"Hacking is the new lobbying»... ce n'est pas des algorithmes dont il faut se méfier

L'alliance de la pensée humaine avec les algorithmes peut apporter une forme d’intelligence dite augmentée. Pour autant faut-il s’en méfier ? Trois enjeux clés autour de la législation, de la pédagogie et de la technique sont à prendre en compte.

A quand la couverture du Time désignant un algorithme comme personnalité de l'année ? Les algorithmes nourrissent toutes les craintes. Au-delà du fantasme, force est de constater qu’ils se rapprochent grandement de la pensée humaine qui manipule un volume d’informations et de perceptions afin d’en déduire une prise de décision ou une réaction. Cependant, malgré tous les progrès réalisés en neurosciences, la complexité de la pensée humaine reste infinie.

Pour y pallier, l’alliance avec les algorithmes peut apporter une forme d’intelligence dite augmentée. Pour autant faut-il s’en méfier ? Trois enjeux clés autour de la législation, de la pédagogie et de la technique sont à prendre en compte.

1. L'enjeu législatif : s'assurer de l'ouverture des algorithmes

Si l'obligation d'ouverture des algorithmes dans la sphère privée est sans doute utopique, c'est le minimum qui doit être demandé à la puissance publique. Cette ouverture rend possible le contrôle par tout citoyen, association, ... par exemple pour vérifier le caractère non discriminatoire de l'algorithme. Le décret du 14 mars 2017 de la loi République Numérique est une première étape dans ce sens. Il oblige l'information de la personne si une décision la concernant a été prise sur le fondement d'un traitement algorithmique et lui permet de demander communication des règles définissant ce traitement.

2. L'enjeu pédagogique : s'assurer de l'égalité d'accès à la compréhension des algorithmes

Ouvrir les algorithmes constitue un premier palier, encore faut-il ensuite être capable de les lire et de les comprendre. Pour assurer une égalité d'accès à la compréhension des algorithmes, la puissance publique doit sans doute agir à deux niveaux : le développement de la culture du numérique et de la donnée dans le cadre de l'éducation nationale, et la mise en place d'un service public de l'information qui aurait vocation à répondre aux demandes de tout citoyen relatives à la compréhension d'un algorithme ou d'une décision prise le concernant.

3. L'enjeu technique : s'assurer de la bonne prise en compte des problématiques de cybersécurité

A partir du moment où les algorithmes sont ouverts, le danger est moins dans les algorithmes en eux-mêmes que dans leur potentiel piratage. Tout comme les lobbyistes influent sur la pensée de nos décideurs, il y a fort à parier que certains s'emparent des outils disponibles pour influer sur les algorithmes ("hacking is the new lobbying"). Dès lors, comment maîtriser le code de l'algorithme et s'assurer que celui qui tourne est bien celui qui a été conçu (ce qui peut être complexe dans le cas d'algorithmes apprenants) ? Comment par ailleurs maîtriser les données qui sont fournies en entrée de l'algorithme ? En effet, à partir du moment où l'algorithme est compris, il est possible d'identifier les données nécessaires en entrée pour obtenir les résultats souhaités. Dès lors, comment s'assurer de la fiabilité et de l'exhaustivité des données utilisées en entrée pour "modéliser l’existant" (que ce soit pour établir un diagnostic en vue de définir une politique publique, ou pour représenter une personne et « traiter » son dossier) ?

Quand ils cherchent à automatiser ou optimiser des processus de décision existants – APB (Admission Post Bac) en est sans doute un bon exemple - les algorithmes ont au moins le mérite de formaliser les critères de décision et d'y apporter une bonne dose de transparence. Cela induit une obligation de pédagogie et de justification par rapport à ces critères. Un autre débat pourrait être lancé sur le caractère souhaité et assumé de cette transparence.