Rendre les algorithmes visibles : pour un droit à la curiosité
Les algorithmes élargissent et filtrent notre vision. Invisibles, ils influencent nos choix. Pour préserver notre curiosité et notre liberté, rendons-les explicables et réflexifs.
Quand Galilée pointa sa lunette astronomique vers le ciel, il ne se contenta pas d’y voir de nouveaux astres : il transforma la manière même de regarder. Un nouvel instrument s’interposait entre l’homme et le monde, modifiant sa perception du réel. Ce regard nouveau ouvrit la voie à d’immenses découvertes, mais au prix d’une médiation.
Quatre siècles plus tard, nos algorithmes sont devenus les lunettes de Galilée : ils élargissent notre vision du monde, tout en la filtrant.
Chaque jour, nous prenons une multitude de décisions : cliquer sur une publication, choisir une chanson, réserver un voyage. Pourtant, derrière chacun de ces gestes, des algorithmes invisibles observent, calculent, prédisent, suggèrent. Ce que nous croyons spontané résulte souvent d’une suite de calculs dont la logique nous échappe.
Faut-il s’en inquiéter ?
Ces algorithmes omniprésents nous simplifient la vie, nous font gagner du temps, nous offrent confort et efficacité. Mais, dans le même mouvement, ils transforment notre manière d’appréhender le monde, tout comme les instruments d’optique, et influencent imperceptiblement notre façon de penser, de désirer, d’agir.
Jusqu’où sommes-nous prêts à leur confier nos choix ?
Quel niveau de transparence, quelles limites devons-nous fixer pour préserver notre part d’autonomie ?
Et comment trouver le juste équilibre entre le confort qu’ils procurent et le contrôle que nous devons garder sur eux ?
On parle souvent d’« opacité » des algorithmes pour décrire le fait qu’ils agissent sans que nous comprenions vraiment comment, comme derrière une vitre sans tain.
Pas de complot pour autant : ils se fondent simplement dans le décor, intégrés dans notre quotidien au point que nous oublions leur présence.
Ils sont devenus invisibles par effacement.
Et c’est précisément cette invisibilité qu’il nous faut révéler.
La question n’est pas seulement celle de notre pouvoir de décision, mais aussi celle de ce que nous acceptons de perdre en regardant le monde à travers leur prisme.
Les plateformes nous connaissent, anticipent nos préférences, nous évitent l’effort du choix. Et c’est agréable. Mais ce confort a un prix : celui d’une routine prévisible. Je le constate sur Netflix ou Spotify : je reste enfermé dans les mêmes univers. Or, je veux élargir mes horizons, j’aime être surpris, goûter à la sérendipité : ce plaisir de découvrir ce que je ne cherchais pas.
Mais comment laisser place à l’inattendu et à la curiosité dans un monde de prédiction et de personnalisation ?
À l’ère des algorithmes invisibles, je défends le droit à l’inattendu et à la curiosité.
Le droit d’explorer hors des sentiers battus numériques, de s’aventurer au-delà de nos historiques et de nos préférences passées.
Car la curiosité est le moteur de la découverte et de l’innovation, et l’innovation positive se doit de la préserver.
Alors, comment rendre visibles les algorithmes ?
Une piste me semble particulièrement prometteuse : celle des algorithmes réflexifs.
En science, la réflexivité désigne la capacité d’un sujet à se prendre lui-même pour objet d’analyse, à interroger sa vision du monde et ses méthodes.
Au XIXᵉ siècle, les héritiers de Galilée découvrent qu’ils enregistrent les événements célestes avec un léger décalage, variable d’un observateur à l’autre : « l’équation personnelle ».
Cette prise de conscience marque une révolution et fait progresser la science de l’époque.
Toute mesure, toute observation, porte la trace de l’humain qui la produit. De ses biais, de ses croyances, de ses émotions, de ses expériences vécues.
Appliquée aux algorithmes, la réflexivité porte en germe une autre révolution.
Déjà, en informatique, elle désigne la capacité d’un programme à décrire, et parfois réécrire, son propre code. En intelligence artificielle, elle s’incarne dans des systèmes qui évaluent leurs décisions, anticipent leurs erreurs et ajustent leurs stratégies.
Cette réflexivité technique doit devenir réflexivité éthique : du code qui se comprend au code qui se rend compréhensible.
C’est un formidable terrain de jeu.
L’IA explicable, par exemple, cherche à concevoir des systèmes plus intelligibles et transparents, capables de justifier leurs décisions, avec pour objectif ultime de renforcer la confiance que nous leur accordons.
Netflix pourrait dire : « Ce film vous est proposé parce que vous regardez souvent des thrillers scandinaves le week-end. » Waze préciser : « Cet itinéraire est choisi pour éviter un embouteillage sur l’A10. » Dans la santé ou la justice, les algorithmes pourraient expliciter les critères ayant conduit à un diagnostic ou révéler la pondération de chaque variable prise en compte dans une décision.
Il s’agit d’ouvrir un dialogue entre l’humain et la machine : une intelligence partagée, où l’algorithme expose ses choix et où l’utilisateur peut les comprendre, les contester ou les contourner. Une conversation féconde entre nos équations personnelles respectives.
C’est là que se dessine l’innovation positive : des technologies qui inspirent confiance, et qui augmentent notre intelligence, notre libre arbitre et notre capacité d’agir.
Gardons un regard libre et curieux, la main sur la lunette.