L'importance de l'erreur dans la création numérique
La vie est un symbole. Elle est constamment en quête de reproduction, de division, d'action et de réaction. Sa quête ne prend jamais fin et englobe une mécanique qui fait des erreurs et qui apprend par les erreurs.
Dès que l’homme tente de créer ou de s’emparer du savoir, sans trop en avoir le choix, s’il souhaite le transmettre, il se doit de l’échanger, de l’écrire et pour former, de le transformer, le déformer. L’histoire des mythes n’est pas exempte de cette observation et ils évoluent au fil du temps et de la transmission. Ils se content avec des modifications à l’image d’une culture, d’une civilisation.
L’homme commet des erreurs. Ces erreurs sont quelquefois reprises et acquises pour juste. Erreurs dangereuses ou créatrices ? J’ai souvenir d’un ouvrage reprenant l’ensemble des erreurs transmises dans nos livres éducatifs scientifiques. Un exemple marquant était celui d’un schéma présentant un baril percé en trois endroits et dont les apprenants se devaient de comprendre le rapport entre la hauteur et la pression d’un fluide : le principe d’Evangelista Torricelli. Le carré de la vitesse d’écoulement d’un fluide sous l’effet de la pesanteur est proportionnel à la hauteur de fluide situé au-dessus de l’ouverture par laquelle il s’échappe du cylindre. Une loi de la nature parmi des millions d’autres. L’illustration reprise de manière quasi systématique sur les manuels scolaires visait à montrer que plus le trou est bas plus la vitesse d’écoulement est grande. Cette dernière portait une fausse simplification montrant que le jet d’eau le plus bas allait le plus loin. L’histoire stipule que même Léonard de Vinci en avait illustré une image imparfaite. Le tonneau percé facilitait la compréhension, mais celui qui tentait l’expérience comprenait l’erreur. Un jet proche de la base du baril touche plus vite le sol sur lequel il est posé. Le jet du milieu étant celui qui ira le plus loin. Ceci s’expliquant non pas seulement par la pression mais par la distance de chaque trou avec la table.
Dès que l’homme entre dans la fontaine de la connaissance, lui, qui en est l’acteur fondamental, tente de transmettre des éléments de vérité et commet des erreurs, apprend par l’erreur.
Regardant le savoir, seuls quelques scientifiques en avaient été les porte-paroles pendant des siècles et des millénaires. Paradigme ayant drastiquement évolué avec les nouvelles technologies, les nouveaux médias et notamment le web social et collaboratif. Avant la mise en place d’un système de vérification, les informations disponibles sur l’encyclopédie digitale Wikipédia étaient elles aussi peu fiables. Aujourd’hui, notre encyclopédie est le reflet de ce que l’homme peut faire de mieux dans la création commune de savoir. À condition qu’il en prenne le temps, qu’il s’organise, qu’il ajuste, apprenne et corrige ses erreurs. Wikipédia est aujourd’hui de bonne qualité. Cela aura nécessité plus de 15 ans de travail, 15 ans d’autoorganisation. Une œuvre construite par des hommes qui se comptent en millions en contraste historique avec l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, porté par un cercle restreint (environ 300 personnes) et qui avait nécessité plus de 21 ans de travail. Le projet porté par Denis Diderot et Jean Le Rond d’Alembert comportait un total de 60 000 entrées[1], Wikipédia arbore fièrement plus de deux-milliards d’articles. Pour la seule section française, plus de 20 000 contributeurs actifs sont identifiés.
Au-delà de cette œuvre, nos plateformes digitales d’instantanéité portent quelques problématiques. Les technologies numériques amplifient les erreurs, les répètent, et chacun peut s’aventurer à transmettre sa propre version de la vérité. Cette dernière peut être acceptée par tous, même s’il s’agit d’une fausse vérité ou d’une fausse information. Un reflet des nouveaux jeux dangereux mêlant information et vérité. Des groupes de croyance peuvent se constituer dans nos communautés digitales, à l’image des chambres d’écho. Des caisses de résonance où les individus corroborent un fait non vérifié et dont aucun n’a accès à une information véridique pour le démentir. Dans de telles chambres froides, les internautes pensent à tort détenir la vérité. Les fausses croyances y sont amplifiées à l’image d’un écho déformé par les parroies de nos montagnes. Le digital nous offre des erreurs plus complexes à saisir et à contrôler. Elles sont parfois involontaires, elles proviennent de tous et à tous les instants. Que dire de celles des blogues, des milliards de vidéos YouTube ou des milliards de sites web ?
Loin de la mémoire de l’eau[2], les erreurs peuvent avoir du bon. Un mot volontairement écorché, un rythme cassé comme le faisait Louis Aragon. Un voyage vers la Chine et le Japon qui nous fait découvrir l’Amérique pour Christophe Colomb. L’iode découvert par Bernard Courtois dans des cendres d'algues marines. La radioactivité par Henri Becquerel. Le post-it aussi, on le doit à une erreur.
La nature fait des erreurs à l’image de l’homme qui en est un produit miraculeux. Il a eu le temps d’acquérir un patrimoine génétique qui a connu des épopées diverses. Épopées qui ont conduit à une forme de complexité et d’ingéniosité incroyables. Alors, soyons vigilants, nous avons peut-être commis l’erreur de manipuler l’ADN du vivant. Ces erreurs cachent-elles d’autres ambitions telles que le hasard et la nécessité ? Quelquefois aussi le spontané. L’homme est sorti du néant, du Big Bang, sorti du vivant, d’un ancêtre commun. Était-ce possible sans faire appel à une certaine forme de hasard et d’erreur ? Le célèbre philosophe grec matérialiste Démocrite affirmait que tout ce qui est dans l’univers est le fruit du hasard et de la nécessité. Propos mis en lumière par le prix Nobel de physiologie Jacques Monod, notamment au regard de la biologie[3]. La loi est un symbole fort de notre lecture du grand livre. Cependant, il reste toujours un doute sur la place du hasard dans l’expression et l’émergence de ces lois. Le physicien Stephen Hawking complétait :
"Nous ne pouvons pas fabriquer les acides nucléiques en laboratoire à partir de matériaux non vivants. Mais étant donné 500 millions d’années et les océans couvrant la majeure partie de la Terre, il pourrait y avoir une probabilité raisonnable que l’ARN soit fabriqué par hasard. Au fur et à mesure que l’ADN se reproduisait, il y aurait eu des erreurs aléatoires, dont beaucoup auraient été nocives et auraient disparu. Certaines auraient été neutres — elles n’auraient pas affecté la fonction du gène. Et quelques erreurs auraient été favorables à la survie de l’espèce — celles-ci auraient été choisies par sélection naturelle darwinienne."
Injecter une dose de hasard a donc souvent une tonalité salvatrice pour nos systèmes biologiques, mécaniques et même artificiels. Les erreurs sont bien au cœur de nos processus et celui qui n’en commet plus doit se résoudre à anéantir son apprentissage en s’anéantissant lui-même. L’entrepreneur Bill Gates affirmait que le succès est mauvais professeur. Il pousse les gens intelligents à croire qu’ils sont infaillibles. L’homme d'État américain et vingt-sixième président des États-Unis, Théodore Roosevelt nous apprenait : "Le seul homme à ne jamais faire d’erreur est celui qui ne fait jamais rien."
La vie est un symbole ici. Elle est constamment en quête de reproduction, de division, d’action et de réaction. Sa quête ne prend jamais fin et englobe une mécanique qui fait des erreurs et qui apprend par les erreurs. Elle semble même savoir avec le temps gérer la plupart de ses erreurs. Un talent que nous n’avons malheureusement pas toujours.
Nos intelligences artificielles les plus impressionnantes apprennent de leurs échecs. C’est ainsi que peu à peu la machine a pu surpasser les performances humaines. Dès 2015, l’intelligence artificielle Deep Mind avait démontré des facultés d’apprentissage lui permettant de s’adapter à des taches de natures variées. Elle a, par exemple, atteint un niveau d’excellence humaine sur de nombreux jeux de la console Atari 2600. Les chercheurs précisent cette avancée de la manière suivante[4] : "Ce travail comble le fossé entre les entrées sensorielles de haute dimension et les actions, aboutissant au premier agent artificiel capable d’apprendre à exceller dans un large éventail de tâches difficiles."
Les réseaux antagonistes génératifs sont des algorithmes capables de s’autoprogrammer à l’image de la nature. Dans ce modèle, deux réseaux s’affrontent : un générateur et un discriminateur. Le premier génère une image artificielle et le second tente de prédire si cette image est artificielle ou synthétique. Cette compétition entre les réseaux permet d’obtenir la synthèse d’images extrêmement réalistes. La machine gagne en s’affrontant elle-même et en conservant sa meilleure version pour s’affronter à nouveau. Une boucle de réussite presque darwinienne et qui atteint des sommets. Cette auto-organisation du réseau de neurones ressemble de près à la capacité observée dans la nature. La plupart de nos modèles prédictifs se font proches des erreurs. Ils ne cherchent pas systématiquement à les annuler, mais tissent un lien charnel avec elles. Ils se doivent de comprendre que les erreurs sont une marque d’adaptabilité, un gage de réussite.
Dans un modèle sans erreurs, le risque est grand. Le risque d’avoir compris un peu trop bien une réalité qui nous fait face en occultant une réalité que l’on ignore.
Une leçon comprise par l’homme dès ses premières tentatives de prise de mesure où aucune perfection n’était possible et où une marge d’erreur devait être apprivoisée. Cette réalité se matérialise par les célèbres courbes portant le nom de Friedrich Gauss (courbes en cloche) que l’on retrouve largement dans la nature et qui portait à ses débuts le nom de loi des erreurs. L’observation est intuitive, mais profonde : les petites erreurs ont lieu plus souvent que les grandes.
Nous souhaitons à nos modèles artificiels une forme d’universalité afin de leur offrir un usage transverse. Il y a donc un juste milieu à trouver entre un modèle surentrainé et sous-entrainé. Nous parlons dans un cas de sous-apprentissage et dans l’autre de sur-apprentissage. Ces images sont des objets de réflexion pour notre pédagogie. Pour lui permettre une durée de vie plus grande, on privilégiera un programme tolérant aux imperfections, plus adaptable et plus robuste à d’infimes changements.
Quelques éléments de bruits intégrés dans une image suffisent à duper nos algorithmes de reconnaissance de formes (ceux du deep Learning — l’apprentissage profond). Il suffit d’ajouter à l’image de gauche un bruit infime pour que le système confonde un panda avec un gibbon (Figure).
llustration de l’impact du bruit sur la reconnaissance d’un animal sur une image[5].
Dans certains cas, la robustesse de nos systèmes à l’erreur, à l’infime détail et au bruit manque. Comme si l’erreur ou l’absence d’information nous indiquait en silence l’importance de son rôle, comme si un souffle à notre oreille pouvait nous dicter tout un monde. Les algorithmes de réseaux de neurones artificiels s’alimentent des erreurs pour ajuster la pondération des liens entre chaque neurone. Ceux-ci mesurent l’écart entre les sorties proposées par l’algorithme et celles qui sont espérées. Elles effectuent une rétropropagation de cette erreur (rétropropagation du gradient). L’apprentissage tient alors dans la capacité de l’algorithme à ajuster les poids synaptiques pour optimiser le résultat souhaité.
La biologie nous apprend beaucoup sur le sens de l’information au travers du code de la vie. En observant le vivant, on note le processus de reproduction et celui de la division cellulaire. L’ADN est alors perçu tel un patrimoine transmis de génération en génération. À l’échelle d’un être, cette information se multiplie de cellule en cellule. La copie de l’ADN est effectuée et le patrimoine est hérité. L’ADN porte le tout information, ce tout essentiel et qui caractérise l’ensemble. Il porte des milliers de gènes qui reflètent les traits de l’individu. Ces gènes font l’objet de nombreuses études, car ils sont la source de la synthèse de molécules associées à des fonctions spécifiques. Depuis le début de l’humanité, l’homme peut transmettre une partie de ce patrimoine.
Dans son sens et sa beauté, le mode de fonctionnement biologique pose des questions surprenantes. Une partie du patrimoine génétique de l’ARN est ignoré par le processus biologique. Un symbole parmi d’autres est celui des introns, portions d’ARN qui semblent ne servir à rien. Si une partie de la séquence est bien utile, un processus de découpage est effectué par le splicéosome (Figure). Ce dernier permet d’ignorer (voire de réparer) certaines séquences inutiles à la synthèse de protéines. Les spécialistes se sont longtemps interrogés sur le sens de ces segments qui n’apportent aucune information nécessaire à nos processus biologiques. Au point même que notre système va procéder à des coupes pour les ignorer. C’est le procédé d’épissage. Des portions d’ARN non codantes, cela pose question. S’agirait-il d’une erreur de la nature ? Les chercheurs avaient émis l’hypothèse d’un vestige biologique issu d’un virus ayant marqué notre espèce jusqu’à y laisser sa marque dans notre code génétique. Aujourd’hui, nous avons peut-être le sens de son existence. Loin d’être inutile, leur présence s’opposerait à la formation dangereuse d’hybrides ARN-ADN, qui aurait pour conséquence de nuire à la stabilité de notre génome. Les structures génotoxiques seraient ainsi prévenues grâce à l’existence des introns[6]. Un rappel de l’importance de ce qui semble de prime abord inutile. Si l’histoire s’écrivait en musique, les introns pourraient être perçus comme une absence d’information nécessaire à notre silence salvateur. Des pauses au milieu d’un chef-d’œuvre. Un symbole de vibrato vital ? Le philosophe Pyrrhon d’Élis nous apprenait déjà vers 360 av. J.-C. que l’ataraxie, la sagesse, n’allait pas sans l’aphasie, le silence[7]. La nature apprécie le silence.
Illustration du procédé d’épissage qui permet la suppression des introns.
Henri Atlan a défendu un modèle de l’autoorganisation des systèmes grâce au désordre et au bruit (il s’agit ici du bruit informationnel). Il y décrit l’importance du bruit dans la diminution de la redondance de l’information et l’enrichissement de l’organisation d’un système. Il précise sa théorie considérant un canal de communication entre deux sous-systèmes d’un système plus global. La transmission d’un message entre ces deux sous-composantes peut s’effectuer avec ou sans bruit. Dans le cas où aucun bruit n’existe, alors la quantité d’information du système global est maintenue. Par contre, dans le cas où du bruit apparait lors de la transmission, le système global contient plus d’information, car moins de redondance. Cette idée d’une exploitation du bruit comme ingrédient de l’organisation à toutes les échelles, biologiques, sociologiques, mais aussi de l’intelligence artificielle est tout à fait remarquable et reste d’actualité. Une observation qui mènera Milad Doueihi à affirmer que :
"Oubli et hasard sont les grands obstacles à une véritable autonomie de ces créatures animées (avatar numérique), à la mémoire sans limites."
Nous avons vu l’importance de l’erreur pour comprendre la performance des algorithmes, mais elle existe aussi dans la science des réseaux. Cette manière dont les hommes sont connectés les uns aux autres. Le capital social défendu par le sociologue Ronald Burt se base sur une mesure de redondance qu’il faut diminuer pour optimiser sa position dans un réseau. Il défend l’hypothèse d’une richesse culturelle, intellectuelle, informative, d’un individu sujet soumis à des stimulus externes de natures variées. À l’image d’un informaticien spécialisé dans l’algorithmie et qui pourrait considérer comme bruit des signaux informationnels liés à la biologie ou à l’anthropologie. Pourtant, les algorithmes génétiques sont bio-inspirés et c’est précisément cette richesse de complémentarité des signaux non redondants qui apportent ce type d’opportunité. Dans ce registre, maximiser l’entropie (la mesure physique du désordre) est une chance et non plus une perte d’information. Pour nos systèmes de recommandation en ligne, nos sources d’informations sont calibrées pour satisfaire nos esprits avec une prise de risque minimale et un taux d’erreur réduit. L’erreur est ici la proposition d’un contenu à un utilisateur qui ne le lira pas ou ne le visionnera pas. Il n'accèdera pas aux idées défendues. C’est pourtant bien dans un article, un ouvrage proposé par erreur que l’inspiration peut naitre de nos systèmes cognitifs complexes. Un élément nouveau qui soudain éclaire notre esprit, tisse des liens conceptuels et nous fait grandir. Il manque peut-être à nos représentations digitales, une forme de hasard salvateur. Ce hasard absent des algorithmes qui pensent systématiquement à notre place.
Nous devons cultiver l’erreur, l’aléatoire, le spontané tel que la nature le dicte. J’ai en cela toujours voué une grande admiration pour l’erreur, en particulier quand elle est commise par les hommes. Ils apparaissent d’autant plus grands dans leurs profondes faiblesses et blessures. L’erreur est en ce sens une privation de connaissance, comme l’affirmait le philosophe Spinoza, mais aussi le mathématicien René Descartes. L’erreur si elle est le contraire de la vérité, est certainement un chemin vers la vérité, une étape essentielle de la vie et de l’envie de nos savoirs, loin des envies d’avoir. Des symboles d’écorchures sur nos cœurs bruts, qui peu à peu les façonnent et les transforment en un cristal ou en fumée[8], une marque ultime et indélébile de notre humanité et de notre élévation.
Que serions-nous devenus sans la marque et l’empreinte encore profonde de nos erreurs ? C’est en partant dans les mauvaises directions que nous trouvons toujours notre voie. Des chemins riches de leurs diversités et de leur pouvoir d’apprentissage. Il y est bien dans la vie certaines catégories d’erreurs qu’il est nécessaire de commettre. Elle est alors une course à l’aventure comme nous l’indique son origine étymologique latine (error). Certaines font perdre de l’argent, d’autres font souffrir, certaines font rougir et d’autres font bien rire. Toutes ces erreurs nous construisent. Notre environnement est si complexe qu’il nous les impose presque. S’il est à la mode de percevoir l’échec comme un chemin vers le succès, il semble surtout que faire des erreurs est la possibilité ultime que nous offre la vie de se rendre unique. La nouveauté ne peut apparaitre que par une certaine forme d’erreur. Le philosophe Gaston Bachelard nous rappelait que la connaissance ne peut pas faire l’économie de l’erreur. Nous l’avons vu, c’est même quelquefois par erreur qu’elle nous arrive.
Quel que soit le futur de nos systèmes intelligents et de la machine pensante, une place à l’erreur doit être cultivée. L’homme est dans l’impossibilité de retranscrire toutes les décisions dans le code figé et froid de la machine. Elle devra s’autoorganiser à l’image de la vie et de nos réseaux de neurones artificiels déjà fonctionnels. Il est possible que ce qui semble apparaitre comme des faiblesses de l’homme (mémoire limitée, hasard, erreur) soit en fait sa réelle force, et ce qui semble être les forces de la machine pensante soit en réalité sa principale faiblesse. Pour ajuster cette nature digitale, il faudra lui transmettre ce qui résume notre essence, notre philosophie, nos codes et notre éthique, nos valeurs et nos fragilités. Il conviendra alors de laisser à la machine la possibilité d’apprendre de ses erreurs et de nos erreurs. Ce processus lui permettra d’atteindre et d’accélérer son évolution.
Si nous avons traité de l’importance de l’erreur et de l’apparent langage mathématique du monde, il est un autre sujet essentiel pour appréhender notre réalité. Ce prisme est celui de la valeur du mot et du langage. André Comte-Sponville relie les deux précisant que ce n’est pas l’univers qui est écrit en langage mathématique, comme le voulait Galilée ; c’est le cerveau humain qui traduit le silence de l’univers, qui est sa langue maternelle et muette, en langage mathématique. Nos langues offrent un domaine d’abstraction supplémentaire à la réalité. Encore une fois, sur cette couche d’abstraction, les mots évoluent avec l’homme numérique.
[1] L’encyclopédie est en grande partie disponible en ligne. https://gallica.bnf.fr/conseils/content/lencyclopédie-de-diderot-et-d’alembert
[2] Ce fut une hypothèse scientifique qui stipulait que l’eau conservait une empreinte de substances avec laquelle elle avait été en contact (Ma vérité sur la "Mémoire de l'eau" de Jacques Benveniste, Au cœur de l'extra-ordinaire, Henri Broch). L’article original avait été publié dans Nature Human basophil degranulation triggered by very dilute antiserum against IgE, Nature vol. 333, juin, p. 816, 1988.
[3] Jacques Monod, Le Hasard et la Nécessité. Essai sur la philosophie naturelle de la biologie moderne, Seuil, 1970.
[4] Mnih, V., Kavukcuoglu, K., Silver, D. et al. Human-level control through deep reinforcement learning. Nature 518, 529–533, 2015.
[5] Daniel Geng and Rishi Veerapaneni, Tricking Neural Networks: Create your own Adversarial Examples, 2018.
[6] A. Bonnet, A.R. Grosso, A. Elkaoutari, E. Coleno, A. Presle, S.C. Sridhara, G. Janbon, V. Géli, S.F. de Almeida & B. Palancade, Introns protect eukaryotic genomes from transcription-associated genetic instability. Molecular Cell, 2017.
[7] Pyrrhon ou l'apparence, puf, Marcel Conche, 1994.
[8] Selon le titre de Henri Hatlan, 1979.