L'intelligence artificielle, pression évolutive et levier d'éducation augmentée

Institut pour l'Education Augmentée

Nous proposons d'explorer les enjeux contemporains liés à l'intégration de l'intelligence artificielle dans les systèmes éducatifs, en mobilisant une approche interdisciplinaires.

Par Julien Cartier, Président de l’Institut pour l’Éducation Augmentée, et Thomas Deneux, Fondateur et CEO de Learning Robots. Avec la participation d’Adrien Payet.

Nous proposons dans cette première partie d’explorer les enjeux contemporains liés à l’intégration de l’intelligence artificielle dans les systèmes éducatifs, en mobilisant une approche interdisciplinaire mêlant pédagogie, philosophie, sciences cognitives et politiques publiques.

L’objectif est de proposer une lecture exigeante, humaniste et prospective de l’éducation augmentée, en articulant les apports de l’IA avec les fondements de la pensée critique, de la transmission des savoirs et des innovations éducatives dans un contexte de pression éducative sur ce milieu. Ce texte s’inscrit dans une démarche de réflexion collective, ouverte à la discussion et à l’expérimentation pédagogique.

Introduction : courir pour ne pas reculer

Dans un monde où les technologies numériques évoluent à un rythme exponentiel, l’éducation se trouve confrontée à une transformation sans précédent. L’intelligence artificielle (IA), loin d’être un simple outil, agit comme une force évolutive qui redéfinit les contours de l’enseignement, de l’apprentissage et des rôles éducatifs. Cette dynamique rappelle la métaphore de la Reine Rouge, empruntée à Lewis Carroll : « Il faut courir aussi vite que possible pour rester à la même place. ».

Formulée par Leigh Van Valen en 1973, la théorie de la Reine Rouge postule que les espèces doivent constamment évoluer pour survivre face à des environnements changeants et à la coévolution d’autres espèces. Dans le contexte scolaire, cette image illustre la tension permanente entre l’adaptation des enseignants et l’acculturation technologique spontanée des élèves.

Mais cette course n’est pas solitaire. L’ensemble des sphères sociales (entreprise, politique, justice) est également en mutation. L’éducation, loin d’être isolée, participe à une transformation collective, où les jeunes formés aujourd’hui seront les acteurs de demain. Il ne s’agit donc pas seulement d’intégrer l’IA dans les pratiques pédagogiques, mais de repenser les finalités mêmes de l’école : former des citoyens éclairés, cultivés, capables de discernement dans un monde augmenté.

Cette tribune propose une lecture engagée de cette mutation, en mobilisant les apports croisés de la pédagogie, des sciences cognitives, de la philosophie de l’esprit et de l’ingénierie éducative. Elle défend une vision exigeante et humaniste de l’éducation augmentée, où l’IA ne remplace pas l’humain, mais le révèle.

Coévolution pédagogique : enseignant et IA comme partenaires

Posons une hypothèse : et si cette relation entre IA et éducation pouvait être modélisée selon une logique de coévolution mutualiste, à l’image de certaines interactions biologiques ? Dans cemodèle, l’enseignant et l’IA ne s’opposent pas, mais s’adaptent l’un à l’autre. L’enseignant ajuste ses pratiques pédagogiques en fonction des potentialités offertes par les technologies intelligentes, tandis que les systèmes d’IA éducative sont ajustés par leurs concepteurs pour mieux répondre aux besoins des apprenants et des pédagogues.

Cette dynamique peut être pensée comme un modèle à deux variables, une transposition cognitive du modèle mutualiste de Lotka‑Volterra, où chaque acteur influence l’évolution de l’autre. Au centre de cette interaction se trouve l’élève, qui navigue entre les apports humains et algorithmiques, développant des compétences hybrides, à la fois cognitives, critiques et techniques.

Mais cette cévolution ne se décrète pas. Elle s’expérimente. Nous sommes encore dans une phase d’appropriation sociale de l’IA, où les usages se cherchent, les repères se déplacent, et les finalités éducatives se rediscutent. Il serait illusoire de croire que nous savons déjà quelles compétences doivent être enseignées ou abandonnées. Le monde du travail évolue, certes, mais l’école ne peut se réduire à sa seule préparation. Elle doit aussi forger une conscience citoyenne, transmettre une culture générale et offrir des racines intellectuelle.

C’est pourquoi l’enseignant ne peut être un simple opérateur de contenus. Il devient un médiateur entre les savoirs, les outils et les sensibilités. Il incarne une forme d’intelligence pédagogique augmentée, capable de discerner, d’ajuster, de relier. L’IA, dans ce cadre, n’est pas une menace, mais un partenaire évolutif, à condition que l’humain reste le pilote de la transformation.

Conscience et IA : une frontière épistémologique

Pour aborder sereinement le sujet de l’IA, prenons un peu de recul épistémologique. Malgré les avancées spectaculaires de l’intelligence artificielle, une frontière demeure infranchissable : celle du vivant. Si l’on peut modéliser certaines fonctions cognitives humaines à l’aide de réseaux de neurones artificiels, la conscience humaine résiste à toute réduction computationnelle. Comme le souligne Stanislas Dehaene (2020), le cerveau humain peut être décrit comme une machine à prédire, mais il conserve des zones d’ombre irréductibles à l’algorithme : la subjectivité, l’intentionnalité, l’expérience vécue.

Les systèmes d’IA actuels, même les plus avancés, ne font que simuler des comportements intelligents. Ils n’éprouvent ni émotions, ni intentions, ni conscience. Cette distinction est cruciale : une IA peut « faire semblant » d’avoir de la peine, mais elle ne ressent rien. Elle mime des affects sans jamais les incarner. Cette idée rejoint les travaux de John Searle (1980), qui démontrent que la manipulation syntaxique de symboles ne suffit pas à produire une compréhension sémantique. Nous insistons sur cette limite fondamentale : même une IA mimétique, capable de reproduire certaines connexions neuronales humaines, ne saurait égaler la complexité biologique du vivant, de la cellule à l’écosystème.

Il est vrai qu’une partie de la communauté scientifique envisage la conscience humaine comme une propriété émergente ( non localisable dans un neurone isolé, mais résultant de l’interaction dynamique de réseaux neuronaux distribués) et que, selon certains, un système d’IA suffisamment complexe pourrait produire des phénomènes analogues. En neurosciences, cette idée est formulée par Giulio Tononi à travers la théorie de l’information intégrée (IIT), qui postule que la conscience correspond à un niveau élevé d’intégration informationnelle dans un système donné.

Cette approche soulève cependant un défi épistémologique majeur : comment un phénomène subjectif, la conscience, peut‑il émerger de processus physiques sans être un simple épiphénomène ? C’est le cœur du « hard problem » formulé par David Chalmers (1995), qui distingue les corrélats neuronaux de la conscience de son essence phénoménale. En d’autres termes, même si l’on identifie les zones cérébrales activées lors d’une expérience consciente, cela ne nous dit rien sur ce que cela « fait » d’être conscient. Et même si des comportements élaborés émergent d’un système d’IA, cela n’indique en rien que l’IA a développé une perception consciente. Ainsi, toute tentative de doter une IA de conscience reste, à ce jour, une hypothèse non démontrée empiriquement. L’IA peut simuler, mais non ressentir ; elle peut calculer, mais non comprendre. Elle reste fondamentalement étrangère à l’expérience vécue, à l’intuition, à la douleur, à la joie, à tout ce qui fait de nous des êtres humains. Il est important de préciser que la distinction entre simulation et expérience n’est pas qu’un problème théorique, mais un problème éthique et pragmatique pour les interactions quotidiennes. Quand une IA dit « je suis contente de te voir aujourd’hui », beaucoup de personnes ne sont pas troublées par l’incertitude de savoir si cette phrase traduit un vécu véritable. En revanche, lorsque la même IA affirme « je compatis à ta douleur de vivre ce cancer » ou « je compatis à la perte de tes parents », il y a là une prétention qui doit alerter : ces formules reproduisent la forme du réconfort humain tout en restant fondamentalement sans corps et sans vécu. Cette simulation peut créer une attente illusoire de présence affective, et à aucun moment l’IA ne peut mouiller sa chemise pour fournir le surcroît de soin, d’engagement et de responsabilité que réclame véritablement la douleur humaine. Il faut donc enseigner et normer une distinction claire entre réponses empathiques programmées et soutien humain engagé, afin que l’usage de formulations compassionnelles par des systèmes automatisés ne remplace ni n’affaiblisse les obligations de soutien concret entre personnes.

Nous défendons ainsi avec force que les IA en général, et les IA actuelles en particulier, ne peuvent pas développer de conscience et de capacité à ressentir. C’est une différence fondamentale avec l’humain. En effet, l’ensemble des décisions que nous prenons vise à rechercher le bien‑être, individuellement comme collectivement. Or s’il est possible à une IA d’apprendre les critères qui peuvent rendre heureuses des personnes ou des sociétés afin de les aider dans leurs décisions, ces critères ne seront jamais exhaustifs, et seule une personne peut dire si elle se sent heureuse ; il restera toujours de sa responsabilité d’assumer les décisions qu’elle prend.

Ces réflexions générales sur les décisions et le but du bonheur que poursuit l’humanité se reflètent dans les finalités de l’enseignement : seuls des enseignants humains sont capables de guider avec justesse des élèves dans leur formation, sans que cela exclue un usage prononcé et réfléchi des outils d’IA.

L’enseignant augmenté : médiateur, architecte et gardien de l’autonomie intellectuelle

Face à l’émergence de l’intelligence artificielle dans les environnements éducatifs, le rôle de l’enseignant ne disparaît pas : il se transforme. Loin d’être remplacé, il est assisté par la machine, et devient un architecte de parcours d’apprentissage et un gardien de l’autonomie intellectuelle.

Cette évolution s’inscrit dans une redéfinition des compétences pédagogiques, où la transmission des savoirs peut prendre des formes multiples (cours « traditionnel », visionnage de vidéos, quiz, expérimentations permettant aux élèves de redécouvrir par eux‑mêmes les connaissances, etc.), et où l’IA peut être sollicitée à tous les niveaux de cette multiplicité, positionnant l’enseignant comme orchestrateur de situations d’apprentissage complexes, différenciées et incarnées.

L’enseignant d’aujourd’hui ne se contente plus de délivrer un contenu. Il doit composer avec une diversité cognitive croissante, des rythmes d’apprentissage hétérogènes et des outils numériques de plus en plus puissants. L’IA peut générer des exercices, corriger des copies, proposer des parcours adaptatifs. Mais elle ne peut pas percevoir les signaux faibles d’un élève en difficulté, ni ajuster son discours en fonction d’un regard, d’un silence, d’un doute. Elle ne peut pas non plus éveiller ce que Freud appelait la pulsion épistémiophilique, c’est‑à‑dire le désir ardent de découvrir et de comprendre.

Comme le rappellent Kirschner, Sweller et Clark (2006), l’apprentissage efficace repose sur une gestion rigoureuse de la charge cognitive. L’IA peut soutenir ce processus, à condition de ne pas le court‑circuiter. Si elle devient une prothèse cognitive, elle risque de produire une illusion de compétence : des élèves capables de produire des textes ou de résoudre des problèmes sans réelle compréhension. Ce phénomène s’amplifie avec les IA génératives, qui peuvent masquer les lacunes conceptuelles sous une forme linguistique fluide.
Certains estimeront que la capacité même à s’exprimer n’est plus essentielle puisque les IA peuvent le faire à notre place. Il n’en est rien. Pourquoi n’avons‑nous pas cessé d’apprendre les tables d’addition et de multiplication à l’école depuis l’avènement des calculatrices ? Parce que lamaîtrise de ces opérations de base conditionne la structuration du cerveau, pour la vie courante (faire ses courses) comme pour les apprentissages ultérieurs (mathématiques, physique) ; tandis que d’autres mémorisations moins utiles (par ex. certaines tables de logarithmes) peuvent être abandonnées. De la même manière, il est essentiel que les jeunes continuent d’apprendre à exprimer leur pensée de manière structurée ; ils en auront besoin pour utiliser l’IA (formuler des requêtes efficaces, juger de la pertinence des réponses, etc.).

C’est pourquoi l’enseignant doit rester le garant d’un apprentissage authentique, fondé sur l’effort, la structuration progressive des connaissances et le développement de la pensée critique. Il doit aussi initier les élèves à une culture technique et éthique de l’IA, en les aidant à comprendre les biais algorithmiques, les limites des modèles et les enjeux sociétaux de l’automatisation.

Des initiatives comme le projet Learning Robots, porté par Thomas Deneux, illustrent cette approche. En permettant aux élèves de concevoir et d’entraîner eux‑mêmes des robots, cette pédagogie active favorise une compréhension concrète des mécanismes de l’IA, tout en développant des compétences transversales : collaboration, résolution de problèmes, créativité. Elle incarne une forme d’éducation augmentée, où l’humain garde, et doit garder, un temps d’avance sur la machine. Comme le précise Adrien Payet, si le savoir est aujourd’hui aisément accessible, il doit être placé au service du savoir‑faire et du désir même de savoir, de découvrir, de ressentir. 

Mais cette transformation ne va pas sans résistance. L’IA, en bousculant les routines pédagogiques, agit comme une pression évolutive : elle dérange, elle oblige à repenser, elle met à nu les limites d’un système qui a beaucoup d’inertie. Il existe une compétition entre les savoirs et compétences déjà enseignés et les nouveaux savoirs et compétences liés aux technologies. Il faudra faire des choix, intelligemment ; on pourra toutefois compter sur les nouveaux outils (IA, innovations pédagogiques) pour augmenter la soif d’apprendre des jeunes et leur capacité à s’approprier ces savoirs. C’est peut‑être là la plus grande vertu de l’irruption de l’IA : nous forcer à sortir du confort intellectuel, à réinventer l’école comme un lieu de pensée vivante, critique et incarnée.

L’IA ne remplace pas l’humain, elle le révèle

L’intelligence artificielle agit comme un miroir grossissant de nos pratiques éducatives. Elle met en lumière nos inerties, nos manques et nos espérances, mais aussi nos potentiels inexplorés. Elle nous oblige à sortir de la zone de confort pédagogique, à abandonner les routines descendantes et à repenser l’école comme un espace d’appropriation du savoir.

L’IA est une pression évolutive, oui. Mais c’est une pression féconde. Elle nous pousse à faire mieux, à faire autrement, à faire ensemble. Elle nous rappelle que l’éducation n’est pas un sanctuaire figé, mais un organisme vivant en perpétuelle adaptation. Et si cela dérange, tant mieux. Car ce qui dérange, souvent, c’est ce qui transforme. Nous devons cesser de penser l’IA comme une menace et commencer à la penser comme une opportunité de refondation. Une IA bien pensée, bien intégrée, bien encadrée peut devenir un levier d’inclusion et de personnalisation, un pilier des valeurs méritocratiques. Elle peut redonner du sens à l’acte d’enseigner en libérant du temps pour ce qui compte vraiment : la relation, l’écoute et l’accompagnement.

L’IA ne doit pas être un substitut, mais un amplificateur de l’intelligence humaine. Elle doit nous aider à faire émerger une éducation plus juste, plus agile, plus humaine. Une éducation qui ne se contente pas de transmettre, mais qui transforme. Une éducation qui ne forme pas seulement des exécutants, mais des penseurs, des créateurs, des citoyens.

Nous croyons à l’alliance entre le respect intransigeant des fondamentaux de l’école et l’introduction mesurée des nouvelles technologies, sans technosolutionnisme, au service d’un soutien réel à la différenciation pédagogique. Le soutien et la régulation de la pression évolutive sur l’écosystème EdTech et à un contrôle éthique clair des usages éducatifs de l’IA est un point crucial. Toute innovation ne vaut que si elle sert la rencontre éducative la plus profonde, celle qui prime par‑dessus tout : « On n’apprend jamais mieux qu’entre humains », comme l’a soulignéAxel Jean, chef de bureau Innovation numérique et recherche appliquée à la Direction du numérique pour l’éducation.

Alors oui, l’IA bouscule. Mais elle bouscule comme le fait toute révolution : en remettant en question nos certitudes, en forçant à penser autrement et en ouvrant des brèches dans les murs de l’habitude. C’est précisément pour cela qu’elle est précieuse.