De l'IA béquille à l'IA tutrice : éviter la dette cognitive

Eliott

L'IA générative est déjà, pour beaucoup d'entre nous, un réflexe.

Selon le Baromètre du numérique 2026 du Crédoc, qui vient de paraître, près d’un Français sur deux (48 %) déclare y avoir recours, une adoption record ! Elle s’est installée au travail, dans la vie quotidienne, et désormais à l’école. Or, dans ce contexte éducatif, vouloir en contrôler l’usage relève d’une utopie, à laquelle certains établissements continuent de s’accrocher. 

La question n’est donc pas de choisir entre adoption aveugle et rejet en bloc, mais d’encadrer ses usages. Il faut surtout maîtriser le risque de « dette cognitive », cette tendance à déléguer trop vite au point d’affaiblir sa propre capacité à comprendre et à résoudre. Sans effort ni pratique, la compétence s’érode. L’enjeu est de faire en sorte que l’IA soutienne l’apprentissage sans en effacer l’exigence.

Du fantasme du contrôle à une culture de l’usage

On trouve désormais l’IA partout, intégrée aux navigateurs Web, aux messageries, aux logiciels de bureautique. Dès lors, l’idée de l’interdire, ou même de la contrôler totalement, devient irréaliste. Il existera toujours un moyen d’y accéder. 

Le vrai défi consiste donc à fixer des standards d’usage. Comme pour la calculatrice ou le GPS, l’enjeu n’est pas de nier l’outil, mais de définir quand il sert et quand il est contestable. Un GPS rend service pour atteindre une destination, mais ne dispense pas le conducteur du respect du code de la route. Une calculatrice accélère les opérations, mais n’efface pas le besoin de comprendre les ordres de grandeur.

Ce cadre doit justement permettre de distinguer les usages qui remplacent l’activité mentale (l’IA « pilote automatique » qui produit à la place de l’humain), de ceux qui l’augmentent (en nourrissant l’apprentissage, le raisonnement et la compréhension). Car si l’IA devient le raccourci par défaut, l’humain finit par régresser et l’on s’aperçoit, souvent trop tard, que l’on confond rapidité et maîtrise.

Dette cognitive : quand l’assistance se substitue aux compétences

La dette cognitive est une économie d’effort immédiate qui se transforme en dépendance future sous forme de perte d’autonomie. Or, apprendre suppose de se tromper, de corriger, d’hésiter et de reformuler. Une réponse parfaite fournie par une IA court-circuite ce processus et donne l’illusion du progrès. Ce phénomène est particulièrement amplifié à l’école où la culture de la note valorise davantage le rendu final que la capacité d’appropriation. Pourtant, obtenir un bon résultat ne prouve pas nécessairement l’acquisition de la compétence correspondante. 

L’IA engendre également un effet plus discret sur la vigilance. Quand tout semble vrai et parfaitement rédigé, la vérification et la hiérarchisation ont tendance à devenir secondaires et l’esprit critique s’affaiblit. Le danger n’est donc pas d’utiliser la machine pour penser mais de lui déléguer l’intégralité de cette compétence, sans aucune remise en question.

Néanmoins, il ne s’agit pas de tomber dans le catastrophisme. Chaque rupture technologique, de l’invention de l’imprimerie à la généralisation d’internet, a suscité des annonces de déclin intellectuel. Dans les faits, ces transformations déplacent les compétences plus qu’elles ne provoquent une « baisse d’intelligence ». L’IA s’inscrit dans cette continuité. C’est une nouvelle étape d’externalisation et d’augmentation de nos capacités, qu’il faut encadrer sans chercher à la nier.

Faire de l’IA un tuteur pas une béquille

La bonne IA n’est pas celle qui livre une solution clé en main, mais celle qui fait progresser. Cela suppose des outils capables d’aider à structurer une pensée, d’organiser des notes, de clarifier un plan, de reformuler une idée. Cela implique aussi de proposer des exercices dans des formats variés pour valider les acquis, s’entraîner, se tester, repérer ses lacunes. L’IA peut accompagner la réflexion grâce à des questions-guides et soutenir les devoirs comme la production, tout en évitant de se substituer à l’élève en fournissant la réponse finale.

Il ne s’agit donc pas de bannir l’IA du quotidien des apprenants, mais de définir son rôle. Elle ne doit pas remplacer l’effort mais rester là où elle est réellement utile, pour la compréhension, la consolidation et l’appropriation des connaissances. L’enjeu est de transformer l’IA « distributeur de résultats » qui fabrique de la dépendance, en IA « tuteur » qui développe des compétences et accélère l’apprentissage. Il s’agit là d’un choix culturel !

L’IA existe et penser qu’on puisse en neutraliser l’usage à grande échelle n’est pas réaliste. En revanche, si son usage n’est pas cadré, elle risque de produire une dette cognitive dont les effets pourraient se faire sentir durablement sur les prochaines générations. On doit donc assumer de concevoir et promouvoir des usages qui renforcent la capacité à apprendre, pas seulement la capacité à délivrer des réponses.

À l’ère de l’IA, la vraie rareté ne sera pas d’obtenir une réponse. Ce sera de garder un esprit capable de comprendre, de retenir, et de décider. Autrement dit, de rester auteur de sa pensée, en gardant la main sur le raisonnement, même lorsque la machine propose.