L’intelligence artificielle s’impose aujourd’hui comme un levier structurant de transformation du travail intellectuel. Elle promet une accélération des processus, une augmentation des capacités humaines et une redistribution des efforts vers des tâches à plus forte valeur stratégique. Cette promesse repose toutefois sur une hypothèse rarement interrogée : celle d’un transfert cognitif sans coût. Mais, les travaux récents en sciences cognitives et en neurosciences suggèrent une réalité plus ambivalente. L’IA ne se contente pas d’assister la pensée, elle en modifie les conditions mêmes de production. L’enjeu n’est donc pas simplement technologique, il est profondément cognitif et épistémologique.
L’analogie souvent mobilisée avec les outils historiques comme la calculatrice ou les moteurs de recherche mérite d’être nuancée.
Comme le montrent les travaux de Christian R. Klein et Reinhard Klein, les modèles d’IA générative introduisent une rupture qualitative. Ils automatisent non seulement des tâches procédurales, mais également des processus d’intégration cognitive tels que le raisonnement, la synthèse et l’argumentation. Cette capacité transforme profondément la nature du délestage cognitif. Là où les outils précédents déléguaient des opérations limitées, l’IA peut désormais se substituer à des étapes centrales de la pensée, créant une tension inédite entre extension et atrophie cognitive.
L’apprentissage repose pourtant sur une contrainte fondamentale : l’effort.
Les modèles de la psychologie cognitive, notamment ceux développés par Daniel Kahneman, distinguent un système rapide, intuitif, et un système lent, analytique, coûteux en ressources, mais indispensable à la construction de connaissances durables. Or, l’IA générative est précisément conçue pour éliminer cette friction. Elle fournit des réponses immédiates, fluides et plausibles, favorisant ainsi ce que Klein et Klein qualifient de « cognitive bypass », c’est-à-dire un contournement systématique des processus délibératifs nécessaires à la construction des schémas cognitifs. Dans cette configuration, la réponse précède la réflexion, ce qui installe une confusion entre l’accès à l’information et l’appropriation du savoir.
Les implications de ce phénomène commencent à être documentées empiriquement.
Les recherches en neurosciences évoquent une réduction de l’engagement des réseaux cognitifs lors de l’utilisation d’outils génératifs, avec notamment une diminution de l’activité associée à la charge cognitive. Certaines études expérimentales font état d’une baisse significative de l’activité corticale accompagnée d’une altération de la mémorisation, suggérant l’émergence d’une forme de dette cognitive. Le cerveau, moins sollicité, mobilise moins les processus de vérification, de détection d’erreurs et de consolidation mnésique. Or, la plasticité neuronale obéit à un principe simple : les circuits qui ne sont pas activés s’affaiblissent. L’IA, en réduisant l’effort cognitif, pourrait ainsi fragiliser les mécanismes mêmes de l’apprentissage.
Cet impact n’est pas uniforme. Il dépend fortement du niveau d’expertise de l’utilisateur.
Les travaux récents mettent en évidence une dualité d’expertise selon laquelle l’IA agit comme un facteur d’égalisation pour les novices et comme un amplificateur pour les experts. Dans les tâches simples et structurées, les individus peu expérimentés bénéficient d’un gain de performance rapide. Mais dès que la complexité augmente, leur dépendance devient un handicap, car ils ne disposent pas des connaissances nécessaires pour détecter les erreurs ou les biais. L’expert, au contraire, utilise l’IA comme un outil de validation et d’exploration, mobilisant ses connaissances pour interroger les réponses. L’IA ne remplace pas l’expertise, elle en révèle l’importance stratégique.
À ces mécanismes cognitifs s’ajoute une dimension psychologique et motivationnelle. Le concept de « Sovereignty Trap », développé par Klein et Klein, décrit la tendance des utilisateurs à déléguer leur jugement face à des systèmes capables de produire des réponses crédibles et cohérentes. Cette délégation s’inscrit dans une logique de moindre effort et s’appuie sur des biais bien documentés tels que le biais d’automatisation. L’IA produit une satisfaction immédiate en donnant l’impression d’avoir compris, alors que l’utilisateur n’a fait qu’accéder à une réponse. Cette illusion de compétence modifie profondément le rapport à l’apprentissage en court-circuitant les mécanismes qui permettent de construire une compréhension durable.
Le risque à long terme n’est pas une disparition des capacités cognitives, mais une transformation silencieuse de leur usage.
L’état décrit comme « hollowed mind » correspond à une forme d’esprit vidé caractérisé par une dépendance aux outils externes et une superficialité des connaissances. Ce phénomène prolonge des observations antérieures liées au « Google effect » ou à l’illusion de connaissance, mais il s’étend désormais à des fonctions cognitives plus complexes. L’individu ne cesse pas de penser, mais il active moins spontanément les processus nécessaires à une pensée autonome.
Face à ces évolutions, la notion de souveraineté cognitive apparaît comme un enjeu central.
Elle désigne la capacité à rester l’arbitre de ses processus intellectuels, à vérifier les informations et à comprendre les limites des outils utilisés. Cette souveraineté n’exclut pas l’usage de l’IA, mais elle en redéfinit les conditions. Elle suppose une posture active, une vigilance et une capacité à résister à la facilité. Dans un environnement où l’accès à l’information est instantané, la compétence clé devient la capacité à évaluer et non plus simplement à accéder.
Dans cette perspective, les auteurs introduisent le concept d’« esprit fortifié », qui désigne une architecture cognitive adaptée à un environnement saturé d’intelligence artificielle. Cet esprit repose d’abord sur un socle de connaissances profondes permettant de détecter les incohérences et les limites des réponses générées. Il nécessite également une métacognition développée afin de réfléchir sur ses propres processus de pensée. Enfin, il suppose une disposition à l’effort intellectuel permettant d’activer le raisonnement analytique malgré son coût cognitif.
Ces dimensions sont interdépendantes et conditionnent la capacité à utiliser l’IA sans en devenir dépendant.
Les implications de cette analyse dépassent le cadre individuel. Elles concernent aussi le design des systèmes. Les interfaces actuelles privilégient avant tout la fluidité et l’instantanéité des réponses. Cette logique réduit progressivement l’engagement dans les processus cognitifs nécessaires à l’analyse, à la vérification et à l’apprentissage profond. Une évolution vers des systèmes intégrant des mécanismes de friction productive pourrait permettre de réintroduire des conditions favorables à l’apprentissage. On devrait concevoir des outils capables de stimuler la réflexion plutôt que de la remplacer, en introduisant des contradictions, en explicitant les incertitudes ou en demandant une validation active.
L’intelligence artificielle ne détruit pas la cognition humaine, elle en redéfinit les équilibres.
Elle introduit une tension entre efficacité et apprentissage, entre accès et maîtrise, entre délégation et souveraineté. La question centrale n’est donc pas de savoir si l’IA est utile, mais de comprendre dans quelles conditions elle renforce ou affaiblit notre capacité à penser. Dans un monde où la réponse est immédiate, la compétence déterminante devient la capacité à suspendre cette immédiateté pour reconstruire le raisonnement.
Cette transformation appelle une vigilance accrue et ouvre un champ de recherche encore largement inexploré. Comment mesurer l’impact réel de l’IA sur les capacités cognitives à long terme ? Les systèmes éducatifs peuvent-ils intégrer ces enjeux sans sacrifier l’efficacité ? L’IA va-t-elle réduire les écarts de compétences ou au contraire les amplifier ? Peut-on concevoir des interfaces qui favorisent activement la pensée critique plutôt que la consommation de réponses ? Ces questions structurent désormais un débat qui dépasse la technologie pour interroger les fondements mêmes de la connaissance.
Sources
https://www.sciencedirect.com/science/article/pii/S2666920X26000342




