Est-ce que penser plus vite, plus large et plus profond veut dire penser mieux ? La question semble simple. Elle est pourtant devenue décisive, presque intime, depuis que des agents conversationnels peuvent produire en quelques secondes des textes convaincants, bien structurés, parfois même élégants, qui donnent le sentiment que la pensée est devenue une commodité à la demande.
Ce déplacement est majeur. Pendant longtemps, nous avons distingué assez clairement l'information, la connaissance, le jugement et la sagesse. Aujourd'hui, ces étages se brouillent, parce qu'un même outil peut donner l'illusion d'habiter les quatre niveaux en même temps. Il fournit une réponse, la formule avec autorité, enchaîne avec fluidité, et notre esprit comble spontanément le reste : nous projetons une compréhension, une intention, parfois une forme de présence.
J'avance ici une intuition directrice : de la même manière qu'une croissance infinie dans un monde fini relève d'une impossibilité physique, une connaissance infinie dans une conscience finie relève d'une impossibilité humaine. Nous pouvons multiplier les données presque sans limite. Nous ne pouvons pas élargir indéfiniment notre capacité d'attention, notre puissance d'incarnation, notre faculté de discernement, ni le temps réellement disponible pour transformer des informations en expérience intérieure.
Cette limite n'est pas un défaut. Elle est la condition même de la pensée humaine. Parce que nous sommes situés, incarnés, vulnérables, faillibles, nous sommes aussi capables d'interprétation, de sens, de responsabilité. Si nous oublions cela, nous confondons performance de calcul et acte de penser. De cette intuition naît une proposition : dé-penser l'IA. Dé-penser, avec un tiret. Non pas cesser de penser. Non pas revenir en arrière. Mais apprendre à penser juste avec l'IA, dans une relation qui garde l'humain comme sujet, et non comme simple terminal d'exécution.
De la décroissance à la dé-pensée
L'analogie avec la décroissance n'est pas un effet de style. Elle est structurante. Dans la lignée de Serge Latouche, la décroissance ne dit pas seulement "moins". Elle conteste l'idée que l'on pourrait prolonger indéfiniment le même imaginaire productiviste en lui ajoutant une couche de vernis vert. Elle questionne un récit : celui d'une expansion sans fin qui s'auto-justifie par ses propres promesses.
Ce que je retiens de cette perspective, c'est son exigence de lucidité sémantique. Un mot peut protéger une pratique au lieu de la transformer. Le "durable" peut devenir une permission de continuer. Le langage peut servir de paravent.
Dans le champ de l'IA, je vois une tension similaire. Les adjectifs "éthique", "responsable", "de confiance" sont parfois nécessaires, mais ils peuvent aussi fonctionner comme des alibis discursifs. Ils rendent acceptable l'accélération technologique sans toujours examiner ce qui est déplacé au niveau de la pensée, de l'autonomie, de la transmission du savoir, de la qualité du jugement.
Le risque n'est pas dans les mots eux-mêmes. Le risque est dans leur usage anesthésiant. Lorsque l'étiquette remplace le questionnement, nous ne gouvernons plus le changement : nous l'accompagnons passivement.
Dire cela ne revient pas à diaboliser l'IA. Cela revient à refuser une imposture sémantique. On n' "humanise" pas un algorithme parce qu'il produit des phrases chaleureuses. On ne transforme pas un outil en sujet moral par décret. Et on ne protège pas automatiquement la pensée humaine en ajoutant des garde-fous déclaratifs à un système qui continue à pousser vers l'automatisation des gestes intellectuels.
La dé-pensée, dans ce cadre, est une pratique de clarification. Elle oblige à distinguer ce que la machine fait, ce qu'elle simule, ce qu'elle ne peut pas faire, et surtout ce que nous ne devons pas lui abandonner.
Le point aveugle : la dépossession cognitive
Le coeur du problème n'est pas seulement technique, il est cognitif. Quand un système dialogue avec aisance, nous glissons vite vers une confusion de catégories : nous prenons la fluidité syntaxique pour de la compréhension, la pertinence statistique pour de l'intention, et la cohérence locale d'une réponse pour une vision du monde.
Ce glissement est subtil parce qu'il est agréable. Il réduit l'effort, raccourcit l'incertitude, apaise provisoirement l'anxiété du vide. Or penser, souvent, commence précisément là où le confort s'arrête : dans l'hésitation, la reformulation, la confrontation au réel, la vérification patiente, la confrontation avec ses propres angles morts.
J'appelle dépossession cognitive le moment où nous déléguons non seulement des tâches, mais des micro-actes intellectuels constitutifs du sujet : formuler une question juste, comparer des hypothèses, qualifier un doute, tenir une contradiction, supporter un temps de non-réponse, assumer une décision.
La dépossession ne se voit pas immédiatement. Elle s'installe par micro-renoncements. "Je vais plus vite ainsi." "Je reformulerai plus tard." "Ce résultat est probablement correct." Peu à peu, l'outil ne sert plus un processus humain robuste ; il devient la charpente implicite de notre raisonnement quotidien.
On objectera : ces outils font gagner du temps. C'est vrai, parfois, et il serait absurde de le nier. Mais la bonne question est : quel temps gagne-t-on, et pour quoi faire ? Si le temps économisé n'est pas réinvesti dans l'analyse, l'enquête, la rencontre, la création située, alors ce gain apparent peut se transformer en perte nette de puissance critique.
On peut externaliser des opérations. On ne peut pas externaliser sans conséquence la capacité d'analyser, de synthétiser et de créer. Une société qui externalise massivement ces capacités risque une forme d'atrophie diffuse : plus d'outputs, moins d'auteurs ; plus de contenus, moins de pensée.
La multiplication des productions générées augmente objectivement la quantité d'information disponible. Mais elle fait chuter la valeur attentionnelle. Dans un tel régime d'abondance, l'attention devient une ressource rare, non renouvelable à l'échelle d'une journée humaine. Et cette pression continue produit un stress croissant. Sur ce point, j'ouvrirai peut-être une discussion spécifique une autre fois.
Réévaluer, reconceptualiser, relocaliser
Dé-penser l'IA appelle une triple opération. La première est de réévaluer. Nous avons sacralisé la triade efficacité-vitesse-immédiateté comme si elle constituait, en soi, une finalité humaine. Or
l'immédiateté est devenue une commodité.
Elle n'est pas un critère suffisant de qualité. Une réponse instantanée peut être correcte et pourtant vide ; rapide et pourtant inadaptée ; brillante et pourtant sans prise sur le réel vécu. Réévaluer, c'est redonner du prix à des dimensions devenues discrètes : lenteur féconde, erreur formatrice, reprise critique, itération patiente, maturation longue. Dans un monde qui confond souvent "premier résultat" et "meilleure réponse", la lenteur redevient un acte intellectuel.
La deuxième opération est de reconceptualiser. Nous devons sortir de la métaphore de l'IA-cerveau. Cette métaphore flatte l'imaginaire, mais elle entretient une confusion. Un modèle génératif n'est pas un esprit. C'est un outil puissant, utile, parfois impressionnant, mais sans intériorité, sans vécu, sans responsabilité morale. Reconceptualiser ne réduit pas la machine. Au contraire, cela permet de mieux l'utiliser. Quand on cesse d'attendre d'elle ce qu'elle ne peut pas donner, on devient plus exigeant sur ce qu'elle peut réellement apporter : vitesse de traitement, variations de formulation, assistance au cadrage, exploration d'angles, support d'optimisation.
La troisième opération est de relocaliser. Relocaliser, ce n'est pas se fermer. C'est remettre les usages à une échelle gouvernable : modèles plus petits quand c'est possible, maîtrise locale des données quand c'est pertinent, arbitrages explicites sur les tâches déléguées. Relocaliser, c'est aussi réhabiliter le savoir incarné : discussion humaine, intuition professionnelle, expérience de terrain, intelligence situationnelle. Ces formes de savoir ne s'opposent pas aux statistiques ; elles les contextualisent.
Dans ce cadre, la friction cognitive devient une pratique volontaire. Choisir délibérément de ne pas utiliser l'IA pour certaines tâches, ce n'est pas perdre du temps : c'est entretenir la "musculature" intellectuelle qui rend possible un usage plus lucide et plus souverain de l'outil.
Zones sanctuaires et nouvelle autonomie
Nous sommes devant un choix de civilisation cognitive. Soit nous poursuivons l'escalade vers une externalisation progressive de la pensée. Soit nous définissons des zones sanctuaires pour l'intelligence humaine. Une zone sanctuaire n'est pas une enclave nostalgique. Ce n'est pas une réserve anti-technologie. C'est un espace méthodiquement protégé où la production de sens reste adossée à un effort humain non délégable : interpréter, juger, relier des expériences, prendre position, assumer des conséquences.
Dans une zone sanctuaire, la valeur d'une réflexion ne se mesure pas à sa vitesse de génération mais à la densité du cheminement intérieur qui l'a rendue possible. Ce cheminement comprend des détours, des hésitations, des erreurs, des reprises. Il est parfois coûteux, mais il est formateur. La notion de sanctuaire a aussi une portée politique : elle nomme ce que nous décidons collectivement de ne pas abandonner à l'automatisation. Pas par peur, mais par responsabilité envers ce qui fonde notre autonomie.
Cette logique ouvre vers une nouvelle autonomie cognitive. L'enjeu n'est pas de supprimer les outils, mais de ne pas leur abandonner les fonctions qui structurent le sujet : capacité d'analyse, de synthèse, de création, de discernement moral. En d'autres termes : assistance, oui ; substitution, non.
L'autonomie n'est pas un état naturel. C'est une discipline.
Elle se construit par des règles d'usage, des seuils, des arbitrages, des renoncements explicites. La vraie question n'est donc pas "pouvons-nous automatiser ?" mais "que voulons-nous encore exercer nous-mêmes ?".
Le tournant éducatif
Si un lieu peut rendre cette bascule concrète, c'est l'éducation, et tout particulièrement l'enseignement supérieur. Parce que c'est là que se joue la transmission d'une compétence rarement nommée : la capacité à devenir auteur de son propre raisonnement dans un contexte professionnel. Pour l'enseignant que je suis, deux principes se dessinent ici.
La primauté du geste mental : Si l'outil intervient trop tôt, l'étudiant.e apprend à obtenir un résultat avant d'apprendre à construire une pensée. Elle ou il maîtrise des procédures de sortie sans développer les opérations internes qui rendent une pensée robuste : problématiser, distinguer, argumenter, nuancer, relier.
La primauté du geste mental n'exclut pas l'IA. Elle en séquence l'usage. Elle dit : d'abord former l'humain, ensuite augmenter sa puissance opératoire.
Le sanctuaire contre l'obsolescence de l'humain : Former, c'est préserver un espace où l'humain demeure la mesure de la valeur intellectuelle. Cela implique de réhabiliter la lenteur, le droit à l'erreur, la reprise, l'inconfort fécond, le doute argumenté. Ce qui paraît inefficace à court terme est souvent le socle de la souveraineté cognitive à long terme.
L'IA doit fonctionner comme une béquille pour celui qui sait déjà marcher, pas comme un substitut pour celui qui n'a pas encore appris à marcher. Cette analogie est cruciale : une béquille amplifie une compétence acquise ; elle ne fabrique pas la compétence de base. Après maîtrise, l'IA peut devenir un levier puissant d'efficacité et d'exploration. Mais cette efficacité n'est saine que si le professionnel garde l'oeil critique pour repérer biais, erreurs subtiles, faiblesses argumentatives, simplifications trompeuses, médiocrité stylistique déguisée en clarté.
À ce titre, l'IA n'est pas un remplacement ; elle est un débordement de compétences. Elle étend un sujet déjà formé, elle ne doit pas fabriquer un sujet dépendant. Si l'école devient le lieu où l'on apprend d'abord à se passer de la machine, elle pourrait devenir l'institution la plus précieuse et la plus subversive de la société de croissance numérique : un lieu qui forme des citoyens capables d'utiliser les outils sans se laisser configurer entièrement par eux.
Vers une pedagogie du seuil
Cette orientation peut se traduire par une pédagogie du seuil. Le principe est simple : définir à partir de quel niveau de maîtrise l'usage de l'IA devient pertinent, et à quelles conditions il reste formateur. Placer l'outil trop tôt court-circuite l'apprentissage. L'étudiant.e saute les étapes d'appropriation cognitive et adopte des routines d'exécution. Elle ou il obtient un livrable, mais ne construit pas toujours la charpente conceptuelle qui permettrait de juger la qualité de ce livrable. Placer l'outil plus tard transforme sa fonction. Il ne sert plus à apprendre à la place de l'étudiant ; il sert à produire, optimiser, explorer des variantes, comparer des scénarios, accélérer des tâches périphériques, libérer du temps pour la décision et la créativité située. Dans cette logique,
l'idée d'un "permis IA" devient pertinente.
Le terme peut sembler strict ; il est en réalité structurant. Il signale une progression : démontrer d'abord la compétence sans assistance, puis autoriser l'assistance en fonction des objectifs. Ce permis n'aurait pas vocation punitive. Il formaliserait une éthique de l'usage : l'outil comme amplification après maîtrise, pas comme béquille avant apprentissage. La pédagogie du seuil apporte aussi une clarté institutionnelle. Elle aide à sortir du dilemme stérile entre interdiction totale et intégration indiscriminée. Elle introduit des conditions, des temporalités, des finalités, donc du discernement.
Evaluer autrement
Si les usages changent, l'évaluation doit changer en profondeur. Continuer à mesurer uniquement des produits finis dans un contexte de génération assistée revient à évaluer l'habileté de pilotage d'outil plus que la compétence intellectuelle.
Un premier axe est la preuve d'autonomie : es-tu capable de produire ce résultat sans assistance, peut-être plus lentement, mais avec une compréhension explicite de la démarche ? Cette preuve ne vise pas à humilier ni à freiner. Elle vérifie que la compétence existe réellement chez le sujet, et qu'elle n'est pas une illusion de performance transférée à l'outil.
Un deuxième axe est l'esprit critique : es-tu capable de détecter les erreurs subtiles de l'IA, ses biais de formulation, ses contradictions internes, ses zones de faux aplomb ? Dans un monde saturé de textes plausibles, la compétence clé devient la capacité de jugement, pas seulement la capacité de production.
En résonance avec Rabardel, cela consisterait à évaluer trois régimes :
l'instrumentalisation : l'étudiant.e explicite comment elle ou il configure et mobilise l'outil pour une tâche donnée ;
l'instrumentation : l'outil reconfigure en retour les manières de penser, d'écrire, de problématiser, de décider ;
un régime strictement humain : certaines évaluations se déroulent volontairement sans IA, pour préserver et mesurer des capacités cognitives irréductibles.
Ce triptyque permet d'éviter un faux débat. L'enjeu n'est pas "avec ou sans IA" dans l'absolu. L'enjeu est de savoir ce que l'on veut observer, former et certifier dans chaque situation. Autrement dit,
il ne suffit plus d'évaluer un résultat. Il faut évaluer une relation de travail entre un sujet et un outil,
tout en protégeant des espaces où la pensée humaine s'exerce seule, pour rester capable d'assumer la responsabilité intellectuelle et professionnelle.
Choisir la pensee juste
Nous avons pris l'habitude de poser la question en termes d'adoption : faut-il intégrer l'IA partout, vite, maintenant ? Je propose de déplacer la question : que ne devons-nous jamais automatiser ? Ce déplacement est décisif parce qu'il réintroduit la finalité avant le moyen. Il oblige à clarifier ce que nous tenons pour non substituable : jugement, responsabilité, relation, discernement éthique, construction du sens, transmission incarnée.
Il remet aussi l'humain au centre sans diaboliser la technique. Il ne s'agit pas de choisir entre fascination et rejet. Il s'agit d'installer une sympoïèse juste : coopérer avec la machine sans lui transférer l'autorité cognitive. Dé-penser l'IA n'est donc pas un programme nostalgique. C'est un pari exigeant sur l'avenir. Un pari qui assume que l'effort, la lenteur, la nuance, l'erreur, la reprise et la responsabilité demeurent des conditions de l'intelligence humaine, y compris dans des environnements hautement technologisés.
Cette posture est à la fois personnelle et collective. Personnelle, parce qu'elle engage nos habitudes quotidiennes : quand déléguer, quand résister, quand vérifier, quand refaire soi-même. Collective, parce qu'elle appelle des institutions capables de fixer des cadres, des seuils et des sanctuaires.
Peut-être que la vraie modernité se trouve précisément là : non pas déléguer notre discernement à ce qui calcule mieux que nous, mais habiter lucidement la frontière entre puissance technique et responsabilité humaine. Cette frontière n'est pas une limite triste. C'est un lieu d'exigence, donc de liberté, et peut-être la condition la plus concrète de notre souveraineté cognitive à venir.
Ces trois (re-)lectures durant les vacances de Pâques m'ont principalement inspiré pour rédiger ce post :
- Latouche, Serge. Le Pari de la décroissance. Fayard, 2006.
- Rabardel, Pierre. Les hommes et les technologies; approche cognitive des instruments contemporains. Armand Colin 1995.
- Zundel, Maurice. Vivre Dieu - L'art et la joie de croire. Presses de la Renaissance, 2007.
