Skip to main content

Dé-penser l'IA

Est-ce que penser plus vite, plus large et plus profond veut dire penser mieux ? La question semble simple. Elle est pourtant devenue décisive, presque intime, depuis que des agents conversationnels peuvent produire en quelques secondes des textes convaincants, bien structurés, parfois même élégants, qui donnent le sentiment que la pensée est devenue une commodité à la demande.

Ce déplacement est majeur. Pendant longtemps, nous avons distingué assez clairement l'information, la connaissance, le jugement et la sagesse. Aujourd'hui, ces étages se brouillent, parce qu'un même outil peut donner l'illusion d'habiter les quatre niveaux en même temps. Il fournit une réponse, la formule avec autorité, enchaîne avec fluidité, et notre esprit comble spontanément le reste : nous projetons une compréhension, une intention, parfois une forme de présence.

J'avance ici une intuition directrice : de la même manière qu'une croissance infinie dans un monde fini relève d'une impossibilité physique, une connaissance infinie dans une conscience finie relève d'une impossibilité humaine. Nous pouvons multiplier les données presque sans limite. Nous ne pouvons pas élargir indéfiniment notre capacité d'attention, notre puissance d'incarnation, notre faculté de discernement, ni le temps réellement disponible pour transformer des informations en expérience intérieure.

Cette limite n'est pas un défaut. Elle est la condition même de la pensée humaine. Parce que nous sommes situés, incarnés, vulnérables, faillibles, nous sommes aussi capables d'interprétation, de sens, de responsabilité. Si nous oublions cela, nous confondons performance de calcul et acte de penser. De cette intuition naît une proposition : dé-penser l'IA. Dé-penser, avec un tiret. Non pas cesser de penser. Non pas revenir en arrière. Mais apprendre à penser juste avec l'IA, dans une relation qui garde l'humain comme sujet, et non comme simple terminal d'exécution.

De la décroissance à la dé-pensée

L'analogie avec la décroissance n'est pas un effet de style. Elle est structurante. Dans la lignée de Serge Latouche, la décroissance ne dit pas seulement "moins". Elle conteste l'idée que l'on pourrait prolonger indéfiniment le même imaginaire productiviste en lui ajoutant une couche de vernis vert. Elle questionne un récit : celui d'une expansion sans fin qui s'auto-justifie par ses propres promesses.

Ce que je retiens de cette perspective, c'est son exigence de lucidité sémantique. Un mot peut protéger une pratique au lieu de la transformer. Le "durable" peut devenir une permission de continuer. Le langage peut servir de paravent.

Dans le champ de l'IA, je vois une tension similaire. Les adjectifs "éthique", "responsable", "de confiance" sont parfois nécessaires, mais ils peuvent aussi fonctionner comme des alibis discursifs. Ils rendent acceptable l'accélération technologique sans toujours examiner ce qui est déplacé au niveau de la pensée, de l'autonomie, de la transmission du savoir, de la qualité du jugement.

Le risque n'est pas dans les mots eux-mêmes. Le risque est dans leur usage anesthésiant. Lorsque l'étiquette remplace le questionnement, nous ne gouvernons plus le changement : nous l'accompagnons passivement.

Dire cela ne revient pas à diaboliser l'IA. Cela revient à refuser une imposture sémantique. On n' "humanise" pas un algorithme parce qu'il produit des phrases chaleureuses. On ne transforme pas un outil en sujet moral par décret. Et on ne protège pas automatiquement la pensée humaine en ajoutant des garde-fous déclaratifs à un système qui continue à pousser vers l'automatisation des gestes intellectuels.

La dé-pensée, dans ce cadre, est une pratique de clarification. Elle oblige à distinguer ce que la machine fait, ce qu'elle simule, ce qu'elle ne peut pas faire, et surtout ce que nous ne devons pas lui abandonner.

Le point aveugle : la dépossession cognitive

Le coeur du problème n'est pas seulement technique, il est cognitif. Quand un système dialogue avec aisance, nous glissons vite vers une confusion de catégories : nous prenons la fluidité syntaxique pour de la compréhension, la pertinence statistique pour de l'intention, et la cohérence locale d'une réponse pour une vision du monde.

Ce glissement est subtil parce qu'il est agréable. Il réduit l'effort, raccourcit l'incertitude, apaise provisoirement l'anxiété du vide. Or penser, souvent, commence précisément là où le confort s'arrête : dans l'hésitation, la reformulation, la confrontation au réel, la vérification patiente, la confrontation avec ses propres angles morts.

J'appelle dépossession cognitive le moment où nous déléguons non seulement des tâches, mais des micro-actes intellectuels constitutifs du sujet : formuler une question juste, comparer des hypothèses, qualifier un doute, tenir une contradiction, supporter un temps de non-réponse, assumer une décision.

La dépossession ne se voit pas immédiatement. Elle s'installe par micro-renoncements. "Je vais plus vite ainsi." "Je reformulerai plus tard." "Ce résultat est probablement correct." Peu à peu, l'outil ne sert plus un processus humain robuste ; il devient la charpente implicite de notre raisonnement quotidien.

On objectera : ces outils font gagner du temps. C'est vrai, parfois, et il serait absurde de le nier. Mais la bonne question est : quel temps gagne-t-on, et pour quoi faire ? Si le temps économisé n'est pas réinvesti dans l'analyse, l'enquête, la rencontre, la création située, alors ce gain apparent peut se transformer en perte nette de puissance critique.

On peut externaliser des opérations. On ne peut pas externaliser sans conséquence la capacité d'analyser, de synthétiser et de créer. Une société qui externalise massivement ces capacités risque une forme d'atrophie diffuse : plus d'outputs, moins d'auteurs ; plus de contenus, moins de pensée.

La multiplication des productions générées augmente objectivement la quantité d'information disponible. Mais elle fait chuter la valeur attentionnelle. Dans un tel régime d'abondance, l'attention devient une ressource rare, non renouvelable à l'échelle d'une journée humaine. Et cette pression continue produit un stress croissant. Sur ce point, j'ouvrirai peut-être une discussion spécifique une autre fois.

Réévaluer, reconceptualiser, relocaliser

Dé-penser l'IA appelle une triple opération. La première est de réévaluer. Nous avons sacralisé la triade efficacité-vitesse-immédiateté comme si elle constituait, en soi, une finalité humaine. Or 

l'immédiateté est devenue une commodité. 

Elle n'est pas un critère suffisant de qualité. Une réponse instantanée peut être correcte et pourtant vide ; rapide et pourtant inadaptée ; brillante et pourtant sans prise sur le réel vécu. Réévaluer, c'est redonner du prix à des dimensions devenues discrètes : lenteur féconde, erreur formatrice, reprise critique, itération patiente, maturation longue. Dans un monde qui confond souvent "premier résultat" et "meilleure réponse", la lenteur redevient un acte intellectuel.

La deuxième opération est de reconceptualiser. Nous devons sortir de la métaphore de l'IA-cerveau. Cette métaphore flatte l'imaginaire, mais elle entretient une confusion. Un modèle génératif n'est pas un esprit. C'est un outil puissant, utile, parfois impressionnant, mais sans intériorité, sans vécu, sans responsabilité morale. Reconceptualiser ne réduit pas la machine. Au contraire, cela permet de mieux l'utiliser. Quand on cesse d'attendre d'elle ce qu'elle ne peut pas donner, on devient plus exigeant sur ce qu'elle peut réellement apporter : vitesse de traitement, variations de formulation, assistance au cadrage, exploration d'angles, support d'optimisation.

La troisième opération est de relocaliser. Relocaliser, ce n'est pas se fermer. C'est remettre les usages à une échelle gouvernable : modèles plus petits quand c'est possible, maîtrise locale des données quand c'est pertinent, arbitrages explicites sur les tâches déléguées. Relocaliser, c'est aussi réhabiliter le savoir incarné : discussion humaine, intuition professionnelle, expérience de terrain, intelligence situationnelle. Ces formes de savoir ne s'opposent pas aux statistiques ; elles les contextualisent.

Dans ce cadre, la friction cognitive devient une pratique volontaire. Choisir délibérément de ne pas utiliser l'IA pour certaines tâches, ce n'est pas perdre du temps : c'est entretenir la "musculature" intellectuelle qui rend possible un usage plus lucide et plus souverain de l'outil.

Zones sanctuaires et nouvelle autonomie

Nous sommes devant un choix de civilisation cognitive. Soit nous poursuivons l'escalade vers une externalisation progressive de la pensée. Soit nous définissons des zones sanctuaires pour l'intelligence humaine. Une zone sanctuaire n'est pas une enclave nostalgique. Ce n'est pas une réserve anti-technologie. C'est un espace méthodiquement protégé où la production de sens reste adossée à un effort humain non délégable : interpréter, juger, relier des expériences, prendre position, assumer des conséquences.

Dans une zone sanctuaire, la valeur d'une réflexion ne se mesure pas à sa vitesse de génération mais à la densité du cheminement intérieur qui l'a rendue possible. Ce cheminement comprend des détours, des hésitations, des erreurs, des reprises. Il est parfois coûteux, mais il est formateur. La notion de sanctuaire a aussi une portée politique : elle nomme ce que nous décidons collectivement de ne pas abandonner à l'automatisation. Pas par peur, mais par responsabilité envers ce qui fonde notre autonomie.

Cette logique ouvre vers une nouvelle autonomie cognitive. L'enjeu n'est pas de supprimer les outils, mais de ne pas leur abandonner les fonctions qui structurent le sujet : capacité d'analyse, de synthèse, de création, de discernement moral. En d'autres termes : assistance, oui ; substitution, non. 

L'autonomie n'est pas un état naturel. C'est une discipline. 

Elle se construit par des règles d'usage, des seuils, des arbitrages, des renoncements explicites. La vraie question n'est donc pas "pouvons-nous automatiser ?" mais "que voulons-nous encore exercer nous-mêmes ?".

Le tournant éducatif

Si un lieu peut rendre cette bascule concrète, c'est l'éducation, et tout particulièrement l'enseignement supérieur. Parce que c'est là que se joue la transmission d'une compétence rarement nommée : la capacité à devenir auteur de son propre raisonnement dans un contexte professionnel. Pour l'enseignant que je suis, deux principes se dessinent ici.

La primauté du geste mental :  Si l'outil intervient trop tôt, l'étudiant.e apprend à obtenir un résultat avant d'apprendre à construire une pensée. Elle ou il maîtrise des procédures de sortie sans développer les opérations internes qui rendent une pensée robuste : problématiser, distinguer, argumenter, nuancer, relier. 

La primauté du geste mental n'exclut pas l'IA. Elle en séquence l'usage. Elle dit : d'abord former l'humain, ensuite augmenter sa puissance opératoire.

Le sanctuaire contre l'obsolescence de l'humain : Former, c'est préserver un espace où l'humain demeure la mesure de la valeur intellectuelle. Cela implique de réhabiliter la lenteur, le droit à l'erreur, la reprise, l'inconfort fécond, le doute argumenté. Ce qui paraît inefficace à court terme est souvent le socle de la souveraineté cognitive à long terme. 

L'IA doit fonctionner comme une béquille pour celui qui sait déjà marcher, pas comme un substitut pour celui qui n'a pas encore appris à marcher. Cette analogie est cruciale : une béquille amplifie une compétence acquise ; elle ne fabrique pas la compétence de base. Après maîtrise, l'IA peut devenir un levier puissant d'efficacité et d'exploration. Mais cette efficacité n'est saine que si le professionnel garde l'oeil critique pour repérer biais, erreurs subtiles, faiblesses argumentatives, simplifications trompeuses, médiocrité stylistique déguisée en clarté.

À ce titre, l'IA n'est pas un remplacement ; elle est un débordement de compétences. Elle étend un sujet déjà formé, elle ne doit pas fabriquer un sujet dépendant. Si l'école devient le lieu où l'on apprend d'abord à se passer de la machine, elle pourrait devenir l'institution la plus précieuse et la plus subversive de la société de croissance numérique : un lieu qui forme des citoyens capables d'utiliser les outils sans se laisser configurer entièrement par eux.

Vers une pedagogie du seuil

Cette orientation peut se traduire par une pédagogie du seuil. Le principe est simple : définir à partir de quel niveau de maîtrise l'usage de l'IA devient pertinent, et à quelles conditions il reste formateur. Placer l'outil trop tôt court-circuite l'apprentissage. L'étudiant.e saute les étapes d'appropriation cognitive et adopte des routines d'exécution. Elle ou il obtient un livrable, mais ne construit pas toujours la charpente conceptuelle qui permettrait de juger la qualité de ce livrable. Placer l'outil plus tard transforme sa fonction. Il ne sert plus à apprendre à la place de l'étudiant ; il sert à produire, optimiser, explorer des variantes, comparer des scénarios, accélérer des tâches périphériques, libérer du temps pour la décision et la créativité située. Dans cette logique, 

l'idée d'un "permis IA" devient pertinente. 

Le terme peut sembler strict ; il est en réalité structurant. Il signale une progression : démontrer d'abord la compétence sans assistance, puis autoriser l'assistance en fonction des objectifs. Ce permis n'aurait pas vocation punitive. Il formaliserait une éthique de l'usage : l'outil comme amplification après maîtrise, pas comme béquille avant apprentissage. La pédagogie du seuil apporte aussi une clarté institutionnelle. Elle aide à sortir du dilemme stérile entre interdiction totale et intégration indiscriminée. Elle introduit des conditions, des temporalités, des finalités, donc du discernement.

Evaluer autrement

Si les usages changent, l'évaluation doit changer en profondeur. Continuer à mesurer uniquement des produits finis dans un contexte de génération assistée revient à évaluer l'habileté de pilotage d'outil plus que la compétence intellectuelle.

Un premier axe est la preuve d'autonomie : es-tu capable de produire ce résultat sans assistance, peut-être plus lentement, mais avec une compréhension explicite de la démarche ? Cette preuve ne vise pas à humilier ni à freiner. Elle vérifie que la compétence existe réellement chez le sujet, et qu'elle n'est pas une illusion de performance transférée à l'outil.

Un deuxième axe est l'esprit critique : es-tu capable de détecter les erreurs subtiles de l'IA, ses biais de formulation, ses contradictions internes, ses zones de faux aplomb ? Dans un monde saturé de textes plausibles, la compétence clé devient la capacité de jugement, pas seulement la capacité de production.

En résonance avec Rabardel, cela consisterait à évaluer trois régimes :

  • l'instrumentalisation : l'étudiant.e explicite comment elle ou il configure et mobilise l'outil pour une tâche donnée ;

  • l'instrumentation : l'outil reconfigure en retour les manières de penser, d'écrire, de problématiser, de décider ;

  • un régime strictement humain : certaines évaluations se déroulent volontairement sans IA, pour préserver et mesurer des capacités cognitives irréductibles.

Ce triptyque permet d'éviter un faux débat. L'enjeu n'est pas "avec ou sans IA" dans l'absolu. L'enjeu est de savoir ce que l'on veut observer, former et certifier dans chaque situation. Autrement dit, 

il ne suffit plus d'évaluer un résultat. Il faut évaluer une relation de travail entre un sujet et un outil, 

tout en protégeant des espaces où la pensée humaine s'exerce seule, pour rester capable d'assumer la responsabilité intellectuelle et professionnelle.

Choisir la pensee juste

Nous avons pris l'habitude de poser la question en termes d'adoption : faut-il intégrer l'IA partout, vite, maintenant ? Je propose de déplacer la question : que ne devons-nous jamais automatiser ? Ce déplacement est décisif parce qu'il réintroduit la finalité avant le moyen. Il oblige à clarifier ce que nous tenons pour non substituable : jugement, responsabilité, relation, discernement éthique, construction du sens, transmission incarnée.

Il remet aussi l'humain au centre sans diaboliser la technique. Il ne s'agit pas de choisir entre fascination et rejet. Il s'agit d'installer une sympoïèse juste : coopérer avec la machine sans lui transférer l'autorité cognitive. Dé-penser l'IA n'est donc pas un programme nostalgique. C'est un pari exigeant sur l'avenir. Un pari qui assume que l'effort, la lenteur, la nuance, l'erreur, la reprise et la responsabilité demeurent des conditions de l'intelligence humaine, y compris dans des environnements hautement technologisés.

Cette posture est à la fois personnelle et collective. Personnelle, parce qu'elle engage nos habitudes quotidiennes : quand déléguer, quand résister, quand vérifier, quand refaire soi-même. Collective, parce qu'elle appelle des institutions capables de fixer des cadres, des seuils et des sanctuaires. 

Peut-être que la vraie modernité se trouve précisément là : non pas déléguer notre discernement à ce qui calcule mieux que nous, mais habiter lucidement la frontière entre puissance technique et responsabilité humaine. Cette frontière n'est pas une limite triste. C'est un lieu d'exigence, donc de liberté, et peut-être la condition la plus concrète de notre souveraineté cognitive à venir.


Ces trois (re-)lectures durant les vacances de Pâques m'ont principalement inspiré pour rédiger ce post : 

  • Latouche, Serge. Le Pari de la décroissance. Fayard, 2006. 
  • Rabardel, Pierre. Les hommes et les technologies; approche cognitive des instruments contemporains. Armand Colin 1995. 
  • Zundel, Maurice. Vivre Dieu - L'art et la joie de croire. Presses de la Renaissance, 2007. 

Popular posts from this blog

La Sobriété Intellectuelle appliquée à l’économie et à l’entreprise

La Sobriété Intellectuelle   désigne une posture de modération et de lucidité dans l’usage de l’intelligence – qu’elle soit humaine ou artificielle – appliquée au contexte économique et managérial. À l’heure où l’ intelligence artificielle (IA)   s’immisce dans l’analyse stratégique, la prise de décision économique et le management, cette sobriété se pose en contrepoids salutaire à l’enthousiasme parfois débridé pour la technologie. Par   sobriété , on entend une forme de   tempérance intellectuelle   : éviter l’ivresse des données, le   solutionnisme technologique   à tout crin, et garder un esprit critique humble face aux promesses de l’IA. Il s’agit de reconnaître les   limites cognitives   humaines (biais, vulnérabilités, tendance à surestimer nos modèles) et les limites des machines, afin de ne pas tomber dans l’excès de confiance ou la dépendance aveugle aux algorithmes. Thomas Steiner  - avec le concours incontesté de quelques out...

An Ethical Framework for Exams and Continuous Assessment with AI

Throughout the history of education, a multitude of diverse and even contentious methodologies have been employed to assess knowledge and aptitude. Several assessment methods have been employed, ranging from oral examinations to written tests, all with the overarching objective of discerning the extent to which students comprehend the subject matter in a manner that is equitable, comprehensive, and optimal. In the present context, amidst the cusp of a forthcoming epoch, the ongoing discourse persists, albeit with a futuristic inclination. The emergence of Artificial Intelligence (AI) has brought about transformative changes in the field of education, revolutionizing the tools and methodologies employed for assessment and evaluation. As we transition into this emerging era, it is crucial to discuss the implications for the fundamental principles and ideals of education. The conventional methods of assessment, commonly characterized by high-stakes examinations and standardized tests, ha...

An Introduction to (Reverse) Meta-Prompting

Meta-prompts are prompts about prompts – they are instructions designed to guide an AI in creating or improving other prompts. In simpler terms, instead of directly asking a question or task, you ask the AI to help craft the question or task . This approach operates at a higher level of abstraction, treating the prompt itself as the subject for the AI to work on. For example, a tourism marketer could use a meta-prompt by asking: “Generate a prompt that would get an AI to write a vivid description of a tropical island destination focusing on local culture and attractions.” The AI might then output a well-structured prompt (e.g. "Describe a tropical island resort, highlighting cultural experiences, cuisine, and scenic attractions, in an enticing tone" ) which the marketer can use to get a high-quality description. How do meta-prompts work and why are they useful? Essentially, meta-prompts leverage the AI’s own knowledge of language patterns to produce better instructions. The...