Skip to main content

Savoir-Déléguer à l'IA

Pendant plus ou moins deux ans, l'IA générative a surtout été utilisée comme interface conversationnelle: on ouvre une session, on explique le contexte, on demande un livrable, puis on recommence ailleurs. Ce modèle a créé de la vitesse, mais aussi une fragilité structurelle: la qualité dépend du temps de reformulation, de la mémoire de la personne, et de la cohérence de chaque nouveau prompt. Depuis plus récemment, on observe une évolution nette vers des agents capables d'activer des "skills", c'est-à-dire des capacités décrites et persistantes. Le centre de gravité se déplace donc de la discussion vers la configuration: l'organisation ne cherche plus seulement à obtenir une bonne réponse, elle cherche à installer un comportement reproductible.

Techniquement, ce mécanisme est simple mais puissant. Un skill est en général un dossier avec un fichier de définition (souvent en Markdown) qui contient au minimum un nom, une description d'usage, un protocole d'exécution et un format de sortie attendu; il peut aussi inclure des scripts, des templates et des références. Lorsqu'un utilisateur formule une demande, l'agent compare la requête aux descriptions disponibles, sélectionne le skill pertinent, charge ses instructions comme contexte d'exécution, puis applique ses étapes de manière explicite ou implicite. Le résultat est double: d'un côté, moins de re-prompting manuel; de l'autre, une meilleure traçabilité des règles de travail, puisque les consignes ne sont plus dissoutes dans des conversations éphémères mais ancrées dans des artefacts versionnables et partageables.

Mais il faut poser une distinction de fond: 

un skill n'est pas encore une compétence. 

Un skill est une structure externe, codée, documentée, exécutable. Une compétence, elle, est une capacité humaine à juger, adapter, arbitrer et répondre des effets d'une action dans un contexte réel. On peut importer un skill en quelques secondes; on ne télécharge pas la compréhension du contexte, la responsabilité professionnelle ni le discernement éthique. Confondre les deux crée une illusion dangereuse de maîtrise.

Dans la pratique, l'idée selon laquelle rédiger des prompts deviendrait superflu parce qu'il suffit d'importer des skills est donc trompeuse. Les skills réduisent le travail répétitif de formulation, c'est vrai; ils ne suppriment ni le cadrage initial, ni la qualification de la demande, ni la vérification de la sortie. Même avec une bibliothèque solide, il faut encore préciser l'intention, ajuster les contraintes, gérer les exceptions, corriger les ambiguïtés de vocabulaire et arbitrer les compromis. Le prompt n'a pas disparu: il a changé de place. Il devient l'interface de pilotage d'un système plus riche, pas un artefact obsolète.

Pour déléguer de façon responsable à une boîte noire, il faut d'abord savoir faire - au moins conceptuellement - ce qu'on délègue sans elle. Sinon, on ne délègue pas, on abdique. Trois compétences deviennent alors centrales. 

  1. Premièrement, la compétence de cadrage: transformer un besoin flou en mandat explicite (objectif, périmètre, critères de qualité, limites). 
  2. Deuxièmement, la compétence de contrôle: évaluer la sortie, détecter les erreurs, estimer les risques et décider ce qui est publiable, exécutable ou non. 
  3. Troisièmement, la compétence d'intégration: articuler la production de l'IA dans un processus humain réel, avec responsabilité, traçabilité et boucle d'amélioration.

Pourquoi est-ce décisif ? Parce que 

la délégation est une question de souveraineté cognitive autant que d'efficacité. 

Tant qu'une équipe reste dans le réflexe "copier un skill et lancer", elle gagne peut-être en rapidité locale, mais elle perd en compréhension et en autonomie critique. Dès qu'elle documente ses choix, explicite ses standards et relie ses outils à des responsabilités nommées, elle reprend la main. Elle ne subit plus la machine: elle l'oriente. C'est cette différence qui, à long terme, sépare les organisations outillées des organisations vraiment compétentes.

Pour les entreprises, les conséquences sont très concrètes: gouvernance plus lisible, qualité plus stable, risques mieux maîtrisés, dépendance réduite à quelques profils sur-sollicités. Un portefeuille de skills utile n'est pas une collection de recettes, c'est un actif de méthode qui doit être gouverné: versionning, ownership, critères de validation, audit régulier, retrait des artefacts obsolètes. Cela implique aussi de clarifier les niveaux d'autonomie accordés aux équipes, les zones non délégables, et les mécanismes d'escalade quand un résultat IA est incertain. Les organisations qui cadrent ces points gagnent en vitesse sans sacrifier la responsabilité; celles qui ne le font pas déplacent simplement leurs fragilités du travail humain vers une automatisation mal pilotée.

Pour la formation, l'enjeu mérite un traitement séparé, et probablement plus exigeant encore. Il ne s'agit pas seulement d'apprendre à parler à l'IA, mais d'apprendre à concevoir, tester, maintenir et critiquer des chaînes de délégation (cf. ma chronique sur le Couloir Humain). Cela ouvre une question sensible: faut-il interdire l'usage de l'IA pendant certaines évaluations ? La question est légitime, car ce que nous voulons mesurer n'est pas la capacité à obtenir un résultat assisté, mais la capacité de l'étudiant.e à comprendre, structurer et produire sans assistance, avant toute délégation. Dans la logique même de cette chronique, la règle devrait être claire:

pas de délégation valide sans compétence préalable démontrée. 

L'IA peut ensuite devenir un accélérateur pédagogique puissant, mais seulement après preuve de maîtrise autonome.

La perspective est claire: nous passons d'une culture de l'assistance à une culture de l'orchestration. Les organisations qui se contenteront d'accumuler des skills gagneront des gains rapides mais fragiles. Celles qui transformeront ces skills en compétences collectives construiront un avantage durable: meilleure continuité, meilleure transmission, meilleure qualité décisionnelle. Le vrai progrès n'est pas de déléguer plus; c'est de déléguer mieux, avec lucidité sur ce que la machine fait, et sur ce qu'elle ne fera jamais à notre place: juger, assumer, décider.

Il faut savoir parler à l'IA et penser avec l'IA.

Popular posts from this blog

La Sobriété Intellectuelle appliquée à l’économie et à l’entreprise

La Sobriété Intellectuelle   désigne une posture de modération et de lucidité dans l’usage de l’intelligence – qu’elle soit humaine ou artificielle – appliquée au contexte économique et managérial. À l’heure où l’ intelligence artificielle (IA)   s’immisce dans l’analyse stratégique, la prise de décision économique et le management, cette sobriété se pose en contrepoids salutaire à l’enthousiasme parfois débridé pour la technologie. Par   sobriété , on entend une forme de   tempérance intellectuelle   : éviter l’ivresse des données, le   solutionnisme technologique   à tout crin, et garder un esprit critique humble face aux promesses de l’IA. Il s’agit de reconnaître les   limites cognitives   humaines (biais, vulnérabilités, tendance à surestimer nos modèles) et les limites des machines, afin de ne pas tomber dans l’excès de confiance ou la dépendance aveugle aux algorithmes. Thomas Steiner  - avec le concours incontesté de quelques out...

An Ethical Framework for Exams and Continuous Assessment with AI

Throughout the history of education, a multitude of diverse and even contentious methodologies have been employed to assess knowledge and aptitude. Several assessment methods have been employed, ranging from oral examinations to written tests, all with the overarching objective of discerning the extent to which students comprehend the subject matter in a manner that is equitable, comprehensive, and optimal. In the present context, amidst the cusp of a forthcoming epoch, the ongoing discourse persists, albeit with a futuristic inclination. The emergence of Artificial Intelligence (AI) has brought about transformative changes in the field of education, revolutionizing the tools and methodologies employed for assessment and evaluation. As we transition into this emerging era, it is crucial to discuss the implications for the fundamental principles and ideals of education. The conventional methods of assessment, commonly characterized by high-stakes examinations and standardized tests, ha...

An Introduction to (Reverse) Meta-Prompting

Meta-prompts are prompts about prompts – they are instructions designed to guide an AI in creating or improving other prompts. In simpler terms, instead of directly asking a question or task, you ask the AI to help craft the question or task . This approach operates at a higher level of abstraction, treating the prompt itself as the subject for the AI to work on. For example, a tourism marketer could use a meta-prompt by asking: “Generate a prompt that would get an AI to write a vivid description of a tropical island destination focusing on local culture and attractions.” The AI might then output a well-structured prompt (e.g. "Describe a tropical island resort, highlighting cultural experiences, cuisine, and scenic attractions, in an enticing tone" ) which the marketer can use to get a high-quality description. How do meta-prompts work and why are they useful? Essentially, meta-prompts leverage the AI’s own knowledge of language patterns to produce better instructions. The...