Pendant plus ou moins deux ans, l'IA générative a surtout été utilisée comme interface conversationnelle: on ouvre une session, on explique le contexte, on demande un livrable, puis on recommence ailleurs. Ce modèle a créé de la vitesse, mais aussi une fragilité structurelle: la qualité dépend du temps de reformulation, de la mémoire de la personne, et de la cohérence de chaque nouveau prompt. Depuis plus récemment, on observe une évolution nette vers des agents capables d'activer des "skills", c'est-à-dire des capacités décrites et persistantes. Le centre de gravité se déplace donc de la discussion vers la configuration: l'organisation ne cherche plus seulement à obtenir une bonne réponse, elle cherche à installer un comportement reproductible.
Techniquement, ce mécanisme est simple mais puissant. Un skill est en général un dossier avec un fichier de définition (souvent en Markdown) qui contient au minimum un nom, une description d'usage, un protocole d'exécution et un format de sortie attendu; il peut aussi inclure des scripts, des templates et des références. Lorsqu'un utilisateur formule une demande, l'agent compare la requête aux descriptions disponibles, sélectionne le skill pertinent, charge ses instructions comme contexte d'exécution, puis applique ses étapes de manière explicite ou implicite. Le résultat est double: d'un côté, moins de re-prompting manuel; de l'autre, une meilleure traçabilité des règles de travail, puisque les consignes ne sont plus dissoutes dans des conversations éphémères mais ancrées dans des artefacts versionnables et partageables.
Mais il faut poser une distinction de fond:
un skill n'est pas encore une compétence.
Un skill est une structure externe, codée, documentée, exécutable. Une compétence, elle, est une capacité humaine à juger, adapter, arbitrer et répondre des effets d'une action dans un contexte réel. On peut importer un skill en quelques secondes; on ne télécharge pas la compréhension du contexte, la responsabilité professionnelle ni le discernement éthique. Confondre les deux crée une illusion dangereuse de maîtrise.
Dans la pratique, l'idée selon laquelle rédiger des prompts deviendrait superflu parce qu'il suffit d'importer des skills est donc trompeuse. Les skills réduisent le travail répétitif de formulation, c'est vrai; ils ne suppriment ni le cadrage initial, ni la qualification de la demande, ni la vérification de la sortie. Même avec une bibliothèque solide, il faut encore préciser l'intention, ajuster les contraintes, gérer les exceptions, corriger les ambiguïtés de vocabulaire et arbitrer les compromis. Le prompt n'a pas disparu: il a changé de place. Il devient l'interface de pilotage d'un système plus riche, pas un artefact obsolète.
Pour déléguer de façon responsable à une boîte noire, il faut d'abord savoir faire - au moins conceptuellement - ce qu'on délègue sans elle. Sinon, on ne délègue pas, on abdique. Trois compétences deviennent alors centrales.
- Premièrement, la compétence de cadrage: transformer un besoin flou en mandat explicite (objectif, périmètre, critères de qualité, limites).
- Deuxièmement, la compétence de contrôle: évaluer la sortie, détecter les erreurs, estimer les risques et décider ce qui est publiable, exécutable ou non.
- Troisièmement, la compétence d'intégration: articuler la production de l'IA dans un processus humain réel, avec responsabilité, traçabilité et boucle d'amélioration.
Pourquoi est-ce décisif ? Parce que
la délégation est une question de souveraineté cognitive autant que d'efficacité.
Tant qu'une équipe reste dans le réflexe "copier un skill et lancer", elle gagne peut-être en rapidité locale, mais elle perd en compréhension et en autonomie critique. Dès qu'elle documente ses choix, explicite ses standards et relie ses outils à des responsabilités nommées, elle reprend la main. Elle ne subit plus la machine: elle l'oriente. C'est cette différence qui, à long terme, sépare les organisations outillées des organisations vraiment compétentes.
Pour les entreprises, les conséquences sont très concrètes: gouvernance plus lisible, qualité plus stable, risques mieux maîtrisés, dépendance réduite à quelques profils sur-sollicités. Un portefeuille de skills utile n'est pas une collection de recettes, c'est un actif de méthode qui doit être gouverné: versionning, ownership, critères de validation, audit régulier, retrait des artefacts obsolètes. Cela implique aussi de clarifier les niveaux d'autonomie accordés aux équipes, les zones non délégables, et les mécanismes d'escalade quand un résultat IA est incertain. Les organisations qui cadrent ces points gagnent en vitesse sans sacrifier la responsabilité; celles qui ne le font pas déplacent simplement leurs fragilités du travail humain vers une automatisation mal pilotée.
Pour la formation, l'enjeu mérite un traitement séparé, et probablement plus exigeant encore. Il ne s'agit pas seulement d'apprendre à parler à l'IA, mais d'apprendre à concevoir, tester, maintenir et critiquer des chaînes de délégation (cf. ma chronique sur le Couloir Humain). Cela ouvre une question sensible: faut-il interdire l'usage de l'IA pendant certaines évaluations ? La question est légitime, car ce que nous voulons mesurer n'est pas la capacité à obtenir un résultat assisté, mais la capacité de l'étudiant.e à comprendre, structurer et produire sans assistance, avant toute délégation. Dans la logique même de cette chronique, la règle devrait être claire:
pas de délégation valide sans compétence préalable démontrée.
L'IA peut ensuite devenir un accélérateur pédagogique puissant, mais seulement après preuve de maîtrise autonome.
La perspective est claire: nous passons d'une culture de l'assistance à une culture de l'orchestration. Les organisations qui se contenteront d'accumuler des skills gagneront des gains rapides mais fragiles. Celles qui transformeront ces skills en compétences collectives construiront un avantage durable: meilleure continuité, meilleure transmission, meilleure qualité décisionnelle. Le vrai progrès n'est pas de déléguer plus; c'est de déléguer mieux, avec lucidité sur ce que la machine fait, et sur ce qu'elle ne fera jamais à notre place: juger, assumer, décider.
Il faut savoir parler à l'IA et penser avec l'IA.
