← Portfolio Piloter l'IA — Méthode Me contacter
Méthode · Pilotage IA

Utiliser l'IA, c'est facile.
La piloter est une compétence.

L'IA produit toujours quelque chose de lisible, structuré, plausible en apparence.
C'est précisément ce qui rend son pilotage difficile — et différenciant.
Trois concepts opérationnels pour passer de l'utilisation au pilotage à standard industriel.

01 Méta-Prompting Demander à l'IA de construire son propre protocole de travail avant d'exécuter.
02 Boucle de Refus Refuser formellement ce qui n'est pas exact — et formuler ce refus comme une contrainte opérationnelle.
03 Orfèvrerie par l'Itération Converger vers la précision par strates successives — jamais en recommençant de zéro.
01 — Distinction fondamentale

Utiliser vs Piloter

La confusion est massive. Quand une organisation dit "on utilise l'IA", elle décrit dans 90 % des cas la même chose : quelqu'un ouvre une fenêtre de chat, tape une demande en langage naturel, et accepte ce qui arrive.

C'est de l'utilisation. C'est utile. Ce n'est pas du pilotage.

Piloter, c'est entrer dans une session avec un résultat précis en tête, des critères de validation définis à l'avance, et la capacité de refuser un livrable qui ne les satisfait pas — même s'il semble convaincant en surface.

La distinction n'est pas une question de prompts plus longs ou de techniques avancées. Elle est dans la posture : est-ce que le pilote évalue le livrable contre des critères objectifs, ou est-ce qu'il l'accepte parce qu'il "semble correct" ?

Le piège de la plausibilité

L'IA produit toujours quelque chose de lisible. Structuré. Professionnel en apparence. C'est précisément ce qui rend le pilotage indispensable : la défaillance n'est jamais évidente. Un livrable peut satisfaire la demande en surface tout en manquant l'intention — et sans critères d'acceptance définis en amont, cette différence est indétectable.

"La qualité de l'output IA est un sous-produit de la qualité du cadre qu'on lui impose. Construire ce cadre avec elle — pas pour elle — est systématiquement plus efficace que de l'écrire seul."
DimensionUtilisationPilotage
Critères d'acceptanceÉvalués après réceptionDéfinis avant production
Refus d'un livrableRare — "c'est bien"Systématique si critère non rempli
ItérationRelance depuis zéroRepart du delta documenté
Rôle assigné à l'IAImpliciteExplicite, adapté au livrable
TraçabilitéAucuneChaque décision documentée

02 — Premier concept

Le Méta-Prompting

La technique la plus puissante n'est pas d'écrire de bons prompts. C'est de demander à l'IA de créer ses propres protocoles de travail à partir du matériau fourni — avant de produire quoi que ce soit.

Le principe : on fournit tout le contexte (fichiers, données, documents de référence) et on demande à l'IA de construire le protocole d'analyse idéal pour ce contexte précis. On valide ou amende ce protocole. Elle travaille ensuite dans le cadre qu'elle a elle-même formalisé sous contrainte.

Pourquoi ça change tout

En forçant l'IA à formaliser son protocole avant d'exécuter, on élimine la principale source de drift : l'IA qui remplit les zones d'ambiguïté avec des hypothèses statistiquement probables plutôt qu'avec ce qui est contextellement exact.

Instruction méta : "Avant de produire quoi que ce soit, construis le prompt idéal pour analyser ce contexte. Adopte la posture d'un expert [domaine] senior. Structure ton protocole en étapes vérifiables. Je validerai le protocole avant que tu commences."

Résultat : l'IA produit un protocole structuré que le pilote valide ou amende. Elle exécute ensuite dans ce cadre — pas dans ses approximations par défaut.

Les trois niveaux de cadrage

NiveauCe qu'on donneCe qu'on obtient
UtilisationUne question en langage naturelRéponse statistiquement probable
Prompt structuréContexte + rôle + contraintesRéponse cadrée, plus pertinente
Méta-PromptingMatériau source + instruction métaProtocole validé → exécution dans le cadre exact

Ce n'est pas de la magie. C'est de l'ingénierie de la contrainte appliquée en amont.


03 — Deuxième concept

La Boucle de Refus

Le travail du pilote n'est pas d'accepter ce qui est "plausible". C'est de refuser ce qui n'est pas exact — et de formuler ce refus comme une contrainte opérationnelle, pas comme une opinion.

Un backlog IA fonctionne comme un backlog Scrum : liste ordonnée de livrables, dépendances identifiées, critères d'acceptance écrits avant production. Sans cette étape, la recette est subjective et le livrable contestable.

Structure d'une user story pour l'IA

Le format "En tant que / Je veux / Afin de" reste valide. Ce qui change, c'est la précision chirurgicale des critères d'acceptance — chacun doit être vérifiable objectivement, pas au ressenti.

Exemple de critères d'acceptance :

User story : En tant que visiteur dirigeant de PME, je veux comprendre en moins de 10 secondes ce que propose ce service et à qui il s'adresse, afin de décider si ça me concerne.

Critères :
— Le titre ne contient pas le mot "rédaction" — trop générique
— La cible (dirigeant PME) est explicite dans les 8 premiers mots
— Aucune liste à puces dans le hero — une seule promesse, pas un catalogue
— Le CTA décrit ce qui se passe après le clic — pas "En savoir plus"
— Moins de 40 mots visibles au-dessus de la ligne de flottaison sur desktop

Le protocole en trois temps

  1. 01Identifier le critère non satisfait. Pas "c'est pas top" — "le critère 3 n'est pas rempli : il y a une liste à puces dans le hero".
  2. 02Refuser — ne pas corriger à la main. Modifier soi-même la production IA contourne la boucle de rétroaction. Le prochain livrable héritera des mêmes défauts structurels.
  3. 03Reformuler en contrainte plus serrée et relancer. La contrainte est plus restrictive qu'initialement — pas une reformulation du même brief.

Refus amateur vs refus opérationnel

❌ Refus amateur

"Ce n'est pas vraiment ce que je voulais. Tu peux essayer d'une autre façon ?"

Aucune contrainte nouvelle. L'IA produit une variation du même output défaillant.

✅ Refus opérationnel

"Livrable refusé. Critère 3 non satisfait : liste à puces dans le hero. Contrainte ajoutée : format prose uniquement, une seule phrase d'accroche, zéro énumération."

L'IA modifie son approche, pas juste sa formulation.

La Boucle de Refus en conditions réelles

Avant mise en ligne d'un site PHP, chaque livrable technique a été soumis à un audit de sécurité avec cette discipline. Les refus couvrent deux niveaux de criticité différenciés : failles critiques exploitables immédiatement, et défauts de conformité sans impact direct mais réels.

Principe appliqué : "Refuser de déployer vaut mieux que corriger une faille en production."
7 livrables refusés, 7 corrections imposées avant déploiement. Score sécurité A+ en résultat.
Lire l'audit complet → 7 refus documentés

04 — Troisième concept

L'Orfèvrerie par l'Itération

Un orfèvre ne produit pas une pièce parfaite du premier coup. Il part d'une forme grossière, identifie ce qui est inexact, retire l'excès par petites touches, jusqu'à ce qu'il ne reste que ce qui doit rester. L'entonnoir chirurgical applique cette logique à la production IA.

La méthode transforme une idée floue en livrable précis en cinq strates. Chaque strate réduit le champ des possibles. À la sortie, il ne reste que ce qui est exact, défendable, et cohérent avec les livrables précédents.

Les cinq strates de l'entonnoir

  1. S1Injection du contexte. On fournit tout le matériau source. Aucune interprétation à ce stade — l'IA reçoit les faits bruts.
  2. S2Construction du protocole (Méta-Prompting). On demande à l'IA de construire son propre protocole d'analyse. On valide avant toute production.
  3. S3Premier livrable dans le cadre. L'IA produit dans le cadre du protocole validé. Objectif : identifier les défaillances contre les critères d'acceptance.
  4. S4Itérations contraintes (Boucle de Refus). Chaque défaillance devient une contrainte supplémentaire. Les itérations sont bornées — une défaillance à la fois.
  5. S5Validation et clôture. Chaque critère est coché explicitement. Le livrable est documenté et classé. On ne revient pas dessus.

La règle d'or des itérations

❌ Approche classique

Prompt 1 : demande vague. Prompt 2 : "peux-tu le rendre plus percutant ?" Prompt 3 : "essaye encore".

Itérations non bornées, drift croissant, résultat non défendable.

✅ Approche chirurgicale

Prompt 1 : brief complet + critères. Défaillance identifiée. Prompt 2 : même brief + contrainte ajoutée précisément.

Chaque itération tracée, contrainte documentée, convergence garantie.

"On n'améliore pas un prompt. On le contraint davantage. L'excellence n'est pas le résultat d'une meilleure formulation — c'est le résidu d'un champ des possibles progressivement réduit."

05 — Périmètre humain

Les décisions que l'IA ne peut pas prendre

L'IA peut exécuter dans n'importe quel cadre qu'on lui impose. Ce qu'elle ne peut pas faire : définir ce cadre elle-même. Et en particulier, elle ne peut pas prendre ces décisions à la place du pilote :

Le Zéro Défaut comme standard d'exigence

Dans un système où une défaillance a des conséquences réelles, on ne livre pas ce qui "devrait marcher" — on prouve que ça marche. Appliqué à l'IA : c'est le pilote qui fixe la barre du "fini". L'IA ne sait pas ce que "suffisamment bon" veut dire pour ce contexte précis.

Principe opérationnel : énoncer le niveau d'exigence dans chaque brief, pas seulement dans les critères d'acceptance. L'IA doit savoir, avant de produire, quel standard elle doit atteindre — pas juste ce qu'elle doit faire.

06 — Valeur de la méthode

Le ROI de la méthode

Le coût d'un mauvais pilotage IA n'est pas le coût de l'outil. C'est le coût du temps perdu à corriger ce qui a été mal spécifié, à reconstruire ce qui a divergé sans boucle de rétroaction, à reprendre ce qu'on aurait dû refuser au premier livrable.

Le cycle de la mauvaise spécification

  1. 01L'IA produit quelque chose de lisible. Le rejet de la plausibilité n'est pas activé. On continue.
  2. 02Sans boucle de rétroaction active, l'imprécision se propage. Chaque livrable hérite des défauts du précédent.
  3. 03Le problème remonte. Retour en arrière sur 3 à 5 livrables en cascade pour trouver l'origine.
  4. 04Refaire le livrable source, reconstruire les dépendants, re-valider l'ensemble — sans les critères d'acceptance qui auraient évité le problème.

Comparaison des deux approches

❌ Sans méthode

Itérations non bornées. Livrables validés au ressenti. Dette technique accumulée.

Produit approximatif, incohérences structurelles, corrections en production.

✅ Avec la méthode

Chaque livrable évalué contre des critères objectifs. Incohérences détectées à la recette unitaire.

Produit cohérent, sécurisé, livré dans les délais.

Exemple de compression R&D

45 jTime-to-market · solo
11 €/anBudget infrastructure
÷10vs agence (25–40K€)

Architecture sur mesure · sécurité A+ certifiée · RGPD natif · SEO Schema.org. Équivalent classique : 4 à 6 mois, 25 000€ à 40 000€.

"L'IA est un exécutant sans égal. Elle ne sera jamais un décideur. La compétence rare n'est pas de savoir l'utiliser — c'est de savoir construire le cadre dans lequel elle produit ce qui est exact."
Cette méthode appliquée sur un produit réel

psyker.fr — 45 jours de PO
en conditions réelles

Score sécurité A+, 8 sprints livrés, dossier PO complet. Tout est vérifiable.

Voir le portfolio complet → Me contacter →