La majorité des Custom GPTs publics dans le GPT Store sont médiocres. Ce n'est pas une question d'outil — l'outil est puissant. C'est une question de structure. Un assistant qui marche est construit ; un assistant qui rate est improvisé.

Si tu as fini l'article 1.2 sur ton premier Custom GPT en 30 minutes, tu as un assistant qui fonctionne. Bien. Mais peut-être que tu sens qu'il dérape sur certains cas, qu'il oublie une règle de temps en temps, qu'il invente parfois. Ces dérapages ne viennent pas du modèle — ils viennent de la structure de tes Instructions.

Cet article décompose la structure d'un assistant qui marche dans la durée. 5 couches obligatoires, dans cet ordre : (1) Rôle, (2) Process, (3) Format de sortie, (4) Contraintes, (5) Edge cases. Saute une couche, et l'assistant aura un trou correspondant. L'ordre compte aussi — le modèle interprète les instructions séquentiellement et donne plus de poids au début. Cette structure marche pour Custom GPTs, Claude Projects, Gemini Gems, et tout système qui accepte un prompt système — d'où sa valeur durable.

Tu vas aussi voir les 5 erreurs structurelles qui tuent 80 % des assistants en 2026 — et comment les corriger sans tout reconstruire.

— Sources : OpenAI Help Center · Anthropic prompting docs · Lakera prompt engineering 2026
5 couches · 1 ordre
Les recherches en prompting 2026 (OpenAI sur Custom GPTs, Anthropic sur prompting Claude, frameworks Lakera et Tetrate sur system prompts d'agents) convergent sur les mêmes 5 couches structurantes : Rôle (qui est l'assistant), Process (comment il pense étape par étape), Format (comment il rend la réponse), Contraintes (ce qu'il ne fait jamais), Edge cases (gestion du hors-sujet et de l'incertitude). Cet ordre n'est pas arbitraire — le modèle pondère plus fort les premières instructions, donc le Rôle doit venir avant la mécanique. Tous les modèles flagship 2026 (GPT-5.4/5.5, Claude 4.6/4.7, Gemini 3.1 Pro) bénéficient de cette structure ; les écarts entre modèles sont plus faibles que les écarts entre une bonne et une mauvaise structure.

— 1 / 4Pourquoi 80 % des assistants ratent.

Avant de voir ce qui marche, comprendre ce qui rate. Les assistants qui finissent abandonnés en 3-6 semaines partagent presque tous un défaut structurel commun : Instructions improvisées au fil de l'eau, sans architecture pensée en amont.

Le scénario typique : tu construis un assistant en mode conversationnel avec le Builder. Le Builder te pose des questions, tu réponds en improvisant, il rédige des Instructions à ta place. Tu testes 2-3 cas faciles, ça marche, tu déploies. Puis :

Semaine 1. Un cas atypique fait dérailler — l'assistant invente une donnée. Tu ajoutes une règle dans les Instructions : « Ne jamais inventer de chiffre ». Ça règle ce cas.

Semaine 2. Un autre cas fait dérailler — l'assistant répond hors-sujet. Tu ajoutes une autre règle. Ça règle ce cas aussi.

Semaine 4. Tes Instructions font maintenant 800 mots, sont devenues une liste hétéroclite de règles ajoutées au fur et à mesure. Le modèle commence à oublier les règles du milieu (effet « lost in the middle » documenté). De nouveaux cas dérapent. Tu rajoutes des règles. Spirale négative.

Semaine 6-8. Tu abandonnes l'assistant. Trop d'efforts pour des résultats inégaux. Tu retournes au prompt direct.

L'erreur n'est pas dans les règles — chacune était bonne. L'erreur est structurelle : les Instructions n'ont jamais eu d'architecture, juste un empilement réactif. Un assistant qui marche dans la durée est construit comme un building : fondations en bas, étages au-dessus, finitions en haut. Pas comme un patchwork de règles ajoutées dans le désordre.

L'erreur n'est pas dans les règles. Elle est dans l'absence d'architecture. Un assistant qui marche est construit comme un building : fondations en bas, étages au-dessus, finitions en haut. Pas comme un patchwork.

— 2 / 4Les 5 couches, dans l'ordre.

Voici les 5 couches structurantes. L'ordre est crucial. Le modèle pondère plus fort les premières instructions ; en cas de conflit, c'est ce qui est en haut qui gagne. Donc on commence par le Rôle (la fondation) et on termine par les Edge cases (la couche défensive).

— Couche 1 / 5 · Fondation
Le Rôle — qui est l'assistant ?
Réponds en 2 phrases : (1) qui est l'assistant (rôle métier précis, pas « helpful assistant »), (2) qui il aide (audience cible, pas « n'importe qui »). Bon : « Tu es un correcteur de propositions commerciales pour des freelances IT francophones qui rédigent des devis B2B. » Mauvais : « Tu es un assistant qui aide à écrire. »

Pourquoi c'est la fondation : le rôle précis active des connaissances et un registre de réponse spécifique dans le modèle. Plus le rôle est nommé précisément, plus la qualité de réponse monte automatiquement, sans même ajouter de règles. C'est le levier le plus économique. Inutile de dire « tu es expert », « tu es professionnel » — ces qualificatifs valent peu. Ce qui compte : un nom métier reconnaissable et une audience cible définie.
— Couche 2 / 5 · Mécanique
Le Process — comment il pense ?
Décris la séquence d'actions à suivre quand l'utilisateur fait une demande standard. Format step-by-step explicite. « Quand l'utilisateur soumet une proposition à corriger : (1) lis-la entièrement avant tout commentaire, (2) identifie les 3 plus gros problèmes (clarté, prix, structure), (3) propose des reformulations concrètes, (4) termine par : "Veux-tu que je travaille un point en particulier ?" »

Pourquoi c'est crucial : sans process explicite, le modèle improvise un ordre de traitement qui varie d'une fois à l'autre — d'où l'incohérence d'un assistant à l'autre. Avec un process explicite, tu garanties la même séquence à chaque conversation. Règle : utilise des numéros (1, 2, 3) plutôt que des bullets — la séquence est plus claire pour le modèle et il respecte mieux l'ordre. Et utilise « quand X arrive → fais Y » pour les branches conditionnelles.
— Couche 3 / 5 · Sortie
Le Format — comment il rend ?
Spécifie le format de sortie attendu. Sans ça, le modèle utilise un format par défaut (souvent du markdown verbeux), inadapté à ton usage. « Réponds en 3 sections séparées par des intertitres : ## Diagnostic / ## Reformulation proposée / ## Justification. Garde la Reformulation prête à copier-coller, sans préambule. »

Si ton assistant alimente un système en aval (Zap, automation, copier-coller dans un autre outil), spécifie un format strict — JSON, table markdown, liste numérotée, etc. Et précise la longueur attendue (« max 200 mots », « 3 puces »). C'est la couche que la majorité des constructeurs oublient — résultat, l'assistant donne des réponses correctes mais inutilisables sans retraitement manuel à chaque fois. Format spécifié = gain de temps réel.
— Couche 4 / 5 · Garde-fous
Les Contraintes — ce qu'il ne fait jamais
Liste 3 à 5 contraintes strictes. Privilégie les contraintes positives (« Garde toujours les phrases sous 25 mots ») plutôt que les interdictions (« N'écris pas de longues phrases ») — les modèles 2026 suivent mieux les instructions positives concrètes. Quand une interdiction est nécessaire (sécurité, donnée sensible), formule-la clairement et brièvement.

Exemples typiques de contraintes utiles : « Ne jamais inventer un chiffre — si la donnée n'est pas disponible, dis "[à vérifier]". » « Ne jamais signer un email à la place de l'utilisateur — laisse la signature vide. » « Toujours répondre en français. » « Ne jamais faire de promesses commerciales (délais, prix) sans validation explicite de l'utilisateur. » Limite-toi à 3-5 contraintes vraiment importantes. Au-delà, le modèle commence à oublier les règles du milieu et tu perds en cohérence.
— Couche 5 / 5 · Défense
Les Edge cases — hors-sujet et incertitude
Deux scénarios à cadrer explicitement : (1) la demande hors périmètre et (2) la donnée manquante / l'incertitude.

Hors périmètre : que doit faire l'assistant si quelqu'un lui demande quelque chose en dehors de son rôle ? Sans cadrage, il répond quand même (en mode ChatGPT générique), ce qui pollue ses réponses futures et donne l'impression d'un assistant « qui sait tout » alors qu'il est calibré sur un cas précis. « Si la demande sort du périmètre [propositions commerciales B2B], réponds : "Je suis spécialisé sur la correction de propositions. Pour [autre besoin], utilise plutôt ChatGPT ou Claude directement." Ne tente pas une réponse générique. »

Incertitude : que doit faire l'assistant s'il manque une info essentielle pour bien répondre ? Sans cadrage, il devine avec confiance — le défaut le plus coûteux d'un assistant mal cadré. « Si tu n'as pas une donnée nécessaire (contexte client, budget, deadline), pose la question avant de répondre. Ne devine pas. Si tu n'es pas sûr d'une recommandation, dis-le explicitement. »

— 3 / 4Le template universel commenté.

Voici le template qui assemble les 5 couches dans le bon ordre. Applicable Custom GPT, Claude Project (champ « Custom Instructions »), Gemini Gem (champ « Instructions »). Les sections en orange sont à adapter à ton cas. Les commentaires en gris (commentaires // gris) ne sont pas dans le prompt — c'est juste pour t'expliquer.

— Template universel · 5 couches
// COUCHE 1 — Le rôle d'abord. C'est la fondation. ## Rôle Tu es [rôle métier précis : Correcteur de propositions commerciales pour freelances IT B2B francophones]. Tu aides [audience cible : des freelances tech qui rédigent leurs devis seuls et veulent les fiabiliser avant envoi]. // COUCHE 2 — Le process step-by-step. Numéros, pas bullets. ## Process Quand l'utilisateur soumet une proposition à corriger : 1. Lis-la entièrement avant tout commentaire. 2. Identifie les 3 plus gros problèmes (clarté du livrable, justification du prix, calendrier réaliste). 3. Propose des reformulations concrètes pour chaque problème, prêtes à copier-coller. 4. Termine par : « Veux-tu que je travaille un point en particulier ? » // COUCHE 3 — Le format de sortie. Précis, sinon le modèle improvise. ## Format de sortie - Réponds en 3 sections séparées par des intertitres : ## Diagnostic (3 puces max) ## Reformulation proposée (texte prêt à copier-coller, sans préambule) ## Justification (1-2 phrases par modification) - Garde la Reformulation sous 300 mots. - Pas de markdown excessif — phrases en prose dans Reformulation. // COUCHE 4 — Les contraintes strictes. 3-5 max. ## Contraintes - Ne jamais inventer un chiffre (prix, deadline) — si non fourni, écris « [à confirmer par toi] ». - Ne jamais ajouter de promesses commerciales que l'utilisateur n'a pas écrites. - Toujours en français. - Garder le ton de l'utilisateur (si direct → reste direct, si formel → reste formel). // COUCHE 5 — Les edge cases. Hors-sujet et incertitude. ## Hors périmètre Si la demande sort de la correction de propositions commerciales B2B (ex : traduction, recherche d'info, rédaction de contrat juridique) : réponds « Je suis spécialisé sur la correction de propositions B2B. Pour [autre besoin], utilise ChatGPT ou Claude directement. » Ne tente pas une réponse générique. ## Gestion de l'incertitude Si une donnée essentielle manque (contexte client, budget, livrable précis), pose la question avant de répondre. Ne devine pas. Si tu n'es pas sûr d'une recommandation, dis-le explicitement plutôt que de paraître certain.

Ce template fait environ 250 mots une fois adapté. C'est le bon ordre de grandeur. En dessous de 150 mots, tu n'as pas assez de précision et tu rates des règles. Au-dessus de 500 mots, tu rentres dans la zone de « lost in the middle » où le modèle commence à oublier les règles du milieu. La sweet spot 2026 est 200-400 mots structurés en 5 sections claires.

Quand utiliser des balises XML ?

Si tu travailles avec Claude (Claude Projects, API), tu peux remplacer les ## Section markdown par des balises XML : <role>, <process>, <format>, <constraints>, <edge_cases>. Claude est entraîné spécifiquement pour bien parser ces balises. Pour Custom GPTs (OpenAI) et Gemini Gems, le markdown ## fonctionne mieux. Cette différence est documentée dans les guides Anthropic et OpenAI 2026 — pas un détail esthétique, ça change réellement la qualité de suivi des instructions.

— 4 / 4Les 5 tests qui valident l'anatomie.

Une fois ton assistant construit avec les 5 couches, valide chaque couche avec un test ciblé. Chaque test isole une couche — si un test échoue, tu sais quelle couche corriger. Beaucoup plus efficient que des tests vagues qui ne te disent pas quoi changer.

— Test couche 1 — Rôle
Pose une question identité — la réponse révèle ton rôle
Demande : « Qui es-tu et qui aides-tu ? » L'assistant doit reformuler ton Rôle clairement, sans hésitation. S'il répond « Je suis un assistant IA qui peut t'aider sur plein de sujets », ta couche Rôle est trop générique — précise plus.
— Test couche 2 — Process
Le cas nominal — la séquence doit se voir
Donne-lui un cas standard. Tu dois reconnaître ta séquence définie. Étape 1 (lecture), étape 2 (identification), étape 3 (reformulation), étape 4 (relance). Si l'ordre est incohérent ou s'il saute une étape, ta couche Process n'est pas assez explicite.
— Test couche 3 — Format
Le format strict — il doit le respecter
Vérifie la sortie : as-tu les 3 sections (Diagnostic / Reformulation / Justification) ? La Reformulation est-elle prête à copier-coller, sans préambule ? Si non, ta couche Format est trop floue — soit elle manque, soit elle est noyée dans d'autres règles.
— Test couche 4 — Contraintes
Le cas piégé — il doit refuser d'inventer
Donne-lui une proposition incomplète où une donnée manque (le prix n'est pas écrit, par exemple). Il doit écrire « [à confirmer par toi] », pas inventer un prix. S'il invente, ta contrainte n'est pas assez ferme — passe-la en formulation positive (« Toujours écrire [à confirmer] quand un chiffre manque ») plutôt que négative.
— Test couche 5 — Edge cases
Le hors-sujet — il doit rediriger
Demande-lui quelque chose hors de son périmètre : « Comment je migre mon site WordPress vers Webflow ? » à un correcteur de propositions. Il doit appliquer ta clause Hors périmètre — répondre poliment qu'il est spécialisé et rediriger vers ChatGPT générique. S'il répond quand même au sujet, ta couche Edge cases est trop faible — formule-la explicitement (« Ne tente pas une réponse générique »).

Si les 5 tests passent, ton assistant a une anatomie saine. Il va tenir dans le temps. Si un test échoue, tu sais exactement quelle couche corriger — pas besoin de réécrire tout. C'est l'avantage de la structure : le débogage devient ciblé.

— BonusLes 5 erreurs structurelles qui ratent l'anatomie.

Erreur 1 : commencer par les contraintes au lieu du rôle
Tu commences ton prompt par « Tu ne fais jamais X. Tu n'écris jamais Y. Tu refuses Z. » Le modèle entre en mode défensif sans avoir compris qui il est. Résultat : assistant frileux qui sur-applique les interdictions et rate des cas valides. Correction : commence toujours par le Rôle. Les contraintes viennent en couche 4, après que l'assistant sait qui il est et comment il pense.
Erreur 2 : process en bullets désordonnés au lieu de numérotation
Tu listes le process avec des bullets (- fais ça, - puis ça, - aussi ça). Le modèle perd l'ordre. Tu lui demandes l'étape 2 mais il commence par l'étape 4 parce qu'elle lui paraît plus pertinente. Correction : numérotation explicite (1, 2, 3) pour les séquences. Bullets uniquement pour les listes non-ordonnées (contraintes, format de sortie). Petite règle qui change beaucoup en pratique.
Erreur 3 : oublier la couche Format de sortie
C'est la couche la plus souvent oubliée par les débutants. Tu as un Rôle clair, un Process net, des Contraintes solides — mais l'assistant rend ses réponses dans un format markdown verbeux que tu dois reformater à chaque fois (suppression des intertitres, des emojis, des phrases d'intro). Tu perds 30 secondes par usage. Sur 100 usages, c'est 50 minutes perdues. Correction : spécifie systématiquement le format de sortie. « Réponds en X sections, intertitres en ## H2, sortie principale prête à copier-coller sans préambule, max N mots. »
Erreur 4 : contraintes en négatif partout
Tu listes les contraintes en mode interdiction : « Ne fais pas X. Ne dis pas Y. Ne génère pas Z. » Les modèles 2026 (GPT-5.4/5.5, Claude 4.6/4.7, Gemini) sont entraînés à mieux suivre les instructions positives. Une longue liste d'interdictions peut paradoxalement amener le modèle à mentionner ce qu'il ne devrait pas — par effet d'amorçage. Correction : reformule chaque interdiction en positif quand c'est possible. « N'invente pas de chiffre »« Si un chiffre manque, écris [à confirmer]. » Plus efficace, plus concret, plus suivi.
Erreur 5 : oublier la couche Edge cases jusqu'à ce qu'un cas dérape en prod
Tu construis ton assistant, tu testes les cas nominaux, ça marche, tu déploies. Une semaine plus tard : un utilisateur lui demande quelque chose hors-sujet, l'assistant répond comme un ChatGPT générique (sans contexte de ton rôle). Un autre cas : il manque une donnée, l'assistant invente une valeur plausible mais fausse, qui se retrouve dans un email envoyé. Correction : ne déploie jamais sans cadrer explicitement les Edge cases dès la couche 5 du template. Les cas atypiques sont rares mais coûteux quand ils arrivent. La couche 5 est ta protection.
Ma règle de mentor

L'écart de qualité entre deux assistants construits par deux personnes différentes sur la même plateforme avec le même cas d'usage vient à 80 % de la structure des Instructions, et à 20 % seulement des knowledge files et des capabilities. Cet écart se voit immédiatement à l'usage : un assistant « qui marche vraiment » est cohérent, prévisible, refuse proprement le hors-sujet, ne devine pas dans le doute. Un assistant « construit en improvisant » dérape de manière imprévue 1 fois sur 5 et finit oublié. La discipline anatomique des 5 couches est ce qui distingue les deux. Ce n'est pas du sur-engineering — c'est le minimum pour qu'un assistant tienne dans la durée. Si tu n'as appliqué qu'une seule chose de cet article, applique l'ordre : Rôle, Process, Format, Contraintes, Edge cases. Tu vas voir la différence dès le prochain assistant que tu construis.

Articles connexes

Tu maîtrises maintenant l'anatomie d'un assistant qui marche. Pour aller plus loin : les couches Knowledge et Capabilities sont approfondies dans l'article 1.4 (Knowledge Files) et 1.5 (Actions et APIs). Pour tester et maintenir un assistant dans la durée : article 1.6 (tester, débugger, maintenir). Pour partager proprement avec une équipe : article 1.7 (partager et sécuriser). Pour le choix de plateforme : article 1.1 (comparatif Custom GPTs / Projects / Gems). Pour ton premier assistant pas-à-pas : article 1.2 (premier Custom GPT en 30 min). Pour les bases du prompt direct (sans assistant construit) : retour aux articles du Niveau II sur l'anatomie d'un prompt.

— L'essentiel à retenir —

5 points sur l'anatomie d'un assistant.

  1. 80 % des assistants ratent par défaut structurel, pas par manque d'outil. Instructions improvisées au fil de l'eau, empilement réactif de règles, plus d'architecture après 800 mots — abandon en 6 semaines. La structure prévient ça dès le départ.
  2. 5 couches obligatoires dans cet ordre : (1) Rôle (qui est l'assistant + qui il aide, précis pas générique), (2) Process (séquence numérotée step-by-step de ce qu'il fait), (3) Format de sortie (la couche la plus souvent oubliée), (4) Contraintes (3-5 max, en positif quand possible), (5) Edge cases (hors-sujet + gestion incertitude). L'ordre compte — le modèle pondère plus fort le début.
  3. Sweet spot 2026 : 200-400 mots structurés en 5 sections claires. Sous 150 mots = trop flou. Au-dessus de 500 mots = effet « lost in the middle » où le modèle oublie les règles du milieu. Pour Claude, balises XML <role><process> etc. ; pour Custom GPTs et Gemini, markdown ##.
  4. 5 tests ciblés validés couche par couche : (1) qui es-tu ? révèle Rôle, (2) cas nominal révèle Process, (3) sortie révèle Format, (4) cas piégé révèle Contraintes, (5) hors-sujet révèle Edge cases. Si un test échoue, tu sais quelle couche corriger — débuggage ciblé, pas réécriture totale.
  5. 5 erreurs structurelles à éviter : commencer par les contraintes au lieu du rôle, process en bullets au lieu de numérotation, oublier la couche Format, contraintes en négatif partout, oublier les Edge cases jusqu'à ce qu'un cas dérape en prod. La discipline anatomique = 80 % de l'écart de qualité entre deux assistants. Pas du sur-engineering — le minimum pour qu'un assistant tienne dans la durée.