Quand tu veux un format précis, montrer est plus efficace qu'expliquer.

Tu as sans doute eu cette expérience : tu écris un prompt qui spécifie minutieusement le format de sortie (longueur, structure, ton, ce qu'il faut éviter), tu envoies, et tu obtiens quelque chose de différent. Tu reformules, tu ajoutes des contraintes, tu finis par écrire 250 mots de spécifications pour un livrable qui devrait en faire 100. C'est épuisant et c'est inefficace.

Il existe une technique qui résout ce problème de manière radicale : donner 2 ou 3 exemples du résultat attendu avant la vraie demande. C'est le Few-Shot Prompting. Au lieu de décrire le format, tu le montres. L'IA infère la structure, le ton, le niveau de détail à partir des exemples — beaucoup mieux que tu ne pourrais le décrire avec des mots.

Cet article te donne le mécanisme, le template, les cas d'usage où Few-Shot brille, et les pièges à éviter. À la fin, tu sauras quand « montrer » bat « expliquer ».

— 1 / 6Le principe : montrer plutôt qu'expliquer.

Imagine que tu apprenais à un nouvel employé à classifier des mails entrants en 3 catégories : « urgent », « à traiter cette semaine », « archive ». Tu pourrais lui écrire un manuel de 500 mots avec tous les critères. Tu pourrais aussi lui montrer 5 mails déjà classifiés et lui dire « voilà, fais comme ça ». Laquelle des deux méthodes est la plus rapide et la plus claire ?

Tout le monde répondrait : la deuxième. Les exemples concrets transmettent l'information plus vite que les règles abstraites. Pour les humains, c'est évident. Pour l'IA, c'est exactement pareil — et c'est ce que Few-Shot exploite.

2 exemples bien choisis transmettent ce que 200 mots d'instructions ratent.

Pourquoi ça marche techniquement

Quand tu donnes des exemples avant ta vraie question, l'IA fait ce que les chercheurs appellent du « in-context learning » — apprentissage en contexte. Elle détecte le pattern dans tes exemples (la structure, le ton, la longueur, les types de réponses) et l'applique automatiquement à ta vraie demande.

Le mécanisme est puissant parce qu'il bypasse la traduction d'instructions textuelles en comportement. Tu ne demandes pas à l'IA de comprendre « sois concis avec un ton direct et structuré » — tu lui montres trois réponses concises, directes et structurées, et elle reproduit ce pattern. Le résultat est plus fiable.

— 2 / 6Zero-shot, one-shot, few-shot.

Le vocabulaire technique distingue trois niveaux selon le nombre d'exemples que tu donnes. Connaître ces trois niveaux te permet de choisir le bon en fonction de la complexité de ta demande.

Zero-shot
— 0 EXEMPLE
Tu poses la question sans aucun exemple. C'est ce que tu fais 95 % du temps. Suffisant pour la majorité des cas, mais imprécis quand le format compte.
One-shot
— 1 EXEMPLE
Tu donnes un seul exemple avant ta vraie demande. Souvent suffisant pour fixer le format. Compromis idéal entre simplicité et précision.
Few-shot
— 2 À 5 EXEMPLES
Le sweet spot. 2 à 5 exemples couvrent les variations possibles et l'IA infère un pattern fiable. Au-delà de 5, on entre dans la dilution.

La règle pratique : commence en zero-shot. Si le format n'est pas bon, ajoute un exemple. Si l'IA ne saisit toujours pas, passe à 2-3 exemples. Tu n'as quasiment jamais besoin de plus.

— 3 / 6Le template du Few-Shot Prompt.

La structure d'un Few-Shot prompt est toujours la même : tu poses le contexte minimal, tu donnes 2-3 paires « input → output », puis tu donnes ton vrai input. L'IA complète automatiquement avec le bon output.

— Contexte Voici comment je classifie les retours clients en 3 catégories : [bug / suggestion / éloge]. — Exemple 1 Input : « L'application plante quand je veux exporter en PDF. » Output : Bug — Exemple 2 Input : « Ce serait top si on pouvait partager directement sur Slack. » Output : Suggestion — Exemple 3 Input : « Merci, c'est exactement ce que je cherchais ! » Output : Éloge — À classifier maintenant Input : [colle le retour client à classifier] Output :

Note la dernière ligne : tu termines par « Output : » sans rien après. C'est le signal qui invite l'IA à compléter. Elle va naturellement écrire la classification, sans rien d'autre, parce que c'est le pattern qu'elle a vu dans les exemples.

Cette technique est tellement efficace pour les tâches de classification que beaucoup d'entreprises l'utilisent en production via API. Pas besoin d'entraîner un modèle dédié — quelques exemples bien choisis suffisent.

— 4 / 6Les cas d'usage où Few-Shot brille.

Few-Shot n'est pas la technique universelle. Sur certains types de tâches, son impact est marginal. Sur d'autres, c'est la seule technique qui donne des résultats fiables. Voici les 4 cas où Few-Shot est le bon outil.

— CAS 1
Classification
Quand l'utiliser : tri d'emails, étiquetage de retours clients, catégorisation de tickets support, détection de sentiment. Toute tâche où tu veux que l'IA range des inputs dans des cases prédéfinies. Few-Shot fixe les frontières des catégories par l'exemple, ce qui marche mieux que toute description textuelle.
— CAS 2
Format strict ou structure récurrente
Quand l'utiliser : génération de fiches produit, transformation de données en JSON, création de variantes selon un même gabarit. Quand tu as un template précis (titre + 3 bullets + appel à l'action) à appliquer à de nombreux items, Few-Shot garantit la cohérence d'un livrable à l'autre, ce que les instructions textuelles peinent à obtenir.
— CAS 3
Ton, voix, style à imiter
Quand l'utiliser : rédaction qui doit sonner comme tes posts LinkedIn habituels, mails dans ton style, contenu marketing dans la voix de la marque. Donne 2-3 exemples de tes propres écrits, et l'IA imite avec une fidélité qu'aucune description textuelle (« ton direct, peu de superlatifs ») ne pourrait obtenir.
— CAS 4
Tâches contre-intuitives ou nuancées
Quand l'utiliser : quand ta tâche dévie du comportement standard de l'IA. Par exemple : extraire uniquement les chiffres d'un texte sans aucun commentaire, répondre uniquement par « oui » ou « non », traduire en gardant les noms propres en anglais. Few-Shot impose le comportement non-standard par démonstration, ce qui est plus efficace que de l'expliquer.

— 5 / 6Combien d'exemples utiliser ?

Plus n'est pas toujours mieux. Au-delà d'un certain seuil, les exemples supplémentaires diluent au lieu d'aider. Voici la règle observée en 2026 sur les principaux modèles.

1 exemple : si la tâche est intuitive

Pour les formats simples ou les tâches que l'IA pourrait deviner avec un seul indice. « Voici un mail dans le style que je veux. Maintenant rédige-en un autre sur ce sujet. ». Souvent suffisant pour la rédaction stylisée. Économique en tokens.

2 à 3 exemples : la zone optimale

Le sweet spot pour la grande majorité des cas. 2-3 exemples permettent à l'IA d'identifier les variations possibles d'un même pattern. Tu couvres assez de cas pour qu'elle généralise sans dériver. C'est le réglage par défaut quand tu hésites.

4 à 5 exemples : pour les tâches complexes

Justifié quand la tâche a beaucoup de variations légitimes que tu veux toutes couvrir. Classification avec edge cases, transformation où plusieurs structures sont valides selon l'input. Au-delà de 5, tu commences à payer en tokens et en attention sans gagner en qualité.

Plus de 5 : à éviter

Plus de 5 exemples diluent l'attention de l'IA et augmentent le coût en tokens sans amélioration mesurable. Si tu sens que 5 exemples ne suffisent pas, c'est que la tâche est trop floue ou trop variée — il vaut mieux la décomposer en plusieurs prompts plus simples avec leurs propres exemples ciblés.

Trois exemples bien choisis valent mieux que dix exemples moyens.

— 6 / 6Les pièges à éviter.

Piège 1 : les exemples non représentatifs

L'IA va imiter tes exemples. Si tes exemples contiennent une erreur, un biais, ou une formulation atypique, elle reproduira l'erreur, le biais, ou la formulation. Le test : choisis des exemples que tu serais content de voir reproduits 100 fois. C'est exactement ce qui va arriver.

Cas typique du piège : tu donnes 3 exemples de mails très formels. L'IA va générer un mail très formel, même si tu lui as précisé en contexte que tu voulais un ton décontracté. Les exemples l'emportent toujours sur les instructions textuelles. Tes exemples doivent refléter exactement ce que tu veux.

Piège 2 : les exemples trop similaires

Si tes 3 exemples sont quasi identiques, l'IA n'a pas appris à généraliser — elle a appris à reproduire. Quand tu lui donnes un input différent, elle force le résultat dans le même moule, même si ce n'est pas adapté.

La règle : tes exemples doivent couvrir des cas différents tout en partageant la même structure. Pour la classification de retours clients, ne donne pas 3 exemples de bugs : donne un bug, une suggestion, un éloge. La diversité est ce qui apprend à l'IA à reconnaître les frontières entre catégories.

Piège 3 : oublier le marqueur de fin

Si tu termines par « Output : » et que l'IA voit qu'il manque la valeur, elle complète. Si tu oublies cette ligne et que tu termines juste par « voilà, à toi de faire pareil », l'IA peut faire n'importe quoi : commenter tes exemples, te demander des précisions, ou produire un résultat hors format.

Le marqueur de fin (« Output : », « Réponse : », « Classification : ») signale clairement que c'est à elle de compléter avec un résultat de la même nature que les exemples précédents. Ne l'oublie jamais.

Piège 4 : utiliser Few-Shot pour de la créativité

Few-Shot impose un pattern. C'est exactement l'inverse de ce que tu veux pour la créativité. Si tu donnes 3 exemples de slogans publicitaires, l'IA va te livrer un quatrième slogan dans le même registre — pas un slogan original. Pour la créativité, reste en zero-shot avec un bon contexte.

Few-Shot et les modèles 2026

Avec les modèles 2026 (Claude Opus 4.7, GPT-5.5, Gemini 3.1 Pro), Few-Shot est moins critique qu'à l'époque de GPT-3 ou GPT-3.5. Les modèles actuels comprennent mieux les instructions textuelles et déduisent souvent le format correct sans exemples. Mais pour les tâches de classification, de format strict, et d'imitation de style, Few-Shot reste la technique la plus fiable. Ne l'oublie pas dans ta boîte à outils.

Ce que tu vas voir dans le prochain article

Tu connais maintenant les deux techniques cœur du prompt engineering moderne : Chain of Thought (raisonnement) et Few-Shot Prompting (format). Le prochain article est l'article-pilier de la rubrique : « Ask Me Questions First », la technique inverse — au lieu de tout dire à l'IA, lui demander de te poser des questions avant de répondre. Le meilleur ratio simplicité/impact de la rubrique.

— L'essentiel à retenir —

5 points sur le Few-Shot Prompting.

  1. 2-3 exemples bien choisis sont souvent plus efficaces que 200 mots d'instructions. Montrer bat expliquer.
  2. Trois niveaux : zero-shot (0 exemple, défaut), one-shot (1 exemple, simple), few-shot (2-5 exemples, optimal).
  3. Few-Shot brille sur la classification, le format strict, l'imitation de style, et les tâches contre-intuitives.
  4. Tes exemples doivent être parfaits et diversifiés. L'IA va exactement les imiter — y compris leurs défauts.
  5. Évite Few-Shot pour la créativité. Il impose un pattern, ce qui est l'opposé de ce que tu veux pour des idées originales.