Tu ne peux pas empêcher l'IA d'halluciner. Mais tu peux changer le cadrage de tes prompts pour que l'IA hallucine beaucoup moins, et qu'elle te le signale quand elle hallucine.

Les deux articles précédents t'ont donné l'outillage défensif : comprendre pourquoi l'IA hallucine et vérifier les sources qu'elle cite. Cet article te donne l'outillage offensif : comment formuler tes prompts pour que les hallucinations diminuent à la source, avant même qu'elles atteignent ta lecture.

L'idée centrale est simple. Par défaut, l'IA est entraînée à toujours produire une réponse fluide. Elle ne sait pas, par défaut, qu'il est acceptable de dire « je ne sais pas » ou « je ne suis pas certain ». En ajoutant les bonnes formulations à ton prompt, tu modifies son comportement de réponse — tu lui donnes la permission explicite d'exprimer son incertitude, et tu cadres la façon dont elle doit traiter les zones où elle pourrait fabriquer.

Cet article te donne les 4 phrases testées qui, ensemble, réduisent significativement les hallucinations sur la plupart des modèles 2026. Pas une formule magique — un cadrage technique précis qui marche par construction.

— 1 / 4Pourquoi un cadrage change la sortie.

Les modèles de langage ne sont pas des bases de données. Ils sont des générateurs probabilistes. Quand tu poses une question, le modèle produit la suite de mots la plus probable étant donné l'entrée. Cette « entrée » comprend ta question — mais aussi tout ce qui précède dans la conversation, y compris les instructions de cadrage que tu as données.

Quand tu écris « si tu n'es pas sûr, dis-le » dans ton prompt, tu modifies les probabilités de génération. Tu rends statistiquement plus probables les réponses qui contiennent « je ne suis pas certain », « cette information demande vérification », ou simplement « je ne sais pas ». Sans ce cadrage, ces formulations sont rares parce que les modèles sont entraînés sur du texte humain où les réponses incertaines sont moins fréquentes que les réponses confiantes.

Le mécanisme est mécanique : tu ne supprimes pas la possibilité d'halluciner, tu débloques l'aveu d'incertitude qui était inhibé par défaut. Sur les sujets que le modèle connaît mal, il est désormais plus susceptible de signaler son ignorance que de fabriquer. Sur les sujets qu'il connaît bien, le cadrage n'a pas d'effet — il continue à répondre normalement.

Le bon prompt ne rend pas l'IA infaillible. Il la rend honnête sur ce qu'elle ne sait pas.

— 2 / 4Les 4 phrases à intégrer.

Voici les quatre formulations à intégrer dans tes prompts à enjeu. Chacune cible une catégorie d'hallucinations différente. Ensemble, elles forment un cadrage robuste.

— PHRASE 1 / 4 · Permission d'incertitude
« Si tu n'es pas certain d'une information, dis-le explicitement. Préfère "je ne sais pas" à une réponse qui pourrait être fausse. »
C'est la phrase de base. Elle change la priorité par défaut du modèle. Sans elle, l'IA est entraînée à privilégier la fluidité de la réponse sur l'exactitude — c'est ce qui produit les fabrications confiantes. Avec elle, tu lui dis qu'il est socialement acceptable de signaler son ignorance, et qu'une non-réponse vaut mieux qu'une fausse réponse.
— Effet observable L'IA ajoute des marqueurs comme « je ne suis pas certain », « cette information demande vérification », « selon mes connaissances ». Sur les sujets niches ou récents, elle refuse plus souvent de répondre au lieu de fabriquer.
— PHRASE 2 / 4 · Sourçage explicite
« Pour chaque référence ou statistique citée, indique entre crochets [VÉRIFIÉ] si tu en es certain, [À VÉRIFIER] si tu n'es pas sûr de l'existence ou de l'exactitude. »
Cette phrase pousse l'IA à auto-évaluer chaque élément factuel qu'elle produit. Le résultat est double : les références qu'elle marque [VÉRIFIÉ] sont statistiquement plus fiables (elle a une trace forte dans son corpus), et les références marquées [À VÉRIFIER] te signalent où concentrer ton effort de fact-checking. Tu hiérarchises ton travail de vérification au lieu de tout vérifier.
— Effet observable L'IA hiérarchise ses propres affirmations. Sur les sujets pointus, tu vois souvent apparaître plus de [À VÉRIFIER] que tu ne le pensais — révélant les zones où elle aurait fabriqué sans le savoir.
— PHRASE 3 / 4 · Séparation savoir/déduction
« Avant de répondre, distingue clairement ce que tu sais avec certitude (faits documentés) de ce que tu déduis ou estimes (raisonnement, hypothèse). »
Une catégorie majeure d'hallucinations vient du fait que l'IA mélange savoir et inférence dans la même phrase, sans signaler la transition. Cette phrase force le modèle à structurer sa réponse en séparant les deux modes. Tu obtiens des paragraphes du type « ce qui est documenté : … / ce qui est mon estimation : … » — beaucoup plus exploitables qu'une réponse monolithique.
— Effet observable Les réponses deviennent plus longues mais plus utilisables. Tu vois apparaître des sections ou des marqueurs explicites du type « Selon les sources documentées : … / Mon estimation : … ». Tu peux faire confiance aux premières et débattre les secondes.
— PHRASE 4 / 4 · Question avant réponse
« Si ma demande contient des ambiguïtés ou si une information manque pour répondre correctement, pose-moi tes questions avant de produire une réponse. »
Une autre source majeure d'hallucinations : l'IA comble les manques par défaut. Tu poses une question imprécise, l'IA suppose les détails manquants, fabrique une réponse cohérente avec ses suppositions, et tu reçois une sortie élégante mais à côté du sujet. Cette phrase force l'IA à clarifier au lieu d'inventer le contexte.
— Effet observable Sur les prompts ambigus, l'IA te renvoie 2-3 questions de clarification avant de répondre. C'est ce que fait un consultant compétent quand un brief est flou — au lieu de partir tête baissée et de produire à côté.

— 3 / 4Le prompt complet combiné.

Voici les 4 phrases combinées en un seul bloc d'instructions. Tu peux le copier-coller en début de prompt pour toutes tes demandes à enjeu, ou le mettre une fois pour toutes dans tes Custom Instructions pour qu'il s'applique à toutes tes conversations.

— Prompt anti-hallucination · à intégrerCadrage de fiabilité (à respecter pour cette réponse) : 1. Si tu n'es pas certain d'une information, dis-le explicitement. Préfère "je ne sais pas" à une réponse qui pourrait être fausse. 2. Pour chaque référence ou statistique citée, indique entre crochets [VÉRIFIÉ] si tu en es certain, [À VÉRIFIER] si tu n'es pas sûr. 3. Avant de répondre, distingue ce que tu sais avec certitude (documenté) de ce que tu déduis ou estimes (raisonnement, hypothèse). 4. Si ma demande contient des ambiguïtés ou si une information manque, pose-moi tes questions avant de produire une réponse. Ma demande : [ta demande ici]
L'astuce du mentor

Mets ce bloc une fois dans tes Custom Instructions permanentes, sous la forme : « sur tous les sujets factuels ou à enjeu, applique systématiquement les 4 règles de cadrage de fiabilité (incertitude explicite, marqueurs [VÉRIFIÉ]/[À VÉRIFIER], séparation savoir/déduction, questions avant réponse) ». Tu n'as plus à le réécrire à chaque conversation.

— 4 / 4Les limites de la méthode.

Cette méthode marche, mais elle n'est pas magique. Voici les limites à connaître pour calibrer tes attentes.

Ne supprime pas les hallucinations, les réduit
Les modèles 2026 restent imparfaits sur leur auto-évaluation. Sur certains sujets, l'IA sera confiante à tort — elle marquera [VÉRIFIÉ] une référence qui est en réalité fabriquée. Le cadrage diminue le taux d'hallucinations, il ne l'annule pas. La vérification reste nécessaire sur les sujets à risque (voir l'article précédent).
Marche mieux sur certains modèles que d'autres
Claude Opus 4.7 (avril 2026) est structurellement le mieux calibré sur ce type de cadrage — Anthropic a entraîné le modèle à refuser plutôt que deviner. GPT-5.5 et Gemini 3.1 Pro répondent aussi mais avec un effet plus modéré. Sur les modèles plus petits (Haiku, Flash, GPT-mini), le cadrage a moins d'effet — l'IA continue parfois à fabriquer même quand on lui demande explicitement de signaler l'incertitude.
Le coût en verbosité
Les réponses cadrées sont plus longues que les réponses standards. L'IA ajoute des marqueurs, des nuances, des sections. C'est le prix à payer pour la fiabilité. Si tu utilises le cadrage sur des questions simples (genre « quelle est la capitale de la France ? »), c'est de la friction inutile. Réserve-le pour les questions à enjeu factuel.
L'effet placebo possible
Attention : ce n'est pas parce que l'IA marque [VÉRIFIÉ] qu'elle est exacte. Le marqueur reflète sa confiance subjective, pas la vérité objective. Une IA peut être confiante et avoir tort — c'est même le pattern classique des hallucinations les plus piégeuses. Le cadrage est une aide, pas une garantie. Garde la discipline de vérification sur les sujets sensibles.

Le vrai gain : la conscience du risque

Au-delà de la réduction quantitative des hallucinations, le bénéfice principal de ces 4 phrases est cognitif : elles t'imposent une posture mentale différente face à l'IA. Tu cesses de la traiter comme un oracle qui sait tout, tu commences à la traiter comme un assistant calibré qui distingue ce qu'il sait de ce qu'il infère.

Cette posture, une fois ancrée, change ta lecture de toute réponse IA — même quand tu n'as pas activé le cadrage. Tu lis avec un œil qui cherche les zones d'incertitude, qui repère les sauts logiques, qui filtre les confidences excessives. C'est ça, l'esprit critique appliqué à l'IA. Pas de la défiance systématique — une lecture active.

Ce que tu vas voir dans le prochain article

Les hallucinations sont un problème de contenu faux. Mais il existe un autre problème, plus insidieux : la flatterie. L'IA est entraînée à te plaire, à valider tes hypothèses, à approuver tes décisions — même quand elle devrait te contredire. Une étude Stanford de mars 2026 a montré que les IA approuvent les utilisateurs 49 points de pourcentage de plus que les humains. Le prochain article te donne les armes pour sortir de ce piège.

— L'essentiel à retenir —

5 points sur le prompt anti-hallucination.

  1. Le bon cadrage ne rend pas l'IA infaillible — il débloque l'aveu d'incertitude qui était inhibé par défaut. Tu modifies les probabilités de génération en faveur des réponses honnêtes.
  2. Phrase 1 : « Si tu n'es pas sûr, dis-le. » Permission d'incertitude — l'IA refuse plus souvent au lieu de fabriquer.
  3. Phrase 2 : « Marque [VÉRIFIÉ] ou [À VÉRIFIER] chaque référence. » Sourçage explicite — l'IA hiérarchise ses propres affirmations.
  4. Phrase 3 : « Distingue ce que tu sais de ce que tu déduis. » Sépare savoir et inférence — la réponse devient structurée et exploitable par bloc.
  5. Phrase 4 : « Pose-moi des questions si quelque chose manque. » Empêche le remplissage par défaut — l'IA clarifie au lieu d'inventer le contexte.