C'est la technique qui a déclenché toute l'évolution récente des IA conversationnelles.
En 2022, des chercheurs de Google ont publié un papier qui décrivait un phénomène contre-intuitif : si on demandait à un modèle de langage de « raisonner étape par étape avant de répondre », ses performances sur les problèmes complexes faisaient un bond mesurable. Pas une amélioration de quelques pourcents : un gain de l'ordre de 20 à 40 % sur certaines tâches de raisonnement.
Cette technique s'appelle Chain of Thought (CoT). Elle est aujourd'hui à la base de tous les modèles de raisonnement avancés en 2026 : Claude Opus 4.7 avec son Extended Thinking, ChatGPT avec ses modèles Thinking, Gemini avec son Deep Think. Ces modèles ne font, en gros, que du Chain of Thought intégré et automatisé.
Mais tu n'as pas besoin d'un modèle premium pour en bénéficier. La technique manuelle — six mots à ajouter dans ton prompt — fonctionne sur n'importe quel modèle, y compris les versions gratuites. Cet article te donne le fonctionnement, les exemples concrets, les variantes, et la différence entre CoT manuel et Extended Thinking 2026.
— 1 / 6Pourquoi les LLM ratent les raisonnements complexes.
Une IA conversationnelle génère du texte mot par mot. À chaque mot, elle choisit le plus probable selon ce qui précède. Pour une question simple (« quelle est la capitale de la France ? »), ce mécanisme marche parfaitement. Pour un problème de raisonnement en plusieurs étapes, il a une faille structurelle.
Quand tu poses une question complexe, l'IA est pressée d'arriver à la conclusion. Elle saute des étapes intermédiaires parce que statistiquement, dans ses données d'entraînement, les humains formulent souvent leur réponse en abrégé. Résultat : elle te livre une conclusion avec un raisonnement compressé, où elle a peut-être oublié une étape critique. La réponse a l'air confiante. Elle est fausse.
L'analogie : imagine demander à quelqu'un de calculer mentalement « 47 fois 83 ». La plupart des gens vont essayer de répondre vite, sauter des étapes, et se tromper. Si tu leur demandes de poser le calcul sur papier, ils vont y arriver. Pas parce qu'ils sont devenus plus intelligents. Parce qu'ils ont décomposé.
L'IA a exactement le même biais. Et c'est ce que Chain of Thought corrige.
L'IA n'est pas mauvaise en raisonnement. Elle est mauvaise en raisonnement compressé.
— 2 / 6La solution en six mots.
C'est la formulation originale du papier de Google (en anglais : « Let's think step by step »). Ajoute-la à n'importe quel prompt complexe et tu vas voir une transformation immédiate du comportement de l'IA. Au lieu de produire une réponse compressée, elle va écrire son raisonnement, étape par étape, à voix haute.
Le résultat est paradoxal : la réponse devient plus longue, mais elle devient aussi plus juste. La longueur n'est pas du remplissage — c'est le raisonnement explicite qui n'aurait pas eu lieu sinon. Et ce raisonnement explicite te donne quelque chose de précieux : tu peux vérifier chaque étape, repérer où l'IA s'est trompée, et corriger.
Pourquoi ça marche techniquement
Quand l'IA écrit son raisonnement étape par étape, elle s'auto-conditionne. Chaque étape qu'elle pose devient un nouvel input pour les étapes suivantes. Le raisonnement de l'étape 3 prend en compte ce qu'elle a écrit aux étapes 1 et 2 — donc il est mieux ancré, plus rigoureux. Sans CoT, l'IA tente de tout faire en un seul saut probabiliste.
C'est l'équivalent de la différence entre « réfléchis dans ta tête » et « écris ton raisonnement ». Pour les humains aussi, écrire force la rigueur. Pour les LLM, c'est encore plus marqué.
— 3 / 64 exemples avant / après.
Quatre cas concrets dans quatre domaines où Chain of Thought fait une différence visible. Tu peux tester chaque cas toi-même : pose la question vague à ton IA, puis ajoute la phrase magique, et compare les réponses.
— 4 / 6Les variantes de la phrase magique.
« Réfléchis étape par étape » est la formulation de base. Il existe plusieurs variantes qui activent des nuances différentes du même mécanisme. À utiliser selon le type de problème.
— 5 / 6CoT manuel vs Extended Thinking 2026.
En 2026, les modèles avancés ont intégré le Chain of Thought directement dans leur architecture. Ces modèles s'appellent les modèles de raisonnement ou « reasoning models ». Les principaux sont :
Claude Opus 4.7 avec Extended Thinking (Anthropic, sorti en février 2026). Tu actives un toggle, et l'IA prend explicitement 10 secondes à 2 minutes pour raisonner avant de répondre. Disponible sur les plans Pro et Max de Claude.
ChatGPT en mode Thinking (OpenAI). GPT-5.5 Thinking est le modèle de raisonnement par défaut sur le plan Plus à 20 $/mois. Disponible aussi en mode Pro avec un raisonnement encore plus profond (jusqu'à plusieurs minutes).
Gemini 3.1 Pro avec Deep Think (Google), réservé au plan AI Ultra. Le modèle de raisonnement le plus poussé de Google.
Pour ces modèles, tu n'as plus besoin d'écrire « réfléchis étape par étape » — c'est intégré. Le modèle décide tout seul quand activer le raisonnement profond et combien de temps y consacrer.
Alors, le CoT manuel sert encore à quoi ?
Trois cas où le CoT manuel reste nécessaire en 2026 :
1. Quand tu utilises un modèle non-Thinking. Sur les versions gratuites (Sonnet 4.6 sur Claude Free, GPT-5.3 Instant sur ChatGPT Free, Gemini 2.5 Flash), le raisonnement étendu n'est pas activé. Le CoT manuel reste indispensable.
2. Quand tu veux contrôler la structure du raisonnement. Les modèles Thinking raisonnent en interne et te donnent juste la conclusion. Si tu veux voir le raisonnement, ou le diriger d'une manière précise (« d'abord les hypothèses, puis les scénarios, puis la recommandation »), le CoT manuel te donne ce contrôle.
3. Quand le coût compte. Les modèles Thinking consomment plus de tokens et donc épuisent ton quota plus vite. Pour des cas où le CoT manuel suffit (questions simples avec un peu de raisonnement), il est plus économique d'utiliser le mode standard avec « réfléchis étape par étape ».
Si tu débutes en 2026 et que tu as un plan Pro chez Claude ou ChatGPT, laisse Extended Thinking activé par défaut sur les questions complexes. C'est plus efficace que le CoT manuel. Garde le CoT manuel pour les cas spécifiques (modèles gratuits, contrôle de structure, économie de quota).
— 6 / 6Quand ne pas utiliser Chain of Thought.
Comme toute technique puissante, CoT a des contre-indications. L'utiliser au mauvais moment dégrade plutôt qu'améliore.
Évite CoT pour les tâches créatives
Pour la rédaction, la génération d'idées, l'écriture stylisée, le brainstorming, CoT est contre-productif. La créativité ne suit pas un chemin linéaire — la formaliser en étapes la tue. Si tu demandes « écris-moi un poème, étape par étape », l'IA va te livrer un poème mécanique. Laisse l'IA tirer ses associations naturellement.
Évite CoT pour les questions factuelles simples
Pour « qui a écrit Le Petit Prince ? », ajouter « réfléchis étape par étape » ne sert à rien et fait perdre du temps. CoT est conçu pour les raisonnements, pas pour les rappels factuels. Si la réponse tient en 5 mots, n'active pas CoT.
Évite CoT pour les conversations rapides
Pour les itérations courtes dans une conversation déjà bien établie (« change le ton », « plus court », « reformule »), CoT est superflu. L'IA n'a pas besoin de raisonner pour ces tâches d'ajustement, elle a besoin d'exécuter rapidement.
Chain of Thought traite le raisonnement. La technique suivante traite la précision du format : comment obtenir exactement la structure de réponse que tu veux en montrant 2-3 exemples plutôt qu'en l'expliquant. C'est le Few-Shot Prompting, l'autre pilier des techniques cœur du prompt engineering en 2026.
5 points sur Chain of Thought.
- « Réfléchis étape par étape avant de répondre » : six mots qui multiplient la qualité du raisonnement par 3 sur les problèmes complexes.
- L'IA n'est pas mauvaise en raisonnement, elle est mauvaise en raisonnement compressé. CoT force la décomposition.
- 5 variantes utiles selon le cas : « liste tes hypothèses », « décompose », « vérifie chaque étape », « considère plusieurs angles », « pense à voix haute ».
- En 2026, les modèles Thinking (Opus 4.7, GPT-5.5 Thinking, Gemini Deep Think) intègrent CoT automatiquement. Le CoT manuel reste utile pour les modèles gratuits et le contrôle de structure.
- Évite CoT pour les tâches créatives, les questions factuelles simples, et les itérations courtes. CoT est fait pour le raisonnement, pas pour tout.