L'IA est utile dans 90 % des cas. Les 10 % restants peuvent te coûter une carrière, ta santé, ou de l'argent que tu ne récupéreras pas. Cet article cartographie ces 10 %.

Tu as appris à détecter les hallucinations, à vérifier les sources, à cadrer tes prompts, à déjouer la sycophancy. Ces compétences couvrent la majorité des situations. Cet article s'attaque à une question différente : quels sont les domaines où, même avec toutes ces précautions, l'IA seule reste insuffisante ?

La question n'est pas théorique. Le 29 octobre 2025, OpenAI a explicitement interdit à ChatGPT de fournir des conseils médicaux ou juridiques personnalisés — moins d'une semaine avant que sept procès soient déposés en Californie pour des préjudices liés à des conseils de l'IA, dont des cas d'incitation au suicide. Le 4 mars 2026, Nippon Life Insurance a poursuivi OpenAI pour exercice illégal du droit, alléguant que ChatGPT a aidé un justiciable à produire des dizaines de dépôts juridiquement infondés. Les deux affaires illustrent un point central : même les éditeurs reconnaissent que certains domaines dépassent la fiabilité de leurs propres modèles.

Cet article te donne les 7 zones rouges, le pourquoi de chaque limite, la règle pratique à appliquer, et une grille d'auto-évaluation en 4 questions à utiliser avant toute décision basée sur une réponse IA. Une lecture qui te suit pour le reste de ta vie d'utilisateur.

— 1 / 3Les 7 zones rouges.

Voici les 7 domaines où l'IA seule ne devrait jamais constituer ta seule source de décision. Pour chacun, je donne la raison structurelle de la limite et la règle pratique correspondante.

— ZONE 1 / 7
Le médical personnalisé
Symptômes, diagnostics, posologies, interactions médicamenteuses, choix de traitement. Les taux d'erreur de l'IA en santé varient de 8 à 83 % selon les tâches, et les conséquences sont incomparables aux autres domaines. Une étude de mars 2025 a montré que les recommandations médicales de ChatGPT contiennent des erreurs cliniquement significatives dans une part substantielle des cas. OpenAI a explicitement banni les conseils médicaux personnalisés de ChatGPT le 29 octobre 2025, suivi de sept procès en Californie pour préjudices.
— Règle pratique L'IA peut expliquer un mécanisme général (« comment fonctionne tel médicament », « qu'est-ce que telle pathologie ») et te préparer à une consultation (« quelles questions poser au médecin »). Elle ne doit jamais être ta source pour un diagnostic, une posologie, ou un choix de traitement. Médecin = obligatoire.
— ZONE 2 / 7
Le juridique applicable
Articles de loi, jurisprudence, droits spécifiques à ta situation, rédaction d'écritures. Les hallucinations sont massives sur ce domaine — plusieurs avocats américains ont été sanctionnés disciplinairement pour avoir cité de la jurisprudence inventée par ChatGPT dans leurs dépôts. OpenAI a banni les conseils juridiques personnalisés en octobre 2025. Le 4 mars 2026, Nippon Life Insurance a poursuivi OpenAI pour exercice illégal du droit, après qu'un justiciable s'appuyant uniquement sur ChatGPT ait coûté à l'entreprise des centaines de milliers de dollars en frais juridiques.
— Règle pratique L'IA peut expliquer un concept juridique général, te donner le vocabulaire à connaître, t'aider à comprendre ce que dit un contrat. Elle ne doit jamais être ta source pour des articles de loi précis, de la jurisprudence citée, ou des écritures. Toute information juridique précise se vérifie sur Légifrance ou EUR-Lex. Pour les enjeux réels : avocat = obligatoire.
— ZONE 3 / 7
Le fiscal et financier décisionnel
Taux d'imposition, seuils, optimisation fiscale, choix d'investissement, structuration patrimoniale. Trois problèmes cumulés : (1) la fiscalité change chaque année alors que l'IA a une date de coupure de connaissances, (2) elle varie par juridiction et situation personnelle, (3) une erreur a des conséquences directes sur ton compte bancaire. OpenAI a inclus le conseil financier dans ses restrictions d'octobre 2025. Sur l'investissement, s'ajoute le problème que personne — IA ou humain — ne peut prédire les marchés avec fiabilité.
— Règle pratique L'IA peut expliquer le fonctionnement d'un dispositif fiscal, comparer des concepts, te préparer à une discussion avec un expert. Elle ne doit jamais être ta source pour les chiffres précis (toujours vérifier sur impots.gouv.fr ou équivalent), pour une décision d'investissement réelle, ou pour de l'optimisation fiscale personnalisée. Expert-comptable, conseil en gestion de patrimoine = obligatoires sur les vrais enjeux.
— ZONE 4 / 7
Le factuel précis à enjeu
Statistiques exactes, dates précises, chiffres-clés à publier, biographies de personnes peu connues. Le taux d'hallucination atteint jusqu'à 51 % sur les questions concernant des personnes spécifiques, et 30-50 % sur les références bibliographiques niches. Si tu cites un chiffre dans une présentation client ou un article, et qu'il est faux, la conséquence est ta crédibilité durablement entachée. Les modèles 2026 (même Claude Opus 4.7, le plus calibré) restent imparfaits sur ce point.
— Règle pratique Aucune statistique, date précise, citation, ou information biographique sortie de l'IA ne va dans une publication, présentation client, ou prise de parole publique sans vérification à la source primaire. INSEE, Eurostat, sites officiels, Wikipedia avec ses propres sources, Google Scholar pour les études. Voir la méthode de vérification en 60 secondes.
— ZONE 5 / 7
Le créatif à droits protégés
Génération d'images, de musique, de textes ou de code que tu vas publier ou monétiser. Trois enjeux. (1) Droits d'auteur : les modèles génératifs ont été entraînés sur des œuvres protégées et peuvent reproduire des éléments suffisamment proches d'une œuvre existante pour exposer à des poursuites. (2) Marques déposées : génération potentielle de logos ou identités proches de marques existantes. (3) Authenticité contractuelle : certains contrats de prestation imposent un travail original et l'usage non déclaré d'IA peut constituer une rupture.
— Règle pratique Avant toute publication ou monétisation d'un livrable IA : vérifier l'originalité (recherche d'image inversée pour les visuels, détecteur d'IA pour les textes si pertinent), vérifier les droits du modèle utilisé (les conditions d'usage commercial diffèrent entre Midjourney, DALL-E, Stable Diffusion, Runway), et déclarer l'usage de l'IA à ton client si le contrat l'exige. Sur les enjeux importants : avocat spécialisé en propriété intellectuelle.
— ZONE 6 / 7
L'éthique et le jugement humain
Conflits interpersonnels, décisions RH, évaluations morales, dilemmes relationnels. C'est là que la sycophancy est la plus dangereuse — l'étude Stanford Science de mars 2026 a montré que les IA approuvent les comportements problématiques de leurs utilisateurs 49 points de plus que les humains, y compris dans des cas de tromperie ou de manipulation. Pire : une seule interaction avec une IA flatteuse rend mesurablement les utilisateurs moins enclins à reconnaître leurs torts. L'IA reformule tes comportements en termes valorisants au lieu de te confronter.
— Règle pratique Pour tout dilemme relationnel ou éthique impliquant d'autres personnes : au moins un humain de confiance doit te donner son avis avant que tu agisses. Conjoint, ami, mentor, thérapeute, manager. L'IA peut t'aider à structurer ta pensée — elle ne peut pas remplacer un regard extérieur réellement neutre. Une IA n'a pas d'éthique, elle a un entraînement.
— ZONE 7 / 7
Le prédictif sur des systèmes complexes
Évolution du marché, comportement futur d'un concurrent, prévisions économiques, tendances technologiques à 5 ans, futur d'une crise géopolitique. L'IA ne peut pas prédire l'avenir mieux qu'un humain compétent — et la plupart du temps, moins bien. Elle synthétise les opinions présentes dans son corpus, qui sont elles-mêmes mauvaises pour anticiper. Le risque additionnel : la fluidité de la réponse IA donne une fausse impression de certitude sur des prévisions intrinsèquement spéculatives.
— Règle pratique L'IA peut énumérer les facteurs en jeu dans une évolution future, présenter les scénarios possibles, et structurer ton analyse. Elle ne doit jamais être traitée comme une prévision fiable. Sur les vraies décisions stratégiques (investissement long terme, choix de carrière, pivot business), croise plusieurs sources expertes humaines, accepte l'incertitude irréductible, et ne te repose jamais sur la confiance apparente d'une réponse IA.

L'IA est un excellent assistant. Elle est un mauvais décideur. La frontière entre les deux est la limite à ne jamais franchir.

— 2 / 3La grille de décision en 4 questions.

Plutôt que de mémoriser les 7 zones, voici la grille à appliquer mentalement avant toute décision basée sur une réponse IA. 30 secondes de réflexion, et tu sais si tu peux te fier à la réponse seule ou si tu dois la croiser.

— Grille d'auto-évaluation

Avant d'agir sur une réponse IA, demande-toi :

— QUESTION 1
« Si cette réponse est fausse, est-ce que ça a une conséquence que je ne peux pas annuler ? »
Si oui (santé, argent dépensé, document signé, communication publique) → vérification obligatoire avant action.
— QUESTION 2
« Est-ce que cette réponse engage ma responsabilité auprès d'un tiers ? »
Si oui (client, employé, partenaire, lecteur) → vérification obligatoire, et probablement consultation d'un humain compétent.
— QUESTION 3
« Le sujet appartient-il à un domaine où l'erreur est interdite (santé, droit, fiscalité, finance) ? »
Si oui → l'IA n'est jamais ta source unique. Sources officielles + professionnel certifié sont obligatoires.
— QUESTION 4
« Est-ce que je peux annuler ma décision facilement si elle s'avère mauvaise ? »
Si non (engagement long terme, dépense importante, parole donnée publiquement) → seconde source obligatoire avant action.

La règle d'application est simple : si tu réponds « oui » ou « non » défavorable à une seule de ces 4 questions, tu ne peux pas agir sur la base de l'IA seule. Tu dois soit vérifier (sources primaires), soit croiser (autre IA + recherche web — voir l'article 4.6 sur le double-check), soit consulter (humain compétent dans le domaine).

Cette grille te suit dans toutes tes interactions IA, à vie. Elle ne change pas avec les nouvelles versions des modèles. Quand l'enjeu monte, le seuil de vérification monte mécaniquement — c'est aussi simple que ça.

— 3 / 3La posture juste face à l'IA.

Ce que ces 7 zones t'apprennent vraiment

Au-delà des 7 cas, le message structurant est plus large. L'IA est un outil de synthèse et d'élaboration, pas un oracle. Elle est puissante quand tu l'utilises pour structurer ta pensée, accélérer un travail, comprendre un sujet. Elle est dangereuse quand tu l'utilises pour te dispenser de penser, vérifier ou consulter.

La frontière entre les deux usages est claire : l'IA t'aide à mieux décider, jamais elle ne décide à ta place. Tant que tu gardes cette distinction nette, les 7 zones rouges deviennent évidentes — ce sont les zones où la décision a des conséquences que tu portes seul, et où donc seul un humain qualifié peut être ton interlocuteur de confiance.

Le piège de l'asymétrie

Voici le piège qui transforme l'IA en risque : elle te fait gagner du temps 90 % du temps, et te coûte cher 10 % du temps. La régularité du gain crée une habitude. L'habitude réduit ta vigilance. La vigilance réduite te fait passer la grille de décision sans la lire. Et ce jour-là, tu es dans les 10 %.

La discipline anti-asymétrie : plus tu utilises l'IA, plus tu dois maintenir ta vigilance critique. Pas l'inverse. C'est contre-intuitif (« j'ai l'habitude, je sais ce que je fais »), mais c'est précisément l'inverse qu'il faut faire — l'expertise dans l'usage de l'IA n'est pas la disparition du doute, c'est sa systématisation.

Quand l'IA est une excellente solution

Pour équilibrer le tableau : il existe énormément de cas où l'IA seule est parfaitement suffisante. Brainstormer des idées, structurer un texte que tu vas relire, comprendre un concept général, traduire pour un usage personnel, coder un script de test, résumer un document que tu vas vérifier, préparer une réunion. Sur tous ces cas, la grille de décision répond « non » aux 4 questions, et tu peux y aller sereinement.

Le but de cet article n'est pas de te rendre paranoïaque face à l'IA. Il est de te donner la capacité de discriminer entre les usages où elle est sans risque et ceux où elle peut te coûter cher. Cette discrimination, une fois automatisée, est la marque de l'utilisateur mature.

Ma règle de mentor

Internalise cette phrase : « si je délègue cette décision à l'IA, qui paye en cas d'erreur ? ». Si la réponse est « moi seul, et la facture est limitée » → l'IA peut suffire. Si la réponse est « moi gravement, ou un tiers, ou ma réputation » → l'IA n'est jamais ta source unique. Cette question seule te protège des 7 cas plus efficacement que n'importe quelle liste mémorisée.

Ce que tu vas voir dans le prochain article

Tu sais maintenant quand ne pas faire confiance à l'IA seule. Le prochain article te donne comment faire en pratique : la méthode du double-check qui combine IA et recherche web, et le cross-check entre plusieurs IA pour les sujets sensibles. La méthode opérationnelle pour ne plus jamais avoir à te demander si tu peux te fier à une réponse.

— L'essentiel à retenir —

5 points sur les 7 cas où ne jamais faire confiance à l'IA seule.

  1. Les 7 zones rouges : médical personnalisé, juridique applicable, fiscal/financier décisionnel, factuel précis à enjeu, créatif à droits protégés, éthique et jugement humain, prédictif sur systèmes complexes.
  2. OpenAI a lui-même banni les conseils médicaux et juridiques personnalisés de ChatGPT le 29 octobre 2025, suivi de sept procès en Californie. Les éditeurs reconnaissent les limites de leurs propres modèles.
  3. Grille de décision en 4 questions : conséquence irréversible ? engage un tiers ? domaine où l'erreur est interdite ? décision difficilement annulable ? Un seul « oui » défavorable = vérification obligatoire.
  4. Le piège de l'asymétrie : l'IA gagne du temps 90 % du temps et coûte cher 10 % du temps. La régularité du gain réduit la vigilance — il faut au contraire la systématiser à mesure que l'usage augmente.
  5. Posture juste : l'IA t'aide à mieux décider, jamais elle ne décide à ta place. Question test : « si je délègue cette décision à l'IA, qui paye en cas d'erreur ? » Si quelqu'un d'autre que toi seul, ou que ta facture limitée, l'IA n'est jamais ta source unique.