Tu as la matrice (article 1.1). Tu as identifié un trou de marché qui a passé le 5-Point Pain Scan (article 1.2). Maintenant la question brutale : est-ce un marché assez grand pour que tu y vives ? Pas en théorie. En chiffres concrets. Sans chiffrer la taille, la demande, les prix observés, tu lances dans le brouillard.

La promesse 2026 est mesurable : ce qui prenait 2-3 mois de research manuelle et coûtait 5 000 à 50 000 € de cabinet de conseil tient en 1 journée avec les bons outils IA, pour 20 à 50 € en tokens et abonnements (IdeaProof avril 2026). 89 % de précision documentée sur les analyses TAM/SAM/SOM générées par les nouvelles plateformes spécialisées (validation contre données live API).

Mais attention, l'enthousiasme cache un piège : l'IA peut générer un rapport d'étude de marché qui paraît rigoureux et qui est en fait creux. Si tu lui demandes « fais-moi une étude de marché sur X » sans cadre, tu obtiens des chiffres ronds, des percentages crédibles, des conclusions séduisantes — souvent inventées par hallucination ou tirées de rapports génériques de 2022 obsolètes. La méthode rigoureuse 2026 consiste à donner à l'IA le bon cadre (TAM/SAM/SOM bottom-up) avec des sources transparentes que tu peux vérifier toi-même.

Cet article te donne (1) le cadre TAM/SAM/SOM qui force à chiffrer honnêtement, (2) la méthode bottom-up qui résiste à la due diligence (vs top-down qui s'effondre), (3) les 4 livrables d'une étude en 1 journée (taille, demande, tarification, zones géographiques), (4) les limites honnêtes de l'IA — et pourquoi le contact direct reste irremplaçable. Plus 5 pièges. Pré-requis : 1.1, 1.2. Suite : 1.4 sur l'analyse concurrents et avatar client.

— Sources : IdeaProof · Preuve AI · HubSpot · PMToolkit · Productside · 2026
5 000 € → 50 €
Coût d'une étude de marché classique : 5 000-50 000 € en cabinet de conseil, 2-3 mois de délai (IdeaProof janvier 2026). Coût IA-augmentée 2026 : 20-50 € en tokens et abonnements outils, 1 journée de travail. IdeaProof : rapports incluant viability score (0-100), TAM/SAM/SOM, competitor mapping, target audience profiles, SWOT, risk assessment — 89 % de précision documentée avec API live market data. Outils 2026 spécialisés : IdeaProof (€19-49 vs €15K+ consultants), Preuve AI (40+ data sources), Market Insights AI (free, ChatGPT API), Ainna (TAM/SAM/SOM transparent assumptions), GWI Spark (verified consumer panel ~1M users via MCP). Pattern dominant 2026 : « mixture of experts » approach selon Productside — Copilot ou search engines pour data discovery, ChatGPT/Claude pour analyse trends et model assumptions. Définitions canoniques (PMToolkit) : TAM = total revenue si 100 % market share zero contraintes ; SAM = portion réaliste avec ton business model, géo, capabilities (typiquement 10-50 % du TAM) ; SOM = portion capturable en timeframe défini avec compétition, ressources, GTM (typiquement 1-5 % du SAM en 3 ans pour B2B SaaS). Méthode bottom-up vs top-down : bottom-up (count buyers × ARPU/ACV) presque toujours plus défendable car tu peux « show your work » ; top-down (% d'un total category number) facile à inflate, à utiliser comme sanity check seulement. VC Vincent Preuve AI : « Every pre-seed deck has a market slide. Most of them are lies. TAM 50B$ with no source. SAM pulled from thin air. SOM conveniently 1 % of a massive number. VCs don't believe it. » Anti-pattern documenté : confondre TAM avec SAM (impossible 100 % market share), inflate avec GMV au lieu de prendre commission pool si marketplace, claim « 1 % of a big market » sans calcul SOM réel. Pour solo/freelance : SAM réaliste = ce que tu peux toucher avec ton acquisition (souvent 1-10 M€), SOM cible = 0,1-1 % en 12-18 mois.

— 1 / 4Le cadre TAM / SAM / SOM.

Avant les outils, le cadre. Le triangle TAM/SAM/SOM est la grammaire universelle de l'étude de marché en 2026. L'utilité concrète : il te force à passer du « il y a un gros marché » intuitif à des chiffres vérifiables et défendables. Pour un solo, c'est le filtre qui distingue une intuition d'un projet bancable.

TAM — Total Addressable Market
Définition (PMToolkit / Ainna 2026) : total des revenus si tu capturais 100 % du marché avec zéro contrainte. Le ciel théorique.

Exemple concret : tu vises les freelances qui veulent un outil de facturation IA. TAM = (nombre total de freelances dans le monde qui pourraient utiliser un outil de facturation × prix annuel moyen). Sources : Statista, gouv data, FreelanceUK, MBO Partners pour le freelancing.

Utilité : montre l'ambition et le plafond. Limite : personne ne capture jamais 100 %. Un TAM seul ne prouve rien — c'est le terrain de jeu théorique.

Anti-pattern dominant 2026 : « TAM 500 Md $ » sans source. « A credible 5 B$ TAM is better than an incredible 500 B$ » (Preuve AI avril 2026). Mieux vaut un TAM modeste sourcé qu'un TAM gigantesque inventé.
SAM — Serviceable Addressable Market
Définition : portion du TAM que tu peux réellement servir avec ton business model, ta géographie, tes capacités. Filtre du TAM par tes vraies contraintes.

Filtres typiques pour un solo 2026 : géographie (France ? UE ? US ? monde anglophone ?), taille de l'entreprise cliente (TPE 1-10 ? PME 10-50 ? mid-market 50-200 ?), modèle de tarification (subscription ? one-shot ? marketplace ?), langue, canaux d'acquisition que tu maîtrises.

Règle 2026 (Preuve AI) : SAM doit être 10-50 % du TAM, typiquement. Si SAM = TAM, tu n'es pas honnête sur tes contraintes. Si SAM = 1 % du TAM, soit tu as une contrainte structurelle (segment de niche), soit tu peux élargir.

Pour un solo français : SAM réaliste se situe souvent entre 1 et 50 M€/an (selon le secteur). Un SAM de 1 Md$ pour un solo signale que tu as mal segmenté.
SOM — Serviceable Obtainable Market
Définition : portion du SAM que tu peux capturer dans un délai défini, en tenant compte de la compétition, de tes ressources et de ta capacité GTM (go-to-market).

Méthode honnête : recherche le market share que des nouveaux entrants capturent typiquement dans ton secteur. Pour la majorité des B2B SaaS, un cible année-3 réaliste = 1-5 % du SAM (Preuve AI). Pour un solo français, plutôt 0,1-1 % en 12-18 mois.

Calcul concret : SOM = SAM × % réaliste de market share. Exemple : SAM 50 M€ × 0,5 % = 250 K€ ARR cible année 1-2. C'est le chiffre qui doit être économiquement viable pour toi (couvre tes besoins + offre une marge). Si SOM = 50 K€/an, ce n'est pas un projet pour vivre — c'est un side hustle.

Anti-pattern critique : le « lazy 1 % of a big market ». Calcule SOM depuis ta capacité d'acquisition réelle (combien de clients tu peux toucher avec ton budget marketing et tes canaux), pas depuis un % rond.

TAM montre l'ambition. SAM montre le focus. SOM montre la réalité de l'exécution. Les trois doivent être ancrés dans des assumptions transparentes et challengeable. Si tu ne peux pas défendre un chiffre, ne l'utilise pas.

— 2 / 4Bottom-up vs top-down : la méthode qui résiste.

Deux méthodes pour calculer ces chiffres. Une qui résiste à la due diligence d'un VC. Une qui s'effondre au premier challenge. Maîtrise les deux, mais utilise toujours la première comme primaire.

Top-down — la méthode séduisante mais fragile

Mécanisme : tu pars d'un chiffre publié de marché total (Statista, McKinsey, Grand View Research). Tu narrows à ta slice par pourcentages. « Le marché de la facturation B2B est 12 Md$ ; les freelances représentent 15 % ; donc TAM freelance = 1,8 Md$. »

Problème : les rapports payants de marché total sont souvent vieux de 2-3 ans, mal segmentés, et leurs % par segment sont eux-mêmes des estimations. Empilement d'incertitudes. VC pattern : « Where did that 15 % come from ? » — tu peux pas répondre, ton chiffre est mort.

Quand l'utiliser : uniquement comme sanity check sur un calcul bottom-up. Si ton bottom-up donne 50 M€ TAM et un rapport sectoriel donne 100 M€, l'ordre de grandeur est cohérent. Si ton bottom-up donne 50 M€ et le rapport 10 Md$, tu as raté quelque chose.

Bottom-up — la méthode qui résiste

Mécanisme : tu pars de la réalité observable. Combien de buyers qualifiés existent dans ta zone géographique cible ? À quel ARPU ou ACV (annual contract value) achètent-ils typiquement ? Multiplie. « Show your work. »

Exemple concret : tu cibles les freelances français qui facturent > 30 K€/an (cible solvable). Selon URSSAF / ACOSS 2026 : ~1,2 M de freelances en France, dont environ 35 % facturent > 30 K€/an = 420 000 freelances. ARPU cible 15 €/mois = 180 €/an. TAM bottom-up = 420 000 × 180 € = 75,6 M€.

Force : chaque chiffre est sourcé. « Where did the 1,2 M come from ? » → ACOSS public. « Where did the 35 % come from ? » → étude Malt 2026. « Where did the 15 €/mois come from ? » → benchmark de 5 concurrents (Indy, Tiime, FreshBooks). Chaque assumption est défendable.

Les 6 étapes bottom-up avec IA

— Workflow bottom-up TAM/SAM/SOM avec IA · 1 journée
# OBJECTIF : TAM/SAM/SOM défendable en 6-8 heures ÉTAPE 1 — DÉFINIR L'UNITÉ DE DEMANDE (30 min) Formula : (buyer + product unit + geography) à ACV/ARPU/an Exemple : freelance français + abonnement facturation IA + France métropolitaine + 180 €/an Output : 1 phrase claire, pas plus. Anti-pattern : flou sur l'unité = tous les chiffres sont incohérents derrière. ÉTAPE 2 — COUNT QUALIFYING BUYERS (1-2h) Sources fiables 2026 : - INSEE / ACOSS / URSSAF (data publiques) - Eurostat pour UE - LinkedIn Sales Navigator (filtres firmographics) - Crunchbase / CB Insights (B2B) - Statista (cross-check) Outil IA : Perplexity AI pour citation de sources, Claude pour synthèse multi-sources. Output : nombre exact + sources + date des données. ÉTAPE 3 — PRICING OBSERVÉ (1-2h) Méthode : analyse 5-10 concurrents directs + indirects Sources : pricing pages, G2, Capterra, reviews Compute : moyenne pondérée par adoption observée Outil IA : Claude Opus 4.7 pour analyse de pricing pages (long context, structurer en JSON) Output : ARPU/ACV moyen + dispersion + tendances. ÉTAPE 4 — TAM = ÉTAPE 2 × ÉTAPE 3 (15 min) Calcul direct. Documente les sources de chaque chiffre. Sanity check top-down : compare à 1-2 rapports sectoriels. ÉTAPE 5 — SAM (FILTRER PAR CONTRAINTES RÉELLES) (1h) Filtres successifs : géo, taille entreprise, langue, canal d'acquisition, segment psychographique. Output : SAM = TAM × (% atteignable) avec justification. Règle : SAM = 10-50 % du TAM typiquement. ÉTAPE 6 — SOM (RÉALITÉ DE L'EXÉCUTION) (1h) Méthode 1 : market share comparable (1-5 % SAM en 3 ans B2B) Méthode 2 : capacity-based (combien de clients ton acquisition peut toucher × taux de conversion typique) Output : SOM cible 12-18 mois. Décision : SOM × marge = revenu cible. Économiquement viable pour toi ? Si oui, lance. Si non, repense.

— 3 / 4Les 4 livrables d'une étude en 1 journée.

Une étude de marché solo en 2026 doit produire 4 livrables exploitables, pas un rapport de 50 pages que personne ne lira. Voici les 4 outputs concrets que ta journée doit produire.

Livrable 1 — Une page TAM/SAM/SOM sourcée

Une seule page. Format minimaliste. Pour chaque chiffre, la source citée à côté. Pas « le marché B2B SaaS est de 200 Md$ ». Plutôt « TAM bottom-up = 75,6 M€ (420 K freelances FR ACOSS 2026 × 180 €/an benchmark 5 concurrents) ».

L'utilité concrète : tu peux la coller dans un pitch deck, la défendre devant un mentor critique, et tu peux y revenir dans 6 mois pour ré-évaluer. Sans cette traçabilité, ton étude est un château de sable.

Livrable 2 — Tableau de tarification observée

Tableau simple : 5-10 lignes pour 5-10 concurrents directs. Colonnes : nom, positionnement (1 phrase), pricing entry, pricing standard, pricing premium, modèle (subscription/one-shot/freemium), cible déclarée, signal de traction (utilisateurs annoncés, funding, popularité G2).

L'utilité : ça te dit ton positionnement de prix réaliste, ta marge potentielle, et où il y a éventuellement une opportunité de pricing différencié (premium ou ultra-low). Sans cette analyse, tu vas pricer aveuglément et soit te brader, soit pricer trop haut.

Outil IA : Claude Opus 4.7 ou GPT-5.5 pour parser des pricing pages en bulk → output JSON structuré direct.

Livrable 3 — Analyse de la demande chiffrée

Trois indicateurs minimum : (a) Volume de recherche sur les mots-clés cible (Google Keyword Planner, Ahrefs, Ubersuggest gratuit) — « facturation freelance » = 8 100/mois en France, c'est concret. (b) Trajectoire sur 24-36 mois (Google Trends) — croissance, plateau, déclin. (c) Saisonnalité — pics et creux qui affecteront ton CA mensuel.

L'utilité : tu valides que la demande existe et grossit. Une trajectoire en déclin sur 24 mois sur ton mot-clé central = signal d'alarme à creuser avant de lancer.

Outils 2026 : Google Trends (gratuit), AnswerThePublic (questions à intent d'achat), Glimpse (validation de spike trends — distinguer durable vs viral).

Livrable 4 — Carte des zones géographiques porteuses

Pour les solos, savoir « où » ta demande est concentrée vaut autant que « combien ». Si 70 % de tes prospects sont dans 3 grandes métropoles, ton marketing s'optimise différemment que si la demande est diffuse.

Sources : Google Trends interest by region, INSEE pour France, Eurostat pour UE, Census Bureau pour US. Output : top 5 zones géographiques par densité de demande, et le ratio densité demande / densité concurrence (zone idéale = forte demande, faible concurrence locale).

L'utilité : guide ton marketing géo (LinkedIn ads ciblés, événements à attaquer, langue de ton site). Pour un solo francophone qui hésite entre cibler France métropolitaine, France + Belgique + Suisse, ou monde francophone, ces données chiffrent l'arbitrage.

Le format livrable qui marche

Tes 4 livrables tiennent en 4 pages maximum, format markdown ou Notion ou Google Doc — pas un PDF de 50 pages. Page 1 : TAM/SAM/SOM avec sources. Page 2 : tableau pricing 10 concurrents. Page 3 : graphique demande chiffrée + trajectoire. Page 4 : carte géographique + recommandations. Stratégie : tu y reviens chaque mois pendant les 6 premiers mois pour ajuster avec les vraies données que tu collectes en lançant. Une étude de marché solo n'est pas un livrable mort — c'est un document vivant qui se met à jour avec ton apprentissage terrain.

— 4 / 4Les limites honnêtes de l'IA.

L'IA accélère brutalement la collecte et la synthèse. Mais elle a 4 limites structurelles que tu dois connaître pour ne pas te piéger. Si tu sautes cette section, tu vas faire confiance à des chiffres séduisants mais creux.

Limite 1 — L'IA hallucine sur les chiffres précis

Demande à ChatGPT « combien y a-t-il de freelances en France en 2026 ? » sans grounding. Il te donne un chiffre crédible (souvent autour de 1-2 M, dans le bon ordre de grandeur). Mais ce chiffre est une estimation basée sur ses training data 2024 — il peut être obsolète, ou inventé pour « faire crédible ».

Mitigation : utilise Perplexity AI ou ChatGPT avec recherche web activée ou Claude avec web search qui citent les sources URL. Tu vérifies toi-même la source. Sans citation vérifiable, tu ne fais pas confiance au chiffre. « A number without a source is an opinion » (Preuve AI 2026).

Anti-pattern majeur : copier-coller des chiffres IA dans ton étude sans vérification. C'est la cause n°1 d'études de marché fragiles qui s'effondrent au premier challenge.

Limite 2 — L'IA ne capture pas le terrain

L'IA peut te dire « le marché de la facturation freelance pèse X M€ ». Elle ne peut pas te dire si tes prospects spécifiques sont prêts à payer aujourd'hui, à quel prix réel, avec quelles objections. Pour ça, tu dois parler à 5-10 personnes en face-à-face (cf article 1.2 phase validation chiffrée).

Une étude de marché 100 % desk research IA est nécessaire mais pas suffisante. Le marché chiffré confirme que tu es dans une zone viable. Les entretiens utilisateurs confirment que ton offre spécifique résout un problème assez douloureux pour qu'on paie. Sans les deux, tu lances dans le brouillard.

Limite 3 — L'IA reflète des données passées

Les rapports sur lesquels l'IA s'appuie sont publiés avec 12-24 mois de décalage. Dans des secteurs qui bougent vite (IA elle-même, fintech, web3), les chiffres 2024 sont déjà obsolètes en 2026. L'IA ne le sait pas et te les présente comme actuels.

Mitigation : exige des sources avec dates récentes (2025-2026). Cross-référence 2-3 sources. Pour les secteurs très dynamiques, complète avec des signaux temps-réel (volume de recherche Google Trends sur 6 mois, threads Reddit sur 30 jours, communiqués de presse récents). Cf article 1.2 sur les signaux temps-réel.

Limite 4 — L'IA ne juge pas la qualité des sources

Un rapport Statista et un blog post anonyme ont la même crédibilité textuelle pour un LLM. Si la source est dans son training data, l'IA ne distingue pas la rigueur. Elle te ressort le chiffre du blog avec autant de confiance que celui de l'INSEE.

Mitigation : applique une hiérarchie explicite des sources. Tier 1 : données publiques officielles (INSEE, Eurostat, ACOSS, Census, World Bank). Tier 2 : rapports sectoriels payants vérifiables (Gartner, Forrester, IDC, McKinsey). Tier 3 : communiqués entreprises, financial reports, industry associations. Tier 4 : blogs spécialisés, médias business. À éviter : blogs anonymes, sites SEO génériques, articles non datés.

L'IA accélère le scan de 50x. Mais elle ne remplace ni le contact terrain, ni la vérification critique des sources. C'est un outil puissant manié rigoureusement — pas un oracle qu'on consulte aveuglément.

— Bonus5 pièges classiques.

Piège 1 : demander à l'IA « fais-moi une étude de marché »
Tu ouvres ChatGPT et tu demandes « fais-moi une étude de marché complète sur les outils de facturation freelance en France ». Output : un rapport de 3 pages avec des chiffres ronds (« le marché pèse 200 M$ »), des conclusions séduisantes (« forte croissance attendue »), aucune source vérifiable. Tu copies, tu colles, tu y crois. Correction : jamais de demande générique. Décompose en 6 étapes bottom-up (cf section 2 de cet article). Force chaque chiffre à avoir une source vérifiable. Cross-référence systématiquement. C'est plus long, mais c'est rigoureux. Une étude IA générique non-sourcée vaut zéro et te trompe.
Piège 2 : confondre TAM avec SOM
Tu écris « mon marché fait 1 Md $, donc même 1 % = 10 M$, c'est énorme ». Erreur classique. Le 1 Md$ est le TAM, le ciel théorique. Tu ne captureras jamais 1 %. Pour un solo en année 1-2, ton SOM réaliste est probablement 0,01-0,1 % du TAM, soit 100 K€ - 1 M€ — pas 10 M€. Correction : raisonne toujours en SOM, pas TAM. SOM = ce que tu peux réellement faire en 12-18 mois avec ta capacité d'acquisition. Si SOM × marge n'est pas viable pour toi, repense le projet — pas l'inverse.
Piège 3 : ignorer la tarification observée
Tu décides ton pricing avant d'analyser les concurrents. Tu te fies à ton intuition (« 50 €/mois, ça paraît juste ») ou à des règles de pouce (« 10 % de la valeur créée »). Tu lances. Tes prospects te répondent « c'est trois fois plus cher que [Concurrent] ». Tu réalises que tu n'avais pas fait l'analyse. Correction : livrable 2 obligatoire — tableau de 5-10 concurrents avec pricing entry/standard/premium. Tu te positionnes ensuite en connaissance de cause : low-cost, premium, ou différencié sur l'offre. Sans cette analyse, tu pricings aveuglément.
Piège 4 : sauter les entretiens face-à-face « parce que l'IA a validé »
L'IA te sort un beau rapport avec TAM/SAM/SOM, sources, tableaux. Tu te dis « j'ai validé ». Tu sautes les 5-10 entretiens utilisateurs. Tu construis 3 mois. Tu réalises que les acheteurs réels ont des objections que ton étude desk n'a pas captées (timing d'achat, processus de décision interne, intégrations existantes). Correction : étude IA + entretiens face-à-face = combo non-négociable. L'étude IA te dit combien. Les entretiens te disent pourquoi et comment. Sans les deux, tu n'as pas validé. Cf article 1.2 sur la validation chiffrée 3 niveaux.
Piège 5 : traiter l'étude comme un livrable mort
Tu fais ton étude en 1 journée. Tu la sauvegardes dans un Drive. Tu l'oublies. 6 mois plus tard, tu galères avec ton acquisition et tu réalises que ton hypothèse de SOM était fausse — mais tu n'as pas mis à jour. Correction : traite l'étude comme un document vivant. Réserve 30 min/mois pour ajuster les chiffres avec les vraies données collectées (taux de conversion réel, ARPU réel observé, objections fréquentes terrain). Un VC TAM doit être recalculé trimestriellement (Span Global Services 2026) — pour un solo, mensuellement les 6 premiers mois, puis trimestriellement. C'est ce qui transforme l'étude d'exercice théorique en boussole opérationnelle.
Ma règle de mentor

L'étude de marché en 1 journée n'est pas la fin du processus de validation — c'est l'étape qui te dit si ça vaut la peine de continuer (entretiens, MVP, lancement). Mon process : j'investis exactement 1 journée structurée (6-8 heures réelles) sur les 6 étapes bottom-up, je produis les 4 livrables. Si SOM × marge est économiquement viable pour moi (couvre mes besoins + offre une marge de 50 %+), je passe à la phase entretiens. Si non, je n'investis pas un mois supplémentaire — je repense (pivote vers segment plus large, ou ARPU plus élevé, ou abandonne). Cette discipline brutale t'évite 6 mois investis sur un marché trop petit. Coût total : 20-50 € en tokens + abonnements ponctuels. ROI : potentiellement 6-12 mois de temps économisés à ne pas construire pour un marché trop petit. Suite logique : article 1.4 sur l'analyse concurrents et la construction de l'avatar client — décortiquer 5 concurrents en 2 heures pour cristalliser ton positionnement.

Articles connexes

Tu as ton étude de marché. Pour aller plus loin : article 1.1 sur la matrice compétences × marché (le pré-requis — où placer ton offre). Article 1.2 sur les trous de marché (la phase exploratoire avant l'étude chiffrée). Article 1.4 sur l'analyse concurrents et avatar client (la suite logique). Pour les outils IA d'analyse à grande échelle : Claude (long context idéal pour parser pricing pages), ChatGPT avec recherche web, Perplexity et le panorama Niveau V des 63 outils. Pour le panorama complet : la rubrique R1 du Niveau VI.

— L'essentiel à retenir —

5 points sur l'étude de marché en 1 journée.

  1. Le cadre TAM/SAM/SOM force à passer du « il y a un gros marché » intuitif à des chiffres défendables. TAM = revenus si 100 % market share zéro contraintes (ciel théorique). SAM = portion réellement servable avec business model + géo + capacités (10-50 % du TAM typiquement). SOM = portion capturable en 12-18 mois (1-5 % SAM B2B SaaS, 0,1-1 % pour solo français). Coût classique : 5-50 K€ et 2-3 mois. Coût IA-augmenté 2026 : 20-50 € et 1 journée, 89 % précision documentée.
  2. Bottom-up bat top-down à tous les coups. Bottom-up = (count buyers qualifiés × ARPU/ACV par an), chaque chiffre sourcé et défendable. Top-down = (% d'un total category number publié) — facile à inflate, s'effondre au premier challenge. Utilise top-down comme sanity check seulement, jamais comme primaire. Anti-pattern : « TAM 500 Md$ » sans source — un TAM modeste sourcé bat un TAM gigantesque inventé.
  3. Workflow bottom-up en 6 étapes (1 journée) : (1) définir l'unité de demande (30 min — buyer + product unit + geography à ACV/an), (2) count qualifying buyers (1-2h — INSEE/ACOSS/Eurostat/LinkedIn Sales Nav + Perplexity AI sources), (3) pricing observé (1-2h — Claude Opus 4.7 sur 5-10 concurrents), (4) TAM = 2 × 3 (15 min), (5) SAM avec filtres réels (1h), (6) SOM réalité exécution (1h — capacity-based pas %).
  4. 4 livrables exploitables tenant en 4 pages : (1) TAM/SAM/SOM sourcé une page, (2) tableau pricing 5-10 concurrents (positionnement, entry/standard/premium, modèle, traction), (3) demande chiffrée (volume recherche + trajectoire 24 mois + saisonnalité), (4) carte géographique (top 5 zones par densité demande / concurrence). Format Notion/markdown — document vivant, pas PDF mort. Mise à jour mensuelle pendant 6 mois, trimestrielle ensuite.
  5. 4 limites honnêtes de l'IA à connaître : (1) hallucine sur les chiffres précis sans grounding (Perplexity ou Claude+web search obligatoires), (2) ne capture pas le terrain — entretiens 5-10 personnes face-à-face indispensables (cf article 1.2), (3) reflète des données passées 12-24 mois — exige sources 2025-2026 sur secteurs dynamiques, (4) ne juge pas la qualité des sources — applique hiérarchie 4 tiers (gov > rapports payants > entreprises > médias). « A number without a source is an opinion. »