Tu as la matrice (article 1.1). Tu as identifié un trou de marché qui a passé le 5-Point Pain Scan (article 1.2). Maintenant la question brutale : est-ce un marché assez grand pour que tu y vives ? Pas en théorie. En chiffres concrets. Sans chiffrer la taille, la demande, les prix observés, tu lances dans le brouillard.
La promesse 2026 est mesurable : ce qui prenait 2-3 mois de research manuelle et coûtait 5 000 à 50 000 € de cabinet de conseil tient en 1 journée avec les bons outils IA, pour 20 à 50 € en tokens et abonnements (IdeaProof avril 2026). 89 % de précision documentée sur les analyses TAM/SAM/SOM générées par les nouvelles plateformes spécialisées (validation contre données live API).
Mais attention, l'enthousiasme cache un piège : l'IA peut générer un rapport d'étude de marché qui paraît rigoureux et qui est en fait creux. Si tu lui demandes « fais-moi une étude de marché sur X » sans cadre, tu obtiens des chiffres ronds, des percentages crédibles, des conclusions séduisantes — souvent inventées par hallucination ou tirées de rapports génériques de 2022 obsolètes. La méthode rigoureuse 2026 consiste à donner à l'IA le bon cadre (TAM/SAM/SOM bottom-up) avec des sources transparentes que tu peux vérifier toi-même.
Cet article te donne (1) le cadre TAM/SAM/SOM qui force à chiffrer honnêtement, (2) la méthode bottom-up qui résiste à la due diligence (vs top-down qui s'effondre), (3) les 4 livrables d'une étude en 1 journée (taille, demande, tarification, zones géographiques), (4) les limites honnêtes de l'IA — et pourquoi le contact direct reste irremplaçable. Plus 5 pièges. Pré-requis : 1.1, 1.2. Suite : 1.4 sur l'analyse concurrents et avatar client.
— 1 / 4Le cadre TAM / SAM / SOM.
Avant les outils, le cadre. Le triangle TAM/SAM/SOM est la grammaire universelle de l'étude de marché en 2026. L'utilité concrète : il te force à passer du « il y a un gros marché » intuitif à des chiffres vérifiables et défendables. Pour un solo, c'est le filtre qui distingue une intuition d'un projet bancable.
Exemple concret : tu vises les freelances qui veulent un outil de facturation IA. TAM = (nombre total de freelances dans le monde qui pourraient utiliser un outil de facturation × prix annuel moyen). Sources : Statista, gouv data, FreelanceUK, MBO Partners pour le freelancing.
Utilité : montre l'ambition et le plafond. Limite : personne ne capture jamais 100 %. Un TAM seul ne prouve rien — c'est le terrain de jeu théorique.
Anti-pattern dominant 2026 : « TAM 500 Md $ » sans source. « A credible 5 B$ TAM is better than an incredible 500 B$ » (Preuve AI avril 2026). Mieux vaut un TAM modeste sourcé qu'un TAM gigantesque inventé.
Filtres typiques pour un solo 2026 : géographie (France ? UE ? US ? monde anglophone ?), taille de l'entreprise cliente (TPE 1-10 ? PME 10-50 ? mid-market 50-200 ?), modèle de tarification (subscription ? one-shot ? marketplace ?), langue, canaux d'acquisition que tu maîtrises.
Règle 2026 (Preuve AI) : SAM doit être 10-50 % du TAM, typiquement. Si SAM = TAM, tu n'es pas honnête sur tes contraintes. Si SAM = 1 % du TAM, soit tu as une contrainte structurelle (segment de niche), soit tu peux élargir.
Pour un solo français : SAM réaliste se situe souvent entre 1 et 50 M€/an (selon le secteur). Un SAM de 1 Md$ pour un solo signale que tu as mal segmenté.
Méthode honnête : recherche le market share que des nouveaux entrants capturent typiquement dans ton secteur. Pour la majorité des B2B SaaS, un cible année-3 réaliste = 1-5 % du SAM (Preuve AI). Pour un solo français, plutôt 0,1-1 % en 12-18 mois.
Calcul concret : SOM = SAM × % réaliste de market share. Exemple : SAM 50 M€ × 0,5 % = 250 K€ ARR cible année 1-2. C'est le chiffre qui doit être économiquement viable pour toi (couvre tes besoins + offre une marge). Si SOM = 50 K€/an, ce n'est pas un projet pour vivre — c'est un side hustle.
Anti-pattern critique : le « lazy 1 % of a big market ». Calcule SOM depuis ta capacité d'acquisition réelle (combien de clients tu peux toucher avec ton budget marketing et tes canaux), pas depuis un % rond.
TAM montre l'ambition. SAM montre le focus. SOM montre la réalité de l'exécution. Les trois doivent être ancrés dans des assumptions transparentes et challengeable. Si tu ne peux pas défendre un chiffre, ne l'utilise pas.
— 2 / 4Bottom-up vs top-down : la méthode qui résiste.
Deux méthodes pour calculer ces chiffres. Une qui résiste à la due diligence d'un VC. Une qui s'effondre au premier challenge. Maîtrise les deux, mais utilise toujours la première comme primaire.
Top-down — la méthode séduisante mais fragile
Mécanisme : tu pars d'un chiffre publié de marché total (Statista, McKinsey, Grand View Research). Tu narrows à ta slice par pourcentages. « Le marché de la facturation B2B est 12 Md$ ; les freelances représentent 15 % ; donc TAM freelance = 1,8 Md$. »
Problème : les rapports payants de marché total sont souvent vieux de 2-3 ans, mal segmentés, et leurs % par segment sont eux-mêmes des estimations. Empilement d'incertitudes. VC pattern : « Where did that 15 % come from ? » — tu peux pas répondre, ton chiffre est mort.
Quand l'utiliser : uniquement comme sanity check sur un calcul bottom-up. Si ton bottom-up donne 50 M€ TAM et un rapport sectoriel donne 100 M€, l'ordre de grandeur est cohérent. Si ton bottom-up donne 50 M€ et le rapport 10 Md$, tu as raté quelque chose.
Bottom-up — la méthode qui résiste
Mécanisme : tu pars de la réalité observable. Combien de buyers qualifiés existent dans ta zone géographique cible ? À quel ARPU ou ACV (annual contract value) achètent-ils typiquement ? Multiplie. « Show your work. »
Exemple concret : tu cibles les freelances français qui facturent > 30 K€/an (cible solvable). Selon URSSAF / ACOSS 2026 : ~1,2 M de freelances en France, dont environ 35 % facturent > 30 K€/an = 420 000 freelances. ARPU cible 15 €/mois = 180 €/an. TAM bottom-up = 420 000 × 180 € = 75,6 M€.
Force : chaque chiffre est sourcé. « Where did the 1,2 M come from ? » → ACOSS public. « Where did the 35 % come from ? » → étude Malt 2026. « Where did the 15 €/mois come from ? » → benchmark de 5 concurrents (Indy, Tiime, FreshBooks). Chaque assumption est défendable.
Les 6 étapes bottom-up avec IA
— 3 / 4Les 4 livrables d'une étude en 1 journée.
Une étude de marché solo en 2026 doit produire 4 livrables exploitables, pas un rapport de 50 pages que personne ne lira. Voici les 4 outputs concrets que ta journée doit produire.
Livrable 1 — Une page TAM/SAM/SOM sourcée
Une seule page. Format minimaliste. Pour chaque chiffre, la source citée à côté. Pas « le marché B2B SaaS est de 200 Md$ ». Plutôt « TAM bottom-up = 75,6 M€ (420 K freelances FR ACOSS 2026 × 180 €/an benchmark 5 concurrents) ».
L'utilité concrète : tu peux la coller dans un pitch deck, la défendre devant un mentor critique, et tu peux y revenir dans 6 mois pour ré-évaluer. Sans cette traçabilité, ton étude est un château de sable.
Livrable 2 — Tableau de tarification observée
Tableau simple : 5-10 lignes pour 5-10 concurrents directs. Colonnes : nom, positionnement (1 phrase), pricing entry, pricing standard, pricing premium, modèle (subscription/one-shot/freemium), cible déclarée, signal de traction (utilisateurs annoncés, funding, popularité G2).
L'utilité : ça te dit ton positionnement de prix réaliste, ta marge potentielle, et où il y a éventuellement une opportunité de pricing différencié (premium ou ultra-low). Sans cette analyse, tu vas pricer aveuglément et soit te brader, soit pricer trop haut.
Outil IA : Claude Opus 4.7 ou GPT-5.5 pour parser des pricing pages en bulk → output JSON structuré direct.
Livrable 3 — Analyse de la demande chiffrée
Trois indicateurs minimum : (a) Volume de recherche sur les mots-clés cible (Google Keyword Planner, Ahrefs, Ubersuggest gratuit) — « facturation freelance » = 8 100/mois en France, c'est concret. (b) Trajectoire sur 24-36 mois (Google Trends) — croissance, plateau, déclin. (c) Saisonnalité — pics et creux qui affecteront ton CA mensuel.
L'utilité : tu valides que la demande existe et grossit. Une trajectoire en déclin sur 24 mois sur ton mot-clé central = signal d'alarme à creuser avant de lancer.
Outils 2026 : Google Trends (gratuit), AnswerThePublic (questions à intent d'achat), Glimpse (validation de spike trends — distinguer durable vs viral).
Livrable 4 — Carte des zones géographiques porteuses
Pour les solos, savoir « où » ta demande est concentrée vaut autant que « combien ». Si 70 % de tes prospects sont dans 3 grandes métropoles, ton marketing s'optimise différemment que si la demande est diffuse.
Sources : Google Trends interest by region, INSEE pour France, Eurostat pour UE, Census Bureau pour US. Output : top 5 zones géographiques par densité de demande, et le ratio densité demande / densité concurrence (zone idéale = forte demande, faible concurrence locale).
L'utilité : guide ton marketing géo (LinkedIn ads ciblés, événements à attaquer, langue de ton site). Pour un solo francophone qui hésite entre cibler France métropolitaine, France + Belgique + Suisse, ou monde francophone, ces données chiffrent l'arbitrage.
Tes 4 livrables tiennent en 4 pages maximum, format markdown ou Notion ou Google Doc — pas un PDF de 50 pages. Page 1 : TAM/SAM/SOM avec sources. Page 2 : tableau pricing 10 concurrents. Page 3 : graphique demande chiffrée + trajectoire. Page 4 : carte géographique + recommandations. Stratégie : tu y reviens chaque mois pendant les 6 premiers mois pour ajuster avec les vraies données que tu collectes en lançant. Une étude de marché solo n'est pas un livrable mort — c'est un document vivant qui se met à jour avec ton apprentissage terrain.
— 4 / 4Les limites honnêtes de l'IA.
L'IA accélère brutalement la collecte et la synthèse. Mais elle a 4 limites structurelles que tu dois connaître pour ne pas te piéger. Si tu sautes cette section, tu vas faire confiance à des chiffres séduisants mais creux.
Limite 1 — L'IA hallucine sur les chiffres précis
Demande à ChatGPT « combien y a-t-il de freelances en France en 2026 ? » sans grounding. Il te donne un chiffre crédible (souvent autour de 1-2 M, dans le bon ordre de grandeur). Mais ce chiffre est une estimation basée sur ses training data 2024 — il peut être obsolète, ou inventé pour « faire crédible ».
Mitigation : utilise Perplexity AI ou ChatGPT avec recherche web activée ou Claude avec web search qui citent les sources URL. Tu vérifies toi-même la source. Sans citation vérifiable, tu ne fais pas confiance au chiffre. « A number without a source is an opinion » (Preuve AI 2026).
Anti-pattern majeur : copier-coller des chiffres IA dans ton étude sans vérification. C'est la cause n°1 d'études de marché fragiles qui s'effondrent au premier challenge.
Limite 2 — L'IA ne capture pas le terrain
L'IA peut te dire « le marché de la facturation freelance pèse X M€ ». Elle ne peut pas te dire si tes prospects spécifiques sont prêts à payer aujourd'hui, à quel prix réel, avec quelles objections. Pour ça, tu dois parler à 5-10 personnes en face-à-face (cf article 1.2 phase validation chiffrée).
Une étude de marché 100 % desk research IA est nécessaire mais pas suffisante. Le marché chiffré confirme que tu es dans une zone viable. Les entretiens utilisateurs confirment que ton offre spécifique résout un problème assez douloureux pour qu'on paie. Sans les deux, tu lances dans le brouillard.
Limite 3 — L'IA reflète des données passées
Les rapports sur lesquels l'IA s'appuie sont publiés avec 12-24 mois de décalage. Dans des secteurs qui bougent vite (IA elle-même, fintech, web3), les chiffres 2024 sont déjà obsolètes en 2026. L'IA ne le sait pas et te les présente comme actuels.
Mitigation : exige des sources avec dates récentes (2025-2026). Cross-référence 2-3 sources. Pour les secteurs très dynamiques, complète avec des signaux temps-réel (volume de recherche Google Trends sur 6 mois, threads Reddit sur 30 jours, communiqués de presse récents). Cf article 1.2 sur les signaux temps-réel.
Limite 4 — L'IA ne juge pas la qualité des sources
Un rapport Statista et un blog post anonyme ont la même crédibilité textuelle pour un LLM. Si la source est dans son training data, l'IA ne distingue pas la rigueur. Elle te ressort le chiffre du blog avec autant de confiance que celui de l'INSEE.
Mitigation : applique une hiérarchie explicite des sources. Tier 1 : données publiques officielles (INSEE, Eurostat, ACOSS, Census, World Bank). Tier 2 : rapports sectoriels payants vérifiables (Gartner, Forrester, IDC, McKinsey). Tier 3 : communiqués entreprises, financial reports, industry associations. Tier 4 : blogs spécialisés, médias business. À éviter : blogs anonymes, sites SEO génériques, articles non datés.
L'IA accélère le scan de 50x. Mais elle ne remplace ni le contact terrain, ni la vérification critique des sources. C'est un outil puissant manié rigoureusement — pas un oracle qu'on consulte aveuglément.
— Bonus5 pièges classiques.
L'étude de marché en 1 journée n'est pas la fin du processus de validation — c'est l'étape qui te dit si ça vaut la peine de continuer (entretiens, MVP, lancement). Mon process : j'investis exactement 1 journée structurée (6-8 heures réelles) sur les 6 étapes bottom-up, je produis les 4 livrables. Si SOM × marge est économiquement viable pour moi (couvre mes besoins + offre une marge de 50 %+), je passe à la phase entretiens. Si non, je n'investis pas un mois supplémentaire — je repense (pivote vers segment plus large, ou ARPU plus élevé, ou abandonne). Cette discipline brutale t'évite 6 mois investis sur un marché trop petit. Coût total : 20-50 € en tokens + abonnements ponctuels. ROI : potentiellement 6-12 mois de temps économisés à ne pas construire pour un marché trop petit. Suite logique : article 1.4 sur l'analyse concurrents et la construction de l'avatar client — décortiquer 5 concurrents en 2 heures pour cristalliser ton positionnement.
Tu as ton étude de marché. Pour aller plus loin : article 1.1 sur la matrice compétences × marché (le pré-requis — où placer ton offre). Article 1.2 sur les trous de marché (la phase exploratoire avant l'étude chiffrée). Article 1.4 sur l'analyse concurrents et avatar client (la suite logique). Pour les outils IA d'analyse à grande échelle : Claude (long context idéal pour parser pricing pages), ChatGPT avec recherche web, Perplexity et le panorama Niveau V des 63 outils. Pour le panorama complet : la rubrique R1 du Niveau VI.
5 points sur l'étude de marché en 1 journée.
- Le cadre TAM/SAM/SOM force à passer du « il y a un gros marché » intuitif à des chiffres défendables. TAM = revenus si 100 % market share zéro contraintes (ciel théorique). SAM = portion réellement servable avec business model + géo + capacités (10-50 % du TAM typiquement). SOM = portion capturable en 12-18 mois (1-5 % SAM B2B SaaS, 0,1-1 % pour solo français). Coût classique : 5-50 K€ et 2-3 mois. Coût IA-augmenté 2026 : 20-50 € et 1 journée, 89 % précision documentée.
- Bottom-up bat top-down à tous les coups. Bottom-up = (count buyers qualifiés × ARPU/ACV par an), chaque chiffre sourcé et défendable. Top-down = (% d'un total category number publié) — facile à inflate, s'effondre au premier challenge. Utilise top-down comme sanity check seulement, jamais comme primaire. Anti-pattern : « TAM 500 Md$ » sans source — un TAM modeste sourcé bat un TAM gigantesque inventé.
- Workflow bottom-up en 6 étapes (1 journée) : (1) définir l'unité de demande (30 min — buyer + product unit + geography à ACV/an), (2) count qualifying buyers (1-2h — INSEE/ACOSS/Eurostat/LinkedIn Sales Nav + Perplexity AI sources), (3) pricing observé (1-2h — Claude Opus 4.7 sur 5-10 concurrents), (4) TAM = 2 × 3 (15 min), (5) SAM avec filtres réels (1h), (6) SOM réalité exécution (1h — capacity-based pas %).
- 4 livrables exploitables tenant en 4 pages : (1) TAM/SAM/SOM sourcé une page, (2) tableau pricing 5-10 concurrents (positionnement, entry/standard/premium, modèle, traction), (3) demande chiffrée (volume recherche + trajectoire 24 mois + saisonnalité), (4) carte géographique (top 5 zones par densité demande / concurrence). Format Notion/markdown — document vivant, pas PDF mort. Mise à jour mensuelle pendant 6 mois, trimestrielle ensuite.
- 4 limites honnêtes de l'IA à connaître : (1) hallucine sur les chiffres précis sans grounding (Perplexity ou Claude+web search obligatoires), (2) ne capture pas le terrain — entretiens 5-10 personnes face-à-face indispensables (cf article 1.2), (3) reflète des données passées 12-24 mois — exige sources 2025-2026 sur secteurs dynamiques, (4) ne juge pas la qualité des sources — applique hiérarchie 4 tiers (gov > rapports payants > entreprises > médias). « A number without a source is an opinion. »