En bref

L’écosystème LLM n’est pas un marché unifié : c’est un ensemble de couches interdépendantes — labs frontier, fournisseurs d’infrastructure, acteurs open source, labs chinois — dont les équilibres se sont profondément redistribués entre 2024 et 2026. La disruption DeepSeek, la montée en puissance de l’open source, et la compétition géopolitique US-Chine ont rendu obsolètes les cartographies établies en 2022-2023. Ce qui s’appelait la domination absolue des labs occidentaux fermés est aujourd’hui une position contestée sur plusieurs fronts simultanément.


Trois couches, une dépendance mutuelle

Comprendre l’écosystème LLM suppose de distinguer trois niveaux qui s’empilent mais ne se confondent pas.

La couche modèle regroupe les labs qui entraînent et publient des modèles. C’est la couche visible — celle des communiqués de presse, des benchmarks, des annonces de financement. Elle concentre l’essentiel de l’attention médiatique.

La couche infrastructure est moins visible mais plus déterminante. Elle comprend les fabricants de puces (Nvidia au premier chef, avec plus de 70 % des heures de compute cloud IA en 2024) et les trois hyperscalers — AWS, Azure, Google Cloud — qui concentrent plus de 60 % du cloud mondial. Ces acteurs ne font pas de modèles, mais aucun modèle frontier ne se fait sans eux. Les hyperscalers dépensaient collectivement plus de 380 milliards de dollars en infrastructure IA en 2025.

La couche distribution comprend les plateformes comme Hugging Face (13 millions d’utilisateurs, 2 millions de modèles publics) et les agrégateurs d’inférence comme OpenRouter. Ce sont elles qui rendent les modèles accessibles et mesurables — l’Open LLM Leaderboard, développé avec EleutherAI, est devenu la référence de facto pour comparer les modèles open source.

Ces trois couches sont liées par des flux financiers et techniques asymétriques. Microsoft investit massivement dans OpenAI tout en fournissant l’infrastructure Azure sur laquelle GPT tourne. Google construit ses propres TPU pour réduire sa dépendance à Nvidia tout en distribuant Gemini via Google Cloud. Anthropic a levé 30 milliards de dollars auprès d’investisseurs qui incluent Google et Amazon — ses deux fournisseurs cloud principaux. Ces enchevêtrements brouillent la frontière entre compétiteurs et partenaires.


Les labs frontier occidentaux : une hégémonie contestée

Entre 2022 et 2024, trois acteurs dominaient nettement : OpenAI, Google et Anthropic. En 2025-2026, cette hiérarchie s’est maintenue dans les grandes lignes, mais avec des redistributions internes significatives.

OpenAI reste le leader en notoriété et en audience grand public. ChatGPT concentre 68 % des parts de marché grand public. Avec GPT-5 (août 2025), l’entreprise atteint 13 milliards de dollars de revenus annuels et 800 millions d’utilisateurs hebdomadaires. Mais sa part de marché enterprise a reculé de 50 % en 2023 à 27 % en 2025.

Ce recul profite principalement à Anthropic, qui a capté 40 % des dépenses LLM enterprise en 2025 (contre 12 % en 2023). La trajectoire est lisible : la croissance de Claude sur le segment coding — estimé à 54 % de part de marché — a tiré l’ensemble. Anthropic a atteint 14 milliards de dollars de revenus en run-rate début 2026, avec une valorisation de 380 milliards de dollars après une levée de 30 milliards en Series G.

Google DeepMind occupe une position structurellement différente. Ses 450 millions d’utilisateurs Gemini et ses 2 milliards d’utilisateurs AI Overview dans Search lui donnent une distribution qu’aucun autre lab ne peut répliquer. Sa progression à 21 % de parts de marché enterprise reflète cette distribution intégrée, plus qu’une supériorité technique isolable.

Au-delà de ces trois acteurs, Meta AI joue une partition à part. Llama 4 est publié en open weights, par défaut, dans 200 langues. La stratégie est explicite : Meta ne cherche pas à monétiser le modèle lui-même, mais à empêcher qu’un écosystème propriétaire fermé devienne le standard mondial. C’est une posture géopolitique autant que commerciale.

Mistral AI représente le seul lab européen de taille significative. Avec 276 personnes, 100 millions de dollars de revenus en 2025, et une valorisation de 14 milliards d’euros, l’entreprise parisienne prouve qu’un positionnement de niche — souveraineté européenne, open-weights, enterprise API — est viable. Mais la question de sa soutenabilité face aux capitaux massifs des acteurs américains reste ouverte.


Le choc DeepSeek

En janvier 2025, une startup de Hangzhou d’environ 200 employés a publié DeepSeek R1 sous licence MIT. Sur les benchmarks de raisonnement mathématique (AIME, MATH-500) et de code (SWE-Bench), R1 correspondait ou dépassait OpenAI o1. Coût d’inférence : 0,55 dollar par million de tokens en entrée, contre 15 dollars pour GPT-4o — une réduction de 97 %.

Ce n’est pas seulement un choc de prix. C’est une remise en cause d’une hypothèse structurante : l’idée que les capacités frontier sont proportionnelles aux capitaux investis dans l’entraînement. DeepSeek V3 a été entraîné pour 5,6 millions de dollars selon son rapport technique — quand GPT-4o représentait des ordres de grandeur supérieurs.

L’impact a été immédiat sur les marchés financiers : les valorisations des fournisseurs d’infrastructure ont chuté le jour de l’annonce. Sur l’écosystème open source, l’effet a été une accélération : d’autres labs chinois ont ouvert leurs poids sous pression concurrentielle. Baidu, historiquement fermé, a publié ERNIE 4.5 début 2025. Alibaba a accéléré les releases open source de la série Qwen.


L’écosystème chinois : un second pôle structurel

L’écosystème chinois n’est pas monolithique. On peut y distinguer plusieurs lignées.

DeepSeek (Hangzhou) se singularise par sa contribution technique : R1 est le premier modèle open source à valider le pure-RL pour le raisonnement, sans fine-tuning supervisé préalable. C’est une contribution à la recherche fondamentale, pas seulement une démonstration d’efficacité.

Alibaba (série Qwen, 0,5 à 72 milliards de paramètres) et Baidu (ERNIE) représentent les acteurs industriels établis, contraints d’ouvrir leurs modèles sous pression compétitive. ByteDance et Moonshot AI ciblent des cas d’usage différents — Doubao pour le grand public chinois, Kimi K2 pour la recherche multimodale.

La mesure la plus concrète de leur montée en puissance : les modèles chinois représentaient moins de 2 % des tokens hebdomadaires sur OpenRouter fin 2024. Ils atteignent 30 % certaines semaines sur le second semestre 2025, avec une moyenne de 13 %. Sur Hugging Face, ils représenteraient 41 % des téléchargements sur 12 mois — un chiffre issu d’une source unique, à traiter avec précaution.


La compression du délai de rattrapage

Un indicateur synthétique résume l’évolution de la dynamique compétitive : le délai entre la sortie d’un modèle frontier propriétaire et sa reproduction open source équivalente. Cette durée, qui se mesurait en années lors du cycle GPT-3/4, est estimée à 16 mois en 2025. Ce chiffre est issu d’une enquête d’experts (source unique, non vérifié par d’autres études), mais il est cohérent avec les faits observés.

La conséquence structurelle est directe : les avantages concurrentiels fondés sur la supériorité technique pure sont temporaires. L’avantage durable se déplace vers la distribution (ChatGPT, l’intégration Google dans Search), la confiance enterprise (Anthropic sur le segment coding), ou la capacité d’investissement (OpenAI, valorisation projetée à mille milliards de dollars en IPO fin 2026).


Infrastructure : le vrai goulot d’étranglement

Toute la compétition entre labs se joue sur un substrat que la plupart ne contrôlent pas. Nvidia concentre plus de 70 % du compute cloud IA. Les trois hyperscalers (AWS, Azure, Google Cloud) représentent environ 62 % du marché cloud global. Le marché GPU-as-a-Service est estimé à 5,7 milliards de dollars en 2025 et pourrait atteindre 26 milliards en 2031.

Ce monopole de fait a plusieurs conséquences. Primo, il donne aux hyperscalers un levier sur les labs : Amazon est à la fois investisseur d’Anthropic et son fournisseur infrastructure via AWS. Secondo, il oriente la politique industrielle : les États-Unis ont instauré des contrôles à l’export sur les puces H100 vers la Chine pour maintenir cet avantage. Tertio, il pousse les acteurs disposant des moyens à développer des alternatives : les TPU de Google, les puces Trainium d’AWS, les puces personnalisées de Meta réduisent la dépendance à Nvidia à long terme, mais pas à court terme.

Les labs chinois, privés d’accès aux dernières générations de puces Nvidia, ont répondu en optimisant leur efficacité computationnelle. DeepSeek R1 en est le résultat le plus documenté. Les contrôles à l’export américains ont produit l’effet inverse de leur intention initiale : ils ont stimulé l’innovation algorithmique chez leurs cibles.


Trois tensions non résolues

Concentration vs décentralisation. 88 % des dépenses enterprise API restent concentrées sur trois acteurs (Anthropic, OpenAI, Google). Mais l’on-premises dépasse 50 % du marché mi-2025. Ces deux réalités coexistent : la concentration est réelle dans les usages API, la décentralisation progresse dans les déploiements sur infrastructure propre.

Open vs closed : durabilité de la frontière. L’hypothèse d’un fossé infranchissable entre modèles frontier propriétaires et open source n’a pas résisté à DeepSeek R1. La question reste ouverte : la reproduction open source à 16 mois de délai est-elle une tendance durable, ou DeepSeek est-il un cas particulier favorisé par des conditions spécifiques (contrôles à l’export, optimisation contrainte) ?

Géopolitique et fragmentation. La compétition US-Chine crée deux écosystèmes parallèles qui s’interpénètrent via l’open source. Le cadre binaire “course technologique” ne capture pas la réalité d’une communauté scientifique qui continue à publier et à citer de façon transnationale. Carnegie Endowment note que la gouvernance des modèles frontier ne peut pas se réduire à l’opposition ouverte/fermé, ni à la rivalité géopolitique.


Ce qu’il faut retenir

  • L’écosystème LLM comporte trois couches distinctes — modèles, infrastructure, distribution — liées par des dépendances asymétriques que les annonces de financement ne rendent pas visibles.
  • La redistribution des parts enterprise (Anthropic 40 %, OpenAI 27 % en 2025) s’est faite plus vite que la plupart des prévisions de 2023.
  • DeepSeek R1 a démontré qu’un lab de 200 personnes peut reproduire les capacités frontier d’OpenAI à 97 % du coût d’inférence : l’avantage technique pur est temporaire.
  • Nvidia concentre plus de 70 % du compute cloud IA ; les contrôles à l’export américains sur les puces ont stimulé l’innovation algorithmique chinoise plutôt que de la freiner.
  • Le délai de rattrapage open source estimé à 16 mois remet en cause la durabilité des fossés concurrentiels fondés sur la seule supériorité des modèles.

Sources

  1. Menlo Ventures, “2025: The State of Generative AI in the Enterprise”, 2025 — https://menlovc.com/perspective/2025-the-state-of-generative-ai-in-the-enterprise/
  2. AI CERTs News, “Evolving LLM Market: Anthropic Leads 2025 Enterprise Share”, 2025 — https://www.aicerts.ai/news/evolving-llm-market-anthropic-leads-2025-enterprise-share/
  3. Market.biz, “Large Language Models (LLMs) Statistics and Facts (2026)”, 2026 — https://market.biz/large-language-models-llms-statistics/
  4. Bloomberg, “Mistral Set for $14 Billion Valuation With New Funding Round”, septembre 2025 — https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
  5. Anthropic, “Anthropic raises $30 billion Series G funding, $380 billion post-money valuation”, février 2026 — https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation
  6. DeepSeek / Communications of the ACM, “DeepSeek Inside: Origins, Technology, and Impact”, 2025 — https://cacm.acm.org/opinion/deepseek-inside-origins-technology-and-impact/
  7. ComputePrices, “Top Cloud GPU Providers by Market Share 2025”, 2025 — https://computeprices.com/blog/cloud-gpu-providers-market-share
  8. CloudSyntrix, “The Cloud AI Wars: How Google, AWS, and Azure Stack Up in 2025”, 2025 — https://www.cloudsyntrix.com/blogs/the-cloud-ai-wars-how-google-aws-and-azure-stack-up-in-2025/
  9. OpenRouter, “State of AI 2025: 100T Token LLM Usage Study”, 2025 — https://openrouter.ai/state-of-ai
  10. Hugging Face, “State of Open Source on Hugging Face: Spring 2026”, 2026 — https://huggingface.co/blog/huggingface/state-of-os-hf-spring-2026
  11. Interconnects.ai, “2025 Open Models Year in Review”, 2025 — https://www.interconnects.ai/p/2025-open-models-year-in-review
  12. IntuitionLabs, “An Overview of Chinese Open-Source LLMs (Sept 2025)”, septembre 2025 — https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
  13. CMR Berkeley, “The Coming Disruption: How Open-Source AI Will Challenge Closed-Model Giants”, janvier 2026 — https://cmr.berkeley.edu/2026/01/the-coming-disruption-how-open-source-ai-will-challenge-closed-model-giants/
  14. Carnegie Endowment, “Beyond Open vs. Closed: Emerging Consensus and Key Questions for Foundation AI Model Governance”, 2024 — https://carnegieendowment.org/research/2024/07/beyond-open-vs-closed-emerging-consensus-and-key-questions-for-foundation-ai-model-governance
  15. Grand View Research, “GPU As A Service Market Size, Share | Industry Report, 2033” — https://www.grandviewresearch.com/industry-analysis/gpu-as-a-service-gpuaas-market-report