En bref
Le mot “open source” appliqué aux LLM recouvre des réalités très différentes. La plupart des modèles présentés comme ouverts ne publient que leurs poids — pas leurs données d’entraînement, parfois pas leur code, et presque jamais sous une licence véritablement libre. En 2025, l’écart de performance avec les modèles propriétaires s’est considérablement réduit, mais le débat sur ce qu’implique “l’ouverture” reste entier : juridiquement, politiquement, et en matière de sécurité.
La confusion de vocabulaire qui change tout
Quand Meta annonce que Llama est “open source”, ou quand DeepSeek publie R1 sous licence MIT, le mot “open” ne désigne pas la même chose dans les deux cas. Cette confusion n’est pas anodine : elle conditionne ce qu’un développeur peut faire avec le modèle, ce qu’une entreprise peut auditer, et ce qu’un régulateur peut exiger.
Il faut distinguer trois niveaux :
Open weights : les poids du modèle sont publiés. On peut les télécharger, les faire tourner en local, parfois les modifier. Mais les données d’entraînement restent opaques, la licence peut être restrictive, et le code d’entraînement n’est pas toujours disponible. C’est le cas de Llama 4 (Meta) et Gemma (Google).
Open source partiel : poids + code + description des données, sous licence permissive. Mistral et Qwen entrent dans cette catégorie. On peut reproduire le pipeline, sans avoir accès aux données elles-mêmes.
Fully open : poids, code, et données d’entraînement publiés intégralement. Seuls quelques modèles académiques atteignent ce niveau : OLMo (Allen Institute for AI), Pythia (EleutherAI), les modèles LLM360. Ce sont des exceptions.
L’Open Source Initiative (OSI) a tenté de formaliser tout cela avec sa définition de l’Open Source AI (OSAID v1.0), publiée en octobre 2024. Sa position centrale : elle n’exige pas la publication des données d’entraînement elles-mêmes, seulement une description suffisante pour reconstruire un système équivalent. Cette concession au réalisme économique — les datasets frontier coûtent des milliards — a provoqué des protestations, notamment de la Software Freedom Conservancy, qui y voit un affaiblissement des principes fondateurs du logiciel libre.
Résultat : les seuls modèles validés par l’OSI sont Pythia, OLMo, Amber, CrystalCoder et T5. Llama 2, Grok, Phi-2, Mixtral échouent au test.
Un panorama de licences hétérogène
La licence détermine ce qu’on a le droit de faire, pas seulement ce qui est techniquement accessible.
| Modèle | Licence | Liberté effective |
|---|---|---|
| Llama 4 (Meta) | Llama Community License | Interdit aux orgs >700M utilisateurs actifs mensuels ; interdit de former des modèles concurrents |
| Mistral Large 3 | Apache 2.0 | Usage commercial libre |
| Qwen3 (Alibaba) | Apache 2.0 | Usage commercial libre, pas de limite d’utilisateurs |
| Gemma (Google) | Gemma Terms of Use | Usage commercial avec restrictions |
| DeepSeek V3/R1 | MIT | Quasi-aucune restriction |
| Falcon (TII) | Apache 2.0 | Usage commercial libre |
La licence Llama mérite attention. Meta se présente comme champion de l’IA ouverte, mais sa licence exclut précisément les acteurs qui pourraient utiliser Llama pour lui faire concurrence directe. Ce n’est pas de l’open source au sens OSI : c’est une stratégie d’écosystème — rendre le modèle accessible aux développeurs individuels et aux PME, tout en protégeant le terrain commercial de Meta.
L’écart de performance se referme
Pendant longtemps, le choix entre open source et propriétaire était aussi un choix de qualité. Ce n’est plus aussi simple.
L’écart MMLU entre le meilleur modèle open source et le meilleur modèle propriétaire est passé de 17,5 points de pourcentage à 0,3 points en l’espace d’un an. Sur les benchmarks mathématiques, Kimi K2.5 atteint 96 % sur AIME 2025. Sur le code, les meilleurs modèles open source touchent 90 % sur LiveCodeBench.
L’événement déclencheur a été la sortie de DeepSeek-R1 en janvier 2025. Ce modèle, publié sous licence MIT, a rivalisé avec GPT-4o sur plusieurs benchmarks avec un coût de calcul bien inférieur. À l’annonce, le Nasdaq a chuté de 3,1 %. DeepSeek a démontré qu’une ingénierie algorithmique rigoureuse peut compenser l’accès limité aux GPU de pointe — ce qui fragilise la thèse selon laquelle la puissance de calcul brute garantit la supériorité propriétaire.
L’avantage de coût reste réel : 0,83 dollar par million de tokens en moyenne pour l’open source, contre 6,03 dollars pour le propriétaire — soit 86 % d’économies. Sur infrastructure optimisée, la latence des modèles open source peut atteindre 3 000 tokens par seconde, contre 600 pour les APIs propriétaires.
Un écart persiste cependant. Selon whatllm.org, le meilleur modèle open source (MiniMax-M2, score 61) reste légèrement en dessous du meilleur propriétaire (GPT-5, score 68). La méthodologie de ce classement n’est pas entièrement détaillée.
Ce que l’open source rend possible
Déploiement local et souveraineté des données. Un modèle open weights peut tourner sur des serveurs internes, sans aucune donnée transmise vers une API externe. C’est l’argument central pour la finance, la santé, la défense, les administrations. Plusieurs pays construisent des stratégies d‘“IA souveraine” sur cette base — l’UE étant un exemple visible.
Fine-tuning libre. Adapter un modèle à un domaine métier spécifique requiert l’accès aux poids. Sur un modèle propriétaire, les outils de fine-tuning sont limités, contrôlés par l’opérateur, et dépendants de son calendrier. Sur un modèle ouvert, l’adaptation est totale.
Auditabilité. L’inspection des poids permet de détecter des comportements non documentés, de vérifier la conformité réglementaire, d’identifier d’éventuelles portes dérobées. Cet argument pèse dans les secteurs régulés.
Absence de dépendance fournisseur. Aucune dépendance à un fournisseur unique. Portabilité entre clouds. Pas de frais d’API pour les volumes élevés.
Ce que l’open source complique
Le double usage. Un modèle publié peut être téléchargé, modifié, et redéployé sans les filtres de sécurité d’origine. Les protections intégrées par RLHF peuvent être supprimées par fine-tuning. Les usages cités : génération de logiciels malveillants, hameçonnage industriel, désinformation, aide à la fabrication d’armes biologiques. Les données empiriques sur la facilité réelle de ces opérations restent peu documentées.
L’irréversibilité. Une fois publié, un modèle ne peut pas être “retiré”. Contrairement à une API propriétaire dont l’accès peut être révoqué, un modèle ouvert est dans la nature de façon permanente. OpenAI et Anthropic défendent que les modèles propriétaires permettent un contrôle post-déploiement — surveillance, mise à jour des guardrails, révocation d’accès — qui est structurellement impossible en open source.
La responsabilité diffuse. Le droit n’a pas tranché la question de la responsabilité du développeur original pour les usages malveillants d’un modèle modifié par un tiers. La comparaison avec le logiciel libre est contestée : le potentiel de dommage d’un LLM est jugé différent d’une bibliothèque logicielle.
La concentration paradoxale. L’open source ne supprime pas la concentration — il la déplace. Publier un modèle frontier reste hors de portée de tout acteur sans accès massif au compute. Les principaux publiants sont Meta, Alibaba, Google, Microsoft. Les modèles académiques véritablement ouverts (OLMo, Pythia) sont produits par des acteurs aux ressources limitées, et ne rivalisent pas avec les frontier models en performance. L’open source garantit la liberté d’utilisation, pas la capacité d’innover au niveau le plus élevé.
L’EU AI Act et le cas de l’exemption
L’EU AI Act (applicable aux modèles GPAI à partir du 2 août 2025) prévoit une exemption partielle pour les modèles open source. Conditions : licence véritablement libre, pas de monétisation directe, poids, architecture et usage publics.
Il existe une exception à l’exception. Les modèles présentant des “risques systémiques” ne bénéficient pas de l’exemption, même s’ils sont open source. La définition de “risque systémique” dans le texte réglementaire reste floue : aucun critère quantitatif public n’a été publié par la Commission européenne. Un modèle open source de grande taille pourrait théoriquement être soumis aux mêmes obligations qu’un modèle propriétaire.
Une obligation s’applique à tous, quel que soit le statut : conformité au droit d’auteur européen sur l’ensemble du cycle de vie du modèle. Les modèles déjà sur le marché avant le 2 août 2025 disposent d’un délai jusqu’au 2 août 2027.
L’écosystème Hugging Face comme observatoire
Hugging Face est devenu l’infrastructure centrale de l’open source LLM : 13 millions d’utilisateurs, 2 millions de modèles publics, 500 000 datasets en 2025. Les chiffres révèlent une concentration interne : 0,01 % des modèles représentent 49,6 % des téléchargements.
La géographie des usages est instructive. La Chine dépasse les États-Unis en téléchargements mensuels (environ 41 %). Qwen (Alibaba) compte 113 000 modèles dérivés sur la plateforme, loin devant Llama (27 000) et DeepSeek (6 000). Plus de 30 % des entreprises Fortune 500 ont des comptes vérifiés sur Hugging Face.
Ces données illustrent le paradoxe géopolitique : l’open source mondial est en partie structuré autour de modèles produits en Chine, sous des licences permissives, téléchargés massivement par des développeurs du monde entier. Les contrôles à l’export américains sur les GPU sont partiellement contournés par l’efficacité algorithmique — c’est précisément ce que DeepSeek a démontré.
Ce qu’il faut retenir
- “Open source” pour les LLM est un terme qui recouvre au moins trois réalités distinctes : open weights, open source partiel, et fully open. Seuls quelques modèles académiques satisfont pleinement les critères OSI.
- La licence conditionne les usages réels. Apache 2.0 et MIT offrent une liberté maximale. La Llama Community License protège les intérêts commerciaux de Meta malgré une présentation “open”.
- L’écart de performance avec les modèles propriétaires s’est réduit drastiquement en 2025. Le coût reste l’avantage compétitif le plus solide de l’open source.
- Les avantages concrets : souveraineté des données, fine-tuning sans dépendance, auditabilité, absence de dépendance fournisseur.
- Les risques réels : double usage sans guardrails, irréversibilité de la publication, responsabilité juridique non résolue.
- L’EU AI Act prévoit une exemption pour l’open source, mais les modèles à “risque systémique” n’en bénéficient pas — et cette catégorie reste à définir précisément.
- La concentration structurelle persiste : seuls les acteurs avec un compute frontier peuvent publier des modèles frontier. L’open source déplace la concentration, il ne la supprime pas.
Sources
- Open Source vs Proprietary LLMs: Complete 2025 Benchmark Analysis — whatllm.org
- Best Open Source LLM February 2026 — Benchmarks + Self-Hosting Guide — whatllm.org
- Open LLM Licensing Explained: Open Weights vs Open Source — Yodaplus Technologies
- Open source, open weight or proprietary LLM? — Agora Software
- Is every Open-Sourced LLM Truly Open-Sourced? — Medium / Data Science in Your Pocket
- OSI Open AI Definition Stops Short of Requiring Open Data for LLMs — HPCwire
- OSI clarifies what makes AI systems open-source, but most ‘open’ models fall short — SiliconANGLE
- The Case Against OSI’s Open Source AI Definition — The New Stack
- Open Source AI Definition — OSI — Open Source Initiative
- What Open-Source Developers Need to Know about the EU AI Act’s Rules for GPAI Models — Hugging Face Blog
- EU AI Act LLM Guide: High-Risk Classification, Documentation Requirements & 2026 Deadlines — Premai Blog
- Foundation Models under the EU AI Act — Stanford CRFM
- State of Open Source on Hugging Face: Spring 2026 — Hugging Face
- Economies of Open Intelligence: Tracing Power & Participation in the Model Ecosystem — arXiv
- DeepSeek: how China’s embrace of open-source AI caused a geopolitical earthquake — The Conversation
- How DeepSeek’s AI Model Changes U.S.-China Competition — Foreign Policy
- Open-Source vs Proprietary LLMs: Ethical Trade-Offs — Latitude Blog
- As nations build ‘sovereign AI,’ open-source models and cloud computing can help — CNBC
- The state of open source AI models in 2025 — Red Hat Developer
- Meta Weighs Licensing Google Gemini As Open Source AI Strategy Faces Test — Open Source For You
- Open-Source Advantage in Large Language Models (LLMs) — arXiv