En bref

Meta est l’un des rares acteurs de premier plan à avoir rendu ses modèles de langage largement accessibles, sous la bannière Llama. Ce choix a alimenté un écosystème mondial de déploiements locaux, de fine-tuning et de recherche académique que les laboratoires fermés n’ont pas pu égaler en termes de diffusion. Mais cette ouverture a des limites précises, et la trajectoire de Meta depuis 2025 montre une entreprise en train de recalibrer son rapport à l’open source sous la pression de la concurrence et des coûts d’infrastructure.


Fiche d’identité

AttributValeur
Fondation FAIR2013
SiègeMenlo Park, Californie
Maison mèreMeta Platforms, Inc.
Figures clésMark Zuckerberg (PDG), Alexandr Wang (Chief AI Officer depuis 2025)
StatutEntreprise cotée (NASDAQ : META), division IA intégrée

Histoire

FAIR, 2013 : le laboratoire comme signal

En 2013, Facebook crée FAIR — Facebook AI Research — sous la direction de Yann LeCun, chercheur français spécialisé en réseaux de neurones convolutifs. L’ambition est explicite : rivaliser avec les meilleurs laboratoires universitaires mondiaux, tout en restant dans une logique de recherche ouverte. FAIR publie massivement, collabore avec les universités, et construit une crédibilité académique que peu d’entreprises technologiques possèdent.

LeCun dirige FAIR cinq ans, puis occupe le poste de Chief AI Scientist de Meta jusqu’en novembre 2025 — soit douze ans au total dans l’organisation. Son départ marque une rupture symbolique : il quitte Meta pour fonder AMI Labs (Advanced Machine Intelligence Labs), levant 1,03 milliard USD en mars 2026 pour développer une alternative aux LLM autorégressifs basée sur les world models et l’architecture JEPA.

Rebranding et virage génératif

En 2021, Facebook devient Meta Platforms. FAIR est rebaptisé Meta AI Research. Le pivot vers le métavers occupe l’espace médiatique, mais en coulisses, les équipes préparent ce qui deviendra la famille Llama.

En février 2023, Llama 1 est publié — initialement en accès restreint aux chercheurs. Les poids fuient sur BitTorrent quelques semaines après. Cet épisode, involontaire, préfigure la dynamique qui s’installe : une fois les poids disponibles, leur diffusion échappe au contrôle de Meta.

Réorganisation 2025

Suite à des résultats jugés décevants sur Llama 4, Zuckerberg restructure l’organisation IA. Meta investit 14,3 milliards USD dans Scale AI et recrute son PDG, Alexandr Wang, comme Chief AI Officer. Une nouvelle division est créée : Meta Superintelligence Labs, avec un mandat explicitement orienté vers la compétitivité commerciale plutôt que la recherche fondamentale.


Modèles et produits

La famille Llama

La famille Llama représente la colonne vertébrale publique de la stratégie IA de Meta.

VersionDatePoints clés
Llama 1Fév. 2023Accès restreint, fuite des poids
Llama 2Juil. 2023Usage commercial autorisé, partenariat Microsoft
Llama 3Avr. 20248B et 70B paramètres
Llama 3.1Juil. 2024405B paramètres, contexte 128K tokens
Llama 3.2Sep. 2024Modèles vision + modèles 1B/3B multilingues
Llama 4Avr. 2025Architecture MoE, nativement multimodal

Llama 4 introduit une architecture Mixture-of-Experts. Le modèle Scout affiche 17B paramètres actifs sur 109B totaux, avec une fenêtre de contexte de 10 millions de tokens. Le modèle Maverick (17B actifs, 400B totaux) se positionne au niveau de GPT-4o sur plusieurs benchmarks. Le modèle Behemoth — 288B paramètres actifs, 2 000 milliards au total — n’était pas encore publié au moment de cette rédaction.

SAM et la vision par ordinateur

Meta publie également des modèles de vision influents. SAM 3 (novembre 2025) est un modèle unifié de détection, segmentation et tracking via prompts textuels, visuels ou exemplaires. SAM Audio (décembre 2025) étend ce paradigme au son : extraction de sources audio depuis des mixtures complexes. Ces modèles sont publiés avec code, poids et datasets.

Infrastructure

Meta ne se contente pas de publier des modèles : l’entreprise construit une infrastructure massive. CapEx 2025 : 70 à 72 milliards USD. CapEx 2026 estimé : 115 à 135 milliards USD. Un datacenter de 2 GW avec plus d’un million de GPU Nvidia est en construction. En janvier 2026, Zuckerberg annonce que Meta devient fournisseur d’infrastructure IA (“Meta Compute”), avec un plan d’investissement de 600 milliards USD en infrastructure américaine d’ici 2028.


Positionnement

La stratégie open weights : quatre motifs, un effet

Meta articule sa stratégie autour de quatre arguments. Premièrement, la sécurité : les modèles ouverts bénéficient du scrutin de la communauté. Deuxièmement, la standardisation : quand les entreprises construisent sur Llama et PyTorch, elles intègrent naturellement les innovations de Meta. Troisièmement, les talents : l’open source attire les chercheurs. Quatrièmement, la distribution : pendant qu’OpenAI et Anthropic contrôlent leurs écosystèmes fermés, Meta influence l’écosystème de toutes les autres organisations.

L’effet concret est réel. Llama est devenu la référence des déploiements locaux, du fine-tuning entreprise, et de la recherche académique sur les modèles ouverts. Meta a capturé une position d’infrastructure sans construire de plateforme commerciale d’accès aux modèles.

Open weights ≠ open source

La distinction est fondamentale. Les modèles Llama ne sont pas open source au sens de l’Open Source Initiative. Meta utilise des licences propriétaires (“Meta Llama Community License”) qui comportent des restrictions significatives : usage commercial conditionnel, exclusion des entreprises dépassant 700 millions d’utilisateurs actifs mensuels, restrictions sur le nommage des modèles dérivés. Des experts comme Nathan Lambert ont documenté l’écart entre le discours “open source” de Meta et la réalité des licences.

Les limites de l’ouverture

Depuis mi-2025, des signaux indiquent une tension croissante entre la stratégie open source et les exigences de compétitivité. TechCrunch titrait en juillet 2025 : “Meta built its AI reputation on openness — that may be changing.” La création de Meta Superintelligence Labs et le recrutement d’Alexandr Wang marquent un virage vers la performance commerciale au détriment de la recherche fondamentale ouverte. Par ailleurs, la publication de poids ne garantit pas la transparence sur les données d’entraînement, les processus d’évaluation, ou les choix d’alignement — zones d’opacité que la communauté scientifique souligne régulièrement.


Ce qu’il faut retenir

  • Meta occupe une position singulière dans l’écosystème IA : troisième acteur mondial par les ressources, premier acteur par la diffusion des modèles ouverts.
  • Cette position a été construite méthodiquement depuis 2013, avec FAIR comme fondation académique et Llama comme vecteur de distribution.
  • Ce que Meta publie sont des open weights, pas de l’open source : les licences Llama comportent des restrictions d’usage significatives.
  • Le départ de Yann LeCun et la création de Meta Superintelligence Labs illustrent un glissement vers la compétitivité commerciale au détriment de la recherche fondamentale.
  • L’ampleur des investissements infrastructure — 70 milliards en 2025, 115 à 135 milliards projetés en 2026 — confirme que Meta joue une partie longue.

Sources