En bref
En 2024, les datacenters consomment 415 TWh d’électricité dans le monde — soit environ 1,5 % de la consommation mondiale totale. L’Agence internationale de l’énergie projette que ce chiffre atteindra 945 TWh en 2030, un doublement en six ans tiré en grande partie par les charges d’intelligence artificielle. Pour y répondre, les grands opérateurs de cloud signent des contrats nucléaires, redémarrent des centrales et basculent leurs infrastructures vers le refroidissement liquide. Mais plusieurs controverses de fond restent ouvertes : efficacité réelle, comptabilité carbone, consommation d’eau.
Les ordres de grandeur
Les États-Unis concentrent une part massive de ce calcul : 176 à 183 TWh consommés par les datacenters américains en 2023–2024, soit 4,4 % de l’électricité nationale (Lawrence Berkeley National Laboratory, décembre 2024). À titre de comparaison, c’est davantage que la consommation annuelle de l’État du Texas résidentiel.
Ce qui a changé, c’est la nature des charges. Les serveurs d’inférence et d’entraînement de modèles d’IA sont construits autour de processeurs graphiques (GPU) dont la consommation est sans commune mesure avec un serveur web classique. Les charges IA croissent à 30 % par an, contre 9 % pour les charges serveurs conventionnelles (IEA, Energy and AI, 2025). Les dépenses en capital des quatre principaux hyperscalers — Amazon, Microsoft, Google, Meta — ont dépassé 200 milliards de dollars en 2024, avec des prévisions 2025 entre 315 et 400 milliards.
Le rapport LBNL 2024 propose une fourchette d’estimation pour les États-Unis en 2028 : entre 325 et 580 TWh, soit 6,7 à 12 % de l’électricité nationale. L’écart entre ces deux bornes est révélateur de l’incertitude structurelle qui pèse sur toutes les projections.
Training et inference : deux types de coûts
Comprendre l’empreinte de l’IA commence par distinguer deux phases radicalement différentes.
Le training est le coût ponctuel mais massif d’entraîner un modèle. Il mobilise des milliers de GPU pendant des semaines ou des mois. C’est le chiffre spectaculaire que citent les articles de presse.
L’inference est le coût de chaque requête utilisateur. Unitairement faible, mais cumulé sur des milliards d’appels quotidiens, il représente une part croissante — parfois comparable — de l’empreinte totale d’un modèle sur sa durée de vie.
Un article de Luccioni et al. sur BLOOM, modèle de 176 milliards de paramètres entraîné sur le supercalculateur Jean Zay en France, montre que dix-huit mois d’inference ont produit une empreinte carbone comparable à celle de l’entraînement lui-même (24,7 tCO₂e pour le training). C’est la première étude académique à documenter cet équilibre sur un modèle de cette taille.
Pour les modèles plus récents, les données officielles sont rares. Pour GPT-3 (OpenAI, 2020), les estimations de Google (Patterson et al., 2021) donnent ~552 tCO₂e avec un mix énergétique typique américain. Le même entraînement sur l’infrastructure Google aurait produit ~21 tCO₂e selon ces mêmes auteurs — un facteur de 26 qui illustre à quel point la localisation du datacenter et la source d’électricité changent tout.
Meta a publié que l’entraînement de Llama 3 (405 milliards de paramètres) a mobilisé 6,4 millions d’heures-GPU sur des H100. À la consommation typique d’un H100 (~700 W), cela représente environ 4,5 GWh — soit, selon le mix énergétique, de l’ordre de 2 000 à 3 000 tCO₂e. Pour GPT-4, OpenAI n’a publié aucune donnée.
Pourquoi le refroidissement est devenu un problème physique
Un datacenter traditionnel consomme entre 4 et 10 kilowatts par baie de serveurs. Un cluster de GPU pour l’entraînement de grands modèles atteint 100 à 130 kW par baie — une multiplication par dix à trente. À ces densités, le refroidissement par air est physiquement impossible : il faudrait des débits d’air qui ne peuvent pas être atteints dans un bâtiment fermé.
La solution adoptée est le refroidissement liquide : des plaques en contact direct avec les processeurs, traversées par de l’eau ou un liquide caloporteur, évacuent la chaleur bien plus efficacement que l’air. En 2024, ces systèmes représentent 46 % du marché du refroidissement datacenter et sont devenus le standard pour tout nouveau déploiement hyperscale. Microsoft, Google, Meta ont basculé leurs clusters d’IA en refroidissement liquide. CoreWeave — spécialiste du cloud GPU — opère l’ensemble de ses nouveaux datacenters avec du liquide depuis 2025, pour des baies NVIDIA GB200 NVL72 dissipant 130 kW.
Pour mesurer l’efficacité énergétique d’un datacenter, l’indicateur historique est le PUE (Power Usage Effectiveness) : rapport entre l’énergie totale consommée par l’installation et l’énergie consommée par les équipements informatiques. Un PUE de 1,0 est théoriquement parfait — toute l’énergie va au calcul. Un PUE de 2,0 signifie qu’autant d’énergie est dissipée en refroidissement qu’en calcul utile. En 2024, la moyenne mondiale des datacenters traditionnels se situe à 1,56. Les hyperscalers modernes atteignent 1,09 à 1,15 (Google annonce un PUE moyen de 1,09 sur son parc mondial).
Mais cette métrique a ses limites : un datacenter avec un excellent PUE qui tourne à faible charge peut être moins efficient qu’un datacenter moins optimisé fonctionnant à pleine puissance. Des métriques alternatives (DPPE, CUE, WUE) existent mais ne se sont pas encore imposées.
Le tournant nucléaire des hyperscalers
La contrainte ne vient pas uniquement de la technique. La disponibilité de raccordement au réseau électrique est devenue le principal goulot d’étranglement : en Virginie du Nord — hub datacenter mondial — les délais de raccordement atteignent 5 à 7 ans. En Europe, les files d’attente dans les hubs FLAP-D (Francfort, Londres, Amsterdam, Paris, Dublin) dépassent 7 à 10 ans. Amsterdam et Dublin ont suspendu les nouvelles autorisations.
Face à cette contrainte, les hyperscalers ont adopté une stratégie d’approvisionnement direct à long terme via des PPA (Power Purchase Agreements) : contrats d’achat d’électricité sur 15 à 20 ans signés directement avec un producteur, sans passer par le réseau. C’est ce mécanisme qui explique les engagements spectaculaires des dernières années.
En septembre 2024, Microsoft signe un PPA de 20 ans avec Constellation Energy pour le redémarrage de la centrale de Three Mile Island — la même centrale dont l’arrêt définitif avait été acté en 2019 pour des raisons économiques. L’investissement est de 1,6 milliard de dollars pour une puissance de 835 MW, avec une mise en service prévue en 2028. C’est le premier redémarrage d’une centrale nucléaire entièrement arrêtée aux États-Unis.
Les SMR (Small Modular Reactors — réacteurs modulaires de petite taille) concentrent également les investissements. En octobre 2024, Google signe le premier accord corporatif d’achat de capacité SMR au monde, avec Kairos Power : 500 MW via 6 à 7 réacteurs à sels fondus, premier réacteur prévu en 2030. Amazon contractualise avec X-energy pour plus de 5 GW de SMR à déployer d’ici 2039. Oracle, de son côté, planifie un complexe triple-réacteur SMR pour alimenter un datacenter de 1 GW dans le cadre du projet Stargate.
Au total, les grandes entreprises technologiques ont signé en 2024–2025 plus de 10 GW de capacité nucléaire potentielle aux États-Unis.
Empreinte eau : l’externalité peu visible
La plupart des discussions publiques se concentrent sur le carbone, mais les datacenters consomment aussi de l’eau — beaucoup. Le refroidissement évaporatif par tours d’eau est encore utilisé dans de nombreuses installations, en particulier dans les régions où l’eau est moins rare.
À l’échelle d’un modèle individuel, Li et al. (2023) estiment que l’entraînement de GPT-3 a nécessité environ 700 000 litres d’eau. Plus parlant à l’échelle individuelle : une conversation de 20 à 50 questions avec un modèle de cette taille consommerait environ 500 ml d’eau — l’équivalent d’une bouteille en plastique. Ces chiffres sont des estimations et dépendent fortement du type de refroidissement et de la source d’électricité.
Microsoft a reconnu officiellement une hausse de 34 % de sa consommation d’eau entre 2021 et 2022, directement liée à l’entraînement de GPT-4. L’article de Patterns (Cell Press, 2025) estime l’empreinte eau de l’IA entre 312 et 764 milliards de litres en 2025. Les datacenters du Texas projettent jusqu’à 399 milliards de gallons d’eau en 2030. Les opérateurs imposent fréquemment des accords de confidentialité aux collectivités locales, ce qui rend difficile l’évaluation publique de ces consommations.
Les controverses non résolues
Le paradoxe de l’efficacité
Les gains d’efficacité réduisent-ils la consommation totale ? La réponse, documentée par la recherche académique, est non. Ce phénomène est connu sous le nom de paradoxe de Jevons : lorsqu’une ressource devient moins chère à utiliser, la demande augmente jusqu’à dépasser les économies réalisées.
Un exemple récent l’illustre : DeepSeek R1, un modèle moins coûteux à l’inférence, a provoqué une augmentation de la demande d’inférence, annulant les économies d’énergie par requête. L’ACM SIGARCH note que « l’efficacité seule ne résoudra pas le problème carbone des datacenters » sans mécanismes de limitation de la demande (Souza et al., FAccT 2025).
L’argument de l’efficience par service rendu — une requête à un LLM consomme entre 0,001 et 0,01 kWh — mérite d’être pris au sérieux et challengé simultanément. Luccioni (2023) estime que ChatGPT consomme environ 10 fois plus d’énergie par requête qu’une recherche Google. Surtout, l’argument ignore l’effet rebond : si chaque requête coûte moins cher, le volume d’usage explose. L’IA générative ne remplace pas d’autres activités — elle en crée de nouvelles.
La comptabilité carbone en question
Les déclarations « 100 % renouvelable » des hyperscalers reposent sur des RECs (Renewable Energy Certificates) — des certificats achetés séparément de la consommation réelle, sans correspondance temporelle ni géographique obligatoire. Un datacenter qui achète des RECs produits en été en Arizona peut les utiliser pour compenser une consommation en hiver dans l’Ohio.
Google a adopté unilatéralement en 2020 un standard plus exigeant, la correspondance horaire carbone (24/7 Carbon-Free Energy) : l’électricité sans carbone doit correspondre heure par heure à la consommation réelle. En 2024, le mix énergétique réel des datacenters américains reste dominé par le gaz naturel (plus de 40 %), suivi des renouvelables (24 %), du nucléaire (environ 20 %) et du charbon (environ 15 %).
Les rapports RSE confirment la tendance : Google affiche une hausse de 48 % de ses émissions entre 2019 et 2023 malgré ses engagements climatiques, et Microsoft +30 % entre 2020 et 2023. Les compensations n’effacent pas la croissance réelle.
Ligozat et al. (2022) ont analysé systématiquement ces arguments dans la littérature et montrent que la plupart des déclarations écologiques dans l’IA reposent sur des compensations qui ne garantissent pas la causalité temporelle et géographique.
Le scope 3 : ce qu’on ne compte pas
La fabrication des GPU est rarement intégrée dans les bilans carbone des laboratoires. Un Nvidia H100 génère environ 150 kg de CO₂e à la production. Un datacenter moderne en compte des dizaines de milliers. L’infrastructure réseau, les câbles sous-marins, les cycles de remplacement des équipements — autant de postes qui n’apparaissent pas dans les chiffres communiqués.
Les SMR : quand ?
Aucun SMR commercial n’est opérationnel aux États-Unis en 2025. La technologie est en phase de certification réglementaire auprès de la NRC (Nuclear Regulatory Commission). Les délais annoncés — 2030 pour les premiers réacteurs Google-Kairos, 2039 pour la majorité des capacités Amazon — soulèvent une question pratique : quel sera le mix énergétique réel des datacenters pendant les 10 à 15 années de transition ? La réponse probable est : davantage de gaz naturel, ce qui augmente les émissions nettes à court terme.
Ce qu’il faut retenir
- La consommation mondiale des datacenters atteint 415 TWh en 2024 et pourrait doubler d’ici 2030 selon l’IEA, sous l’effet des charges IA qui croissent à 30 % par an.
- L’empreinte se décompose en training (coût ponctuel massif) et inference (faible par requête, mais comparable sur la durée de vie d’un modèle en production).
- Les clusters GPU imposent des densités de 100 à 130 kW par baie — dix à trente fois plus que les serveurs classiques — ce qui rend le refroidissement liquide incontournable pour les nouvelles infrastructures.
- La consommation d’eau est l’externalité oubliée : ~500 ml estimés par conversation avec un modèle de la taille de GPT-3 ; hausse de 34 % confirmée par Microsoft entre 2021 et 2022.
- Les hyperscalers misent sur le nucléaire (Three Mile Island redémarré pour Microsoft, contrats SMR chez Google et Amazon) pour s’affranchir des contraintes de raccordement au réseau électrique.
- Les déclarations « 100 % renouvelable » reposent sur des mécanismes de certificats décorrélés de la consommation réelle ; le mix effectif reste majoritairement fossile.
- Les gains d’efficacité ne réduisent pas la consommation totale — ils stimulent la demande (paradoxe de Jevons), une conclusion documentée académiquement et illustrée par l’effet DeepSeek.
Sources
- Lawrence Berkeley National Laboratory, Masanet et al., “2024 United States Data Center Energy Usage Report”, décembre 2024
- International Energy Agency, “Energy and AI”, avril 2025
- Souza et al., “From Efficiency Gains to Rebound Effects: The Problem of Jevons’ Paradox in AI’s Polarized Environmental Debate”, FAccT 2025 / arXiv:2501.16548
- Cell Press / Patterns, “The carbon and water footprints of data centers and what this could mean for artificial intelligence”, 2025
- Nature Sustainability, “Environmental impact and net-zero pathways for sustainable artificial intelligence servers in the USA”, 2025
- Google, “Power usage effectiveness — Google Data Centers”, 2024
- MIT Technology Review, “Why Microsoft made a deal to help restart Three Mile Island”, septembre 2024
- IEA, “Overcoming energy constraints is key to delivering on Europe’s data centre goals”, 2025
- Pew Research Center, “What we know about energy use at US data centers amid the AI boom”, octobre 2025
- Strubell, Ganesh, McCallum, “Energy and Policy Considerations for Deep Learning in NLP”, ACL 2019
- Patterson et al. (Google), “Carbon and the Narrow Path to a Low-Carbon, Large-Scale AI”, arXiv, 2021
- Luccioni, Viguier, Ligozat, “Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model”, JMLR, 2023
- Luccioni et al., “Power Hungry Processing: Watts Driving the Cost of AI Deployment?”, ACM FAccT, 2023
- Li et al., “Making AI Less Thirsty: Uncovering and Addressing the Secret Water Footprint of AI Models”, arXiv, 2023
- Ligozat et al., “Unmaking AI Greenwashing Claims: an Empirical Analysis of Environmental Claims for AI”, ACM FAccT, 2022
- Google LLC, “Google Environmental Report 2023”
- Microsoft Corporation, “Microsoft 2023 Environmental Sustainability Report”