Datacenters : "l'opacité sur ce sujet est entretenue par beaucoup d'acteurs : il faut y remédier"
Les centres de données, éléments stratégiques de l'écosystème numérique, se développent à grande vitesse sur l'ensemble de la planète. Poussées par l'essor global de l'IA, la construction et l'exploitation de ces infrastructures s'accompagne de nombreuses problématiques, pas toujours clairement explicitées. Entretien avec Benoit Petit, co-fondateur d'Hubblo.
Par Louise Pastouret
9 janvier 2026


Interview
Benoit Petit
Co-fondateur d'Hubblo, entreprise spécialisée dans la transformation socio-écologique des organisations du numérique.
Les centres de données focalisent actuellement l'attention, puisque ces infrastructures-clés font marcher les IA. Quelle est la situation en France à ce jour ?
Nous avons effectué une collecte de données sur les datacenters français, dans le cadre de l'étude prospective 2060 des consommations énergie/eau/foncier des datacenters français, pour le compte de l'Ademe (aux côtés de Studio Dégel, Lorraine de Montenay et Sinok).
352
c'est le nombre de datacenters actifs en métropole en fin d'année 2024.
Ademe
La majorité d'entre eux sont en colocation : ils opèrent les fonctions essentielles du datacenter et permettent à leurs client·es d'installer leurs équipements dans les espaces qu'ils louent. Plus précisément, nous avons recensé 232 datacenters de colocation de moins de 10 MW de puissance, et 55 de colocation avec plus de 10 MW de puissance. Le reste se compose de datacenters privés (dont l'usage est exclusivement réservé à une entreprise ou un groupe), du secteur public, ou de datacenters spécialisés HPC (Calcul Haute Performance, généralement pour des usages de recherche). Le périmètre de la collecte exclut les salles IT dans les bâtiments tertiaires.
Ces datacenters actifs représentent en cumulé environ 2,5 GW de puissance installée (pour tout le bâtiment, informatique et refroidissement compris). Pour référence, un réacteur nucléaire fournit classiquement une capacité de production approchant 1 GW (hors EPR). D'un point de vue foncier, nous avons comptabilisé un peu plus de 2 445 000 m² de surface de plancher (surface au sol, en cumulant les différents étages d'un bâtiment) et un peu plus d'1 125 000 m2 de surface IT.
Nous estimons pour 2024 que ces datacenters ont une consommation d'électricité de 8,16 TWh, ce qui correspond à presque 30% de la consommation d'énergie annuelle de la ville de Paris (environ 27 TWh). Il faut ajouter à ce décompte 1,8 TWh : l'estimation de la consommation d'énergie des salles informatiques présentes dans les bâtiments tertiaires (les baies présentes dans les bureaux d'entreprises). Toutes ces données sont présentées dans le rapport de l'étude, avec beaucoup plus de détails.
Parmi les centres de données identifiés, combien sont dédiés à des usages d'intelligence artificielle ?
Pour le moment, il semble que les déploiements en France pour cet usage aient été principalement effectués dans des datacenters de colocation ou privés, avec une densité moindre. C'est-à-dire avec moins de serveurs dans chaque baie informatique, le refroidissement par air étant incompatible avec une puissance électrique supérieure à 40 KW par baie.
Il y a à ce jour très peu de datacenters dédiés à l'intelligence artificielle en activité sur le territoire. Plusieurs projets sont en cours, dont certains déjà en construction, sur une trentaine de sites potentiels pouvant recevoir des datacenters à haute densité énergétique, annoncés par le gouvernement(1).
Parmi ces projets, plusieurs sont des datacenters à haute densité, principalement conçus pour l'IA générative. Ces datacenters ont notamment la particularité de fonctionner avec du refoidissement direct par liquide (DLC). Ils ont surtout une puissance installée bien supérieure à ce que qui existe pour le moment. On peut citer le site de Fouju en Seine-et-Marne, par le consortium Mistral AI - Nvidia - MGX, qui accueillerait à terme un datacenter avec une puissance d'1,4 GW (2), celui de Cambrai par Brookfield qui cumulerait à terme 1 GW de puissance (3), ou encore celui de Montereau-Fault-Yonne par OpCore sur un terrain appartenant précédemment à EDF qui afficherait à terme 700 MW (4).
La taille et la puissance électrique requise pour ce type de datacenter redessine complètement la carte du poids des datacenters français d'un point de vue environnemental, mais aussi infrastructurel (rappellons que la puissance du parc actuel ne dépasse pas 2,5 GW).
Dans votre enquête, quels procédés ont été utilisés afin d'identifier, analyser et calculer les ressources nécessaires pour faire tourner ces centres de données ?
L'étude a consisté en deux grandes parties. Dans un premier temps, une collecte des données permettant de déterminer l'existant, qui a consisté à :
- repérer les sites supposés correspondre à un datacenter,
- confirmer leur présence par imagerie satellite (avec des outils bien connus comme Google Maps, Open Street Map et d'autres moins connus comme World Imagery Wayback),
- identifier l'organisation qui opère ce datacenter en s'appuyant sur les données de cadastre (notamment grâce au site web immobilier.pappers.fr),
- extraire de ces deux sources les dimensions, l'emprise au sol et la hauteur du bâtiment,
- extraire les autres données disponibles dans les documents publiés par l'opérateur ou la presse,
- croiser les informations disponibles et celles que l'on peut inférer en fonction du type de datacenter, à partir des données déjà présentes dans la base de données.
Dans un deuxième temps, une modélisation des tendances futures pour permettre une projection des consommations jusqu'en 2060.
Pour ce faire nous avons réalisé un modèle prospectif, inspiré de modèles reconnus pour ce type de projection (provenant de l'équipe de recherche d'Eric Masanet de l'UC Santa Barbara/Berkeley (5)). Ce modèle prend en entrée les données collectées pour 2024 et projette l'évolution des consommations en fonction de différents scénarii. Ceux-ci s'appuient sur les scénarii prospectifs de l'Ademe :
- Tendanciel : prolongement des tendances actuelles.
- Pari réparateur : les technologies et l'innovation sont les seuls leviers actionnés pour tenter d'atteindre les objectifs climatiques.
- Technologies vertes : les technologies et l'inovation sont au centre mais l'accent est mis sur les énergies renouvelables, l'électrification.
- Coopération territoriale : la coopération entre opérateurs de datacenters et collectivités est renforcée, une certaine sobriété est actionnée.
- Génération frugale : l'accent est mis sur la sobriété des infrastructures et des usages.
En fonction de ces scénarii, les projections sont assez différentes et sont expliquées en détail dans le rapport.
Pouvez-vous nous expliquer ce qu’implique la création d’un centre de données en termes d'infrastructures ?
Un datacenter est composé de plusieurs éléments. Les salles IT comprennent les équipements informatiques ainsi que les baies informatiques dans lesquelles ils sont installés. Généralement, ces baies informatiques sont installées sur un plancher surélevé capable de supporter leur poids (souvent utile pour faire circuler l'air froid).
Dans la salle IT se trouvent également des équipements qui sont la terminaison du système de refroidissement (à air, par liquide, ou encore par immersion dans un bain d'huile de manière plus minoritaire).
D'autres salles sont indispensables au fontionnement du datacenter. Par exemple pour héberger les équipements qui permettent une alimentation électrique sans interruption, qui s'appuient sur des batteries (au plomb ou au lithium) en cas de besoin. D'autres salles (meet-me-room) sont dédiées à l'interconnexion réseau entre client·es du datacenter.
La redondance électrique ne s'arrête pas aux batteries - qui ne permettent au mieux que quelques dizaines de minutes d'autonomie : elle est aussi permise par des groupes électrogènes (qui fonctionnent le plus souvent au diesel, bien que d'autres carburants existent). Le carburant nécessaire doit être stocké, souvent dans des cuves enterrées à proximité du datacenter.
Le système de refroidissement ne s'arrête pas à la salle IT mais trouve ses extrêmités au dessus ou à proximité du bâtiment, avec des équipements chargés d'expulser l'air chaud ou de refroidir l'eau chaude qui provient du système de refroidissement. Il existe diverses technologies : en France, les systèmes de refroidissement extérieur avec évaporation d'eau en extérieur sont minoritaires (ce qui n'est pas le cas aux Etats-Unis).
Ensuite, il faut prendre en compte tous les dispositifs liés à l'éclairage, la sécurité (scanner d'empreinte digitale ou rétinienne, système d'information interne, alarme incendie et dispositifs associés, etc.), la logistique (livraison du matériel, acceuil, salle de réception des colis), etc.
Enfin le datacenter n'existe pas sans un accès en termes de transport (route, parking), en termes de connectivité (tranchées pour la fibre optique) et en termes de raccordement électrique (des transformateurs et un poste source dédié peuvent être nécessaires).
On parle donc d'une infrastructure potentiellement massive sur plusieurs plans. Les surfaces occupées sont variables, il existe de tout petits datacenters (moins de 500 m² de surface IT), mais les projets récents poussent au gigantisme (plus de 10 000 m² IT, voire plusieurs dizaines de milliers sur les projets en France et même plusieurs centaines de milliers si l'on observe les sites récents aux USA, comme Stargate d'OpenAI (6)).
Concernant les projets de centres de données, leur implantation soulève-t-elle des problématiques ?
Tout dépend de quelle problématique ou parle. Du point de vue de la puissance électrique à fournir, c'est certain sur les grands projets de plusieurs centaines de MW ou plus d'un GW.
Mais ces projets n'atteindront pas de telles puissances en un jour. Ces raccordements sont progressifs et s'effectuent par pallier (quelques dizaines de MW à la fois, par exemple). Les annonces sont parfois éloignées et souvent très en avance sur la réalité. La consommation d'énergie associée est une question importante, car les densités sont plus importantes sur ces nouveaux projets, mais les profils de consommation également, car les variations de puissance demandée sont plus importantes et plus rapides avec l'IA générative qu'avec de l'IT classique (7)(8), ce qui peut soulever des questions de stabilité de la grille électrique.
Du point de vue de l'emprise au sol, l'une des grandes questions est la nature du terrain occupé. S'agit-il d'une friche industrielle - auquel cas il n'y a pas d'artificialisation supplémentaire - ou bien de forêt, de terres agricoles ? Quantifier ces changements en fonction de l'occupation du terrain précédent l'implantation fait partie des suites que l'on souhaite donner au projet, sur les sites existants et futurs.
Enfin la consommation d'eau est une problématique locale. Sa gravité dépend du stress hydrique de la zone concernée, c'est à dire lorsque la demande en eau dépasse la quantité d'eau disponible (ou bien que la qualité de l'eau n'en permet pas l'usage souhaité), dans une zone et sur une fenêtre de temps donnée . Pour le moment, l'évaporation massive d'eau n'existe pas dans les datacenters français et la consommation française est à priori très faible si l'on en croit l'Arcep (9), contrairement aux Etats-Unis, où sont hébergés la plupart des grands services basés sur des LLMs. La tendance politique sur le sujet est à la simplification et l'accélération de l'implantation de ce type de projet, alors rien n'est garanti pour l'avenir.
L'acceptabilité sociale de ces projets est également un sujet central. Nous avons vu le mouvement "Le nuage était sous nos pieds" à Marseille animé par l'association La Quadrature du Net (10), ou bien le projet de datacenter d'Amazon à Bretigny-sur-Orges, qui a été retardé par le prefet suite aux oppositions locales (11). Aux USA, les problèmes commencent à émerger suite à l'implanatation de grands datacenters : qualité de l'eau avec Meta(12), qualité de l'air avec xAI (13), prix de l'électricité dans l'est (14), etc.
Mon point de vue personnel sur la question est que ces projets ne devraient être permis qu'en prenant en compte les inquiétudes de la population, mais l'orientation politique sur ce sujet ne va pas dans ce sens. Entre l'article 15 du projet de loi de simplification de la vie des entreprises (15) et le projet de la Commission Européenne (16)qui vise la dérégulation sur les grands projets de datacenters dans le cadre du paquet Omnibus, les contraintes concernant la préservation d'espèces protégées ainsi que les règles en place pour cadrer l'usage de générateurs électriques basés sur les énergies fossiles pourraient disparaitre si le projet est déclaré d'importance nationale majeure, ou bien s'il entre dans la catégorie définie dans le projet européen (parmis d'autres mécanismes de dérégulation).
Quelles difficultés avez-vous rencontré pendant l’enquête ?
L'accès aux données utiles a été un problème, mais pas une surprise. Nous avons obtenu très peu de données sur les consommations d'eau, par exemple.
La phase de collecte a également nécessité de faire le tri entre les différentes données disponibles. Certaines données sont extrêmement incertaines. C'est notamment le cas du PUE ou Power Usage Effectiveness (qui indique pour 1 KWh d'énergie utilisée par les équipements IT combien de KWh d'énergie le batiment consomme dans son ensemble) (17), dont le calcul et l'interprétation sont hétérogènes parmis les acteurs·rices et qui fait rarement l'objet d'un audit externe.
C'est également le cas des émissions de gaz à effet de serre annoncées dans les bilans annuels des grands acteurs de la Tech, lorsque celles-ci sont calculées en "market-based", c'est à dire qu'elles prennent en compte les certificats de garantie d'origine de l'électricité et pas uniquement les émissions du mix de production du pays concerné. C'est aussi parfois le cas des données de puissance installée, car entre en jeu des effets d'annonce biaisées pour des raisons d'investissement, des jeux de spéculation, une relative opacité sur les redondances, etc.
Le fait de collecter et d'utiliser en priorité des données de surface pour calculer les autres indicateurs fut un choix de fiabilité, car ces données peuvent être confrontées à travers différentes sources (images satellite, cadastre, documentation constructeur ou bureau d'étude, etc.).
Ya-t-il des raisons de s'inquiéter par rapport à l’implantation de ces centres de données en France ?
Je comprend tout à fait l'inquiétude d'un point de vue environnemental, même s'il faut rappeller que les ordres de grandeurs sont tout autres en France que dans un pays comme l'Irlance où les datacenters atteindront 30% de la consommation en 2030 d'apres l'Agence Internationale de l'Energie(18), ou aux USA où 56% de l'électricité consommée provient d'énergies fossiles (19).
L'élément crucial selon moi, c'est le nombre et la taille de ces nouveaux projets. Les impacts environnementaux des datacenters existants étaient déjà couramment sous-estimés. A présent, l'implantation de ces nouveaux datacenters peut représenter une multiplication des surfaces et puissances installées totales actuelles - avec une multiplication des impacts environnementaux.
Actuellement, les débats sur ce sujet tournent souvent autour de la "souveraineté numérique". Mais il faut rappeler que la plupart de ces projets se basent sur des investissements étrangers, pour des batiments opérés par des opérateurs étrangers, contenant du matériel informatique d'entreprises américaines ou chinoises, hébergeant du logiciel et des modèles qui pour la plupart ne sont pas non plus issus d'entreprises françaises ou même européennes, dans la plupart des cas. La question de la dépendance forte à des entreprises dont les intérets ne sont pas focrément alignés avec ceux de notre pays est bien expliquée par Ophélie Coelho, dans son ouvrage Géopolitique du Numérique, l'impérialisme à pas de géant.
Et dans le monde ?
Les émissions de gaz à effet de serre de Microsoft ont augmenté de 30% annuellement, entre 2020 et 2023 (20), et celles de Google de 50% en 5 ans (21), principalement du fait du béton des nouvelles constructions. D'ailleurs, le secteur de la construction se relance économiquement du fait du boom de la construction des datacenters.
Au delà de l'étude, qui n'étudie qu'en partie les impacts environnementaux directs liés aux datacenters, les impacts indirects de l'intelligence artificielle sont en question (voir la campagne sur les Enabled Emissions des ancien·nes salarié·es d'Open AI WIll et Holly Alpine (22), ou encore le webinaire de Gauthier Roussilhe (23)), alors que l'usage des capacités d'OpenAI pour l'extraction de gaz de schiste génèrerait, au moins, 3 fois plus d'émissions que Microsoft dans l'ensemble de son bilan carbone (24).
Que va-t-il advenir des données collectées pendant l'enquête ?
Nous souhaitons créer un commun numérique sur ce sujet, à l'instar des projets open-source que nous affectionnons, dont ceux maintenus par l'association Boavizta. Des discussion sont en cours avec Data For Good et d'autres acteurs pour mettre sur pied ce commun, sa gouvernance et un processus de contribution clairement documenté pour que n'importe qui puisse proposer de nouvelles données en s'appuyant exclusivement sur des données en sources ouvertes.
L'une de nos inspirations sur le sujet est le projet MapYourGrid, qui permet à toute personne intéressée de contribuer à la cartographie du réseau électrique. Les données produites à ce jour grâce à ce type de projets sont utilisées y compris par des professionnel·les du secteur et permettent des progrès impossibles sans un commun.
Un mot de la fin ?
Je terminerai en disant que l'un des principaux enseignements de cette étude, c'est que l'opacité sur ce sujet est entretenue, pour de bonnes ou de mauvaises raisons, par beaucoup d'acteurs et qu'il faut y remédier.
La compréhension globale des enjeux sur l'intelligence artificielle générative doit dépasser les seules analyses de l'impact par prompt qui pêchent parfois sur le périmètre étudié et biaisent le débat, mais aussi en se concentrant uniquement sur une unité de traitement, ce qui dévie le débat d'une vue d'ensemble des systèmes et infrastructures impliquées, donc des impacts réels. Le sujet doit être pris en compte d'un point de vue systémique.
L'approche basée sur des images satellites est un axe intéressant pour entamer une meilleure cartographie de ces infrastructures critiques et des tendances d'expansion ou de transformation du secteur. Que l'objectif des analyses produites sur les centres de données concerne une réduction des consommations d'énergie, de l'occupation des sols, des impacts environnementaux ou la souveraineté de nos infrastructures, j'ai du mal à imaginer un quelconque progrès sans une compréhension réelle et une documentation ouverte de ce sujet.
Références :
Ademe
Prospective d'évolution des consommations des data centers à court, moyen et long terme de 2024 à 20601 - DC Mag Retour
La carte régionale des 35 sites de data centers dédiés à l’IA identifiés par le gouvernement2 - Campus IA Retour
Le projet3 - Usine Nouvelle Retour
Ce que l'on sait du projet de datacenter de Brookfield et Data4 à Cambrai4 - DC Mag Retour
EDF a retenu OPCORE pour construire et exploiter le futur datacenter 100% français de Montereau Vallée de la Seine5 - Github Retour
GlobalDCAnalysis (modèle Masanet d'origine)6 - Google Maps Retour
site Stargate d'OpenAI au Texas7 - Semianalysis Retour
AI Training Load Fluctuations at Gigawatt-scale: Risk of Power Grid Blackout?8 - NERC Retour
Characteristics and Risks of Emerging Large Loads - Large Loads Task Force White Paper9 - Arcep Retour
Enquête annuelle "Pour un numérique soutenable" : édition 2025 (données 2023)10 - La Quadrature du Net Retour
Le Nuage était sous nos pieds11 - Le Parisien Retour
Brétigny-sur-Orge : le projet de data center d’Amazon retoqué par le préfet de région12 - NY Times Retour
Their Water Taps Ran Dry When Meta Built Next Door13 - The Guardian Retour
Elon Musk’s xAI gets permit for methane gas generators14 - More Perfect Union Retour
We Found the Hidden Cost of Data Centers. It's in Your Electric Bill15 - Assemblée Nationale Retour
Projet de loi de simplification de la vie économique : Article 1516 - European Commission Retour
Promoting sustainable growth with simpler and smarter environmental legislation17 - Hubblo Retour
Cloud, Datacenters et environnement : se repérer dans la jungle des référentiels18 - IEA Retour
Data centre electricity consumption by region, Base Case, 2020-203019 - Arxiv Retour
Environmental Burden of United States Data Centers in the Artificial Intelligence Era, Guidi et al., 202420 - CNBC Retour
Microsoft’s carbon emissions have risen 30% since 2020 due to data center expansion21 - CNBC Retour
Google’s carbon emissions surge nearly 50% due to AI energy demand22 - Enabled emissions Retour
Enabled emissions campaign23 - Data for Good Retour
La numérisation sert elle à la transition écologique ? Avec Gauthier Roussilhe24 - Financial Times Retour
Letter: Time to quantify the real costs of Big Tech's fossil fuel enabling