Imaginez un instant : des dizaines, puis des centaines de gigawatts d’électricité dédiés exclusivement à faire tourner des intelligences artificielles toujours plus puissantes. Ce n’est plus de la science-fiction, c’est le plan concret que Mark Zuckerberg vient d’annoncer pour Meta. Alors que la course à l’IA fait rage entre les géants technologiques, la maison mère de Facebook, Instagram et WhatsApp passe à la vitesse supérieure avec un projet baptisé Meta Compute.

Ce lundi, le PDG a publié un message clair sur Threads : l’entreprise prévoit de construire une infrastructure énergétique colossale au cours de cette décennie et bien au-delà. Derrière cette annonce se cache une stratégie bien plus large que de simples data centers supplémentaires. Il s’agit de sécuriser un avantage compétitif durable dans le domaine de l’intelligence artificielle.

Meta Compute : quand l’IA rencontre la physique de l’énergie

Depuis plusieurs années, les observateurs du secteur tech constatent une tendance lourde : l’intelligence artificielle consomme énormément d’énergie. Les modèles les plus performants nécessitent des milliers de GPU dernier cri, eux-mêmes gourmands en électricité. Résultat ? Les Big Tech se transforment progressivement en véritables compagnies énergétiques déguisées.

Meta n’échappe pas à cette réalité. Après avoir annoncé des dépenses d’investissement massives l’an dernier, l’entreprise passe désormais à l’action concrète avec Meta Compute. L’objectif affiché est ambitieux : bâtir une infrastructure capable de supporter la prochaine génération de modèles d’IA propriétaires, mais aussi d’offrir des expériences produit toujours plus impressionnantes aux milliards d’utilisateurs quotidiens.

Des dizaines de gigawatts dès cette décennie

Quand Mark Zuckerberg parle de « dizaines de gigawatts » dans les années à venir, puis de « centaines de gigawatts ou plus » à plus long terme, il ne s’agit pas d’une exagération marketing. Un gigawatt représente un milliard de watts, soit à peu près la puissance produite par une grosse centrale nucléaire ou plusieurs centaines d’éoliennes offshore.

Pour mettre ces chiffres en perspective, la consommation électrique actuelle des data centers IA aux États-Unis est estimée entre 5 et 20 GW selon les sources. Les projections les plus alarmistes tablent sur une multiplication par dix d’ici 2035 si la croissance actuelle se maintient. Meta semble donc se positionner volontairement en tête de cette course énergétique.

« Meta prévoit de construire des dizaines de gigawatts cette décennie, et des centaines de gigawatts ou plus au fil du temps. La manière dont nous concevons, investissons et nouons des partenariats pour bâtir cette infrastructure deviendra un avantage stratégique. »

Mark Zuckerberg, sur Threads

Cette déclaration n’est pas anodine. Elle officialise le passage d’une logique de simple consommation d’énergie à une logique de maîtrise stratégique de la production et de la distribution électrique dédiée à l’IA.

Une équipe de choc aux commandes

Pour piloter ce projet titanesque, Zuckerberg a choisi trois profils aux compétences très complémentaires. Chacun apporte une expertise cruciale pour relever les multiples défis que représente Meta Compute.

  • Santosh Janardhan, vétéran de Meta depuis 2009 et actuel responsable de l’infrastructure globale. Il supervisera l’architecture technique, la stack logicielle, le programme silicium, la productivité des développeurs ainsi que la construction et l’exploitation de la flotte mondiale de data centers et du réseau.
  • Daniel Gross, arrivé chez Meta l’année dernière après avoir cofondé Safe Superintelligence avec Ilya Sutskever (ex-OpenAI). Il dirigera un nouveau groupe dédié à la stratégie de capacité à long terme, aux partenariats fournisseurs, à l’analyse sectorielle, à la planification et à la modélisation économique.
  • Dina Powell McCormick, ancienne haute responsable gouvernementale récemment recrutée comme présidente et vice-présidente de Meta. Sa mission : dialoguer avec les autorités publiques pour faciliter la construction, le déploiement, les investissements et le financement de cette infrastructure massive.

Cette répartition des rôles montre à quel point Meta considère Meta Compute comme un projet stratégique transversal, mêlant expertise technique de pointe, vision stratégique long terme et relations institutionnelles de haut niveau.

Pourquoi tant d’énergie ? La réalité physique de l’IA générative

Derrière les annonces spectaculaires se cache une contrainte physique incontournable : les grands modèles de langage et les systèmes multimodaux nécessitent des calculs massivement parallèles. Chaque nouvelle génération de modèle est généralement 5 à 10 fois plus gourmande en FLOPS que la précédente.

Pour entraîner Llama 4 (ou ses successeurs), Meta aura besoin de clusters de plusieurs centaines de milliers de GPU Blackwell ou Rubin, chacun consommant plusieurs centaines de watts. Le refroidissement, la distribution électrique, la redondance et la latence réseau deviennent alors des problèmes d’ingénierie de niveau national.

Ajoutez à cela l’inférence en temps réel pour des milliards d’utilisateurs sur WhatsApp, Instagram et Facebook, et vous obtenez une facture énergétique qui rivalise avec celle de certains pays européens de taille moyenne.

La course à l’infrastructure : où en sont les concurrents ?

Meta n’est évidemment pas seule dans cette quête. La compétition fait rage :

  • Microsoft multiplie les partenariats avec des fournisseurs d’énergie et des opérateurs de data centers pour sécuriser des capacités massives.
  • Google (Alphabet) a récemment racheté Intersect, une société spécialisée dans les data centers, signe que même le leader historique veut verrouiller son approvisionnement.
  • Amazon Web Services continue d’agrandir ses régions tout en signant des contrats d’achat d’énergie renouvelable de très grande ampleur.
  • xAI (Elon Musk) construit directement des supercalculateurs de plusieurs GW dans des zones où l’électricité est bon marché.

Dans ce contexte, l’initiative Meta Compute apparaît comme une réponse directe et assumée à cette guerre d’usure infrastructurelle.

Les défis qui attendent Meta Compute

Construire des dizaines puis des centaines de gigawatts d’infrastructure dédiée n’est pas une simple question d’argent. Plusieurs obstacles majeurs se dressent déjà sur la route :

  • Disponibilité du foncier adapté (grandes surfaces plates, éloignées des zones inondables, proches de sources d’énergie)
  • Délais d’obtention des permis et autorisations environnementales
  • Renforcement massif des réseaux électriques de transport et de distribution
  • Accès à des volumes considérables de transformateurs, câbles haute tension, refroidisseurs liquides et composants électroniques spécialisés
  • Recrutement de milliers d’ingénieurs en énergie, électricité haute puissance, refroidissement et supply chain
  • Gestion des relations avec les régulateurs énergétiques et environnementaux à l’échelle mondiale

Le recrutement de Dina Powell McCormick, avec son passé gouvernemental, prend tout son sens ici. Elle sera probablement en première ligne pour négocier avec les États, les agences fédérales et les autorités locales.

Quel impact sur le développement des modèles Llama ?

Meta a choisi de rendre la plupart de ses grands modèles open source (Llama 2, Llama 3, etc.). Cette stratégie contraste fortement avec les approches plus fermées d’OpenAI, Anthropic ou Google DeepMind. Mais pour conserver son avance et continuer à attirer la communauté des chercheurs, Meta doit impérativement proposer des modèles toujours plus performants.

Avec Meta Compute, l’entreprise sécurise la capacité de calcul nécessaire pour entraîner des modèles de plusieurs centaines de milliards, voire de trillions de paramètres, tout en gardant un contrôle total sur l’infrastructure sous-jacente.

« Développer une infrastructure IA de premier plan deviendra un avantage central pour créer les meilleurs modèles et les meilleures expériences produit. »

Susan Li, CFO de Meta, lors de la conférence earnings de l’été dernier

Cette phrase prononcée il y a quelques mois prend aujourd’hui tout son sens.

Vers une nouvelle géopolitique de l’électricité ?

À mesure que les Big Tech consomment des quantités d’électricité comparables à celles de petits pays, la question énergétique devient géopolitique. Qui contrôlera les meilleures sources d’énergie décarbonée ? Qui obtiendra en priorité les transformateurs et les câbles haute tension en période de pénurie mondiale ?

Meta, comme ses concurrents, pourrait être amenée à signer des contrats d’achat d’électricité (PPA) de très longue durée avec des producteurs d’énergie renouvelable, voire à investir directement dans des centrales solaires, éoliennes ou nucléaires de nouvelle génération (SMR).

Certaines rumeurs évoquent déjà des discussions avancées avec des États américains pour construire des data centers à proximité de futures centrales nucléaires modulaires. Rien n’est officiellement confirmé, mais la logique économique et stratégique est implacable.

Et l’impact environnemental dans tout ça ?

Meta affirme vouloir atteindre la neutralité carbone, voire devenir « net zero » à terme. Mais construire des centaines de gigawatts d’infrastructure supplémentaire pose la question de la source réelle de cette électricité.

Si une partie provient d’énergies fossiles (charbon ou gaz), l’empreinte carbone de l’IA pourrait exploser. À l’inverse, si Meta parvient à sécuriser massivement de l’énergie renouvelable ou nucléaire bas carbone, elle pourrait au contraire démontrer qu’une IA massive et responsable est possible.

Les prochaines années seront donc décisives pour savoir si Meta Compute sera un accélérateur de transition énergétique ou un facteur aggravant de la crise climatique.

Conclusion : l’IA redéfinit la tech… et l’énergie

L’annonce de Meta Compute marque un tournant symbolique. Les géants du numérique ne sont plus seulement des entreprises de logiciel ou de plateformes sociales : ils deviennent des acteurs majeurs de l’industrie énergétique mondiale.

Mark Zuckerberg l’a dit sans détour : la maîtrise de l’infrastructure énergétique deviendra « un avantage stratégique ». Dans les dix prochaines années, la carte du pouvoir dans l’IA se jouera autant dans les salles de serveurs que dans les centrales électriques et les accords avec les gouvernements.

Meta Compute n’est pas seulement un projet technique. C’est une déclaration d’intention : Meta compte bien être parmi les vainqueurs de la prochaine décennie de l’intelligence artificielle… et pour cela, elle est prête à redessiner la carte énergétique mondiale.

À suivre de très près.

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.