Imaginez un instant que les data centers les plus puissants de la planète ne se trouvent plus sur Terre, mais flottent en orbite, baignés de soleil permanent, sans aucune limite de refroidissement ni de consommation électrique terrestre. Cette vision, qui semblait relever encore récemment de la science-fiction, est aujourd’hui au cœur des déclarations les plus audacieuses d’Elon Musk. Le 19 janvier 2026, le patron de Tesla et de SpaceX a créé la surprise en annonçant le redémarrage d’un projet que beaucoup pensaient définitivement enterré : Dojo 3.

Mais attention, cette nouvelle version n’a plus grand-chose à voir avec l’automobile ou la conduite autonome. Dojo 3 est désormais destiné à devenir le socle d’une infrastructure de calcul IA entièrement basée dans l’espace. Un tournant stratégique majeur qui mêle les expertises de Tesla en matière de puces sur mesure et la capacité de lancement inégalée de SpaceX.

Le retour inattendu de Dojo 3

Pour comprendre l’ampleur de cette annonce, il faut remonter quelques mois en arrière. À l’été 2025, Tesla avait pris une décision radicale : mettre fin au développement interne de sa super-machine Dojo et de son équipe dédiée. Le départ de plusieurs cadres clés, dont Peter Bannon et Ganesh Venkataramanan, avait précipité la dissolution du groupe. Une vingtaine d’ingénieurs avaient même rejoint une nouvelle startup, DensityAI, emportant avec eux une partie du savoir-faire accumulé.

À l’époque, les observateurs y avaient vu la fin d’une ambition coûteuse et risquée. Tesla semblait prête à s’en remettre davantage aux solutions Nvidia, AMD et aux capacités de production de Samsung et TSMC pour ses futures puces AI5 et AI6. Et puis, patatras. Quelques mois plus tard, Elon Musk ressuscite le projet avec une orientation radicalement différente.

« AI7/Dojo3 will be for space-based AI compute »

Elon Musk – 19 janvier 2026

Cette phrase, publiée sur X, résume à elle seule le changement de paradigme. Dojo 3 ne servira plus principalement à entraîner les modèles de conduite autonome Full Self-Driving ou les robots Optimus. Son rôle futur sera de fournir une puissance de calcul massive… depuis l’orbite terrestre.

Pourquoi l’espace pour faire de l’IA ?

La réponse tient en quelques mots : énergie et refroidissement. Les data centers terrestres consomment aujourd’hui des quantités d’électricité colossales. Les projections les plus sérieuses estiment que l’IA pourrait représenter jusqu’à 10 % de la consommation électrique mondiale d’ici 2030 si la croissance actuelle se maintient. Or les réseaux électriques peinent déjà à suivre, surtout dans les régions où se concentrent les plus gros clusters (Virginie du Nord, Texas, Arizona…).

Dans l’espace, le soleil ne se couche jamais. Un satellite correctement positionné en orbite géostationnaire ou sur une orbite héliosynchrone peut recevoir de l’énergie solaire 24 heures sur 24, sans nuages ni nuit. De plus, le vide spatial constitue un excellent isolant thermique : les composants peuvent rayonner leur chaleur directement vers le froid cosmique (-270 °C) sans avoir besoin de systèmes de refroidissement liquide complexes et énergivores.

  • Énergie solaire continue et gratuite une fois le satellite déployé
  • Refroidissement radiatif passif extrêmement efficace
  • Latence acceptable pour de nombreuses tâches d’entraînement et d’inférence non temps réel
  • Possibilité de créer des constellations de plusieurs milliers de nœuds de calcul
  • Indépendance vis-à-vis des contraintes politiques et énergétiques terrestres

Ces avantages expliquent pourquoi plusieurs grands noms de l’IA regardent désormais vers le ciel. Sam Altman, PDG d’OpenAI, a lui aussi exprimé publiquement son enthousiasme pour l’idée de data centers orbitaux. Mais Elon Musk dispose d’un avantage compétitif unique : il contrôle déjà la fusée la plus puissante et la moins chère du monde, Starship.

Starship : la clé du business model

Le coût de lancement est historiquement le principal frein au déploiement de mégaconstellations en orbite. Même avec les progrès de SpaceX, mettre un kilo en orbite basse reste cher. Mais Starship change la donne. Conçue pour être totalement réutilisable et capable d’emporter plus de 100 tonnes de charge utile, la fusée pourrait faire passer le coût à quelques centaines de dollars par kilogramme, voire moins à très haute cadence.

Si SpaceX parvient à lancer plusieurs Starship par semaine, il devient envisageable d’envoyer des centaines, puis des milliers de modules de calcul en orbite chaque année. C’est précisément sur cette hypothèse que repose le projet space-based AI compute annoncé par Musk.

Le plan évoqué dans plusieurs médias spécialisés serait le suivant : utiliser les fonds levés lors de l’introduction en bourse prochaine de SpaceX pour financer le développement et le déploiement initial d’une constellation de satellites équipés de puces Dojo 3 optimisées pour le vide spatial.

Les défis techniques colossaux

Si l’idée est séduisante sur le papier, la réalité technique est implacable. Construire un supercalculateur spatial pose des problèmes que l’on ne rencontre jamais sur Terre.

  • Radiations cosmiques et solaires qui dégradent les semi-conducteurs
  • Absence totale de convection pour évacuer la chaleur
  • Contraintes de masse et de volume lors du lancement
  • Latence de communication Terre-espace (minimum 4 ms en orbite basse, jusqu’à 500 ms en géostationnaire)
  • Maintenance impossible ou extrêmement coûteuse
  • Alimentation électrique stable malgré les passages en ombre (orbite basse)

Pour surmonter ces obstacles, les ingénieurs devront repenser entièrement l’architecture des puces et des systèmes. Les transistors seront probablement choisis pour leur tolérance aux radiations, les systèmes de refroidissement reposeront sur des caloducs et des radiateurs déployables gigantesques, et les interconnexions entre nœuds passeront par des lasers optiques intersatellites à très haut débit.

Tesla affirme que la roadmap de ses puces internes est « en bonne santé ». L’AI5 (fabriquée par TSMC) est déjà conçue pour les véhicules et Optimus, tandis que l’AI6 (Samsung) vise à la fois l’automobile, la robotique et l’entraînement en data center. Dojo 3 / AI7 semble donc être la prochaine itération, spécifiquement adaptée aux contraintes extrêmes de l’environnement spatial.

Tesla recrute à tour de bras

Conscient que le projet ne pourra voir le jour sans une équipe d’exception, Elon Musk n’a pas hésité à transformer son message en véritable appel à candidatures. Dans le même post X où il évoquait Dojo 3, il a lancé :

« If you’re interested in working on what will be the highest volume chips in the world, send a note to [email protected] with 3 bullet points on the toughest technical problems you’ve solved. »

Elon Musk

La formulation est claire : Musk veut les meilleurs, ceux qui ont déjà résolu des problèmes considérés comme insolubles. Il promet aussi que ces puces deviendront « les plus produites au monde », ce qui laisse imaginer des volumes de production astronomiques si le projet aboutit.

Un contexte concurrentiel tendu

L’annonce intervient à un moment stratégique. Lors du CES 2026, Nvidia a dévoilé Alpamayo, un modèle open source dédié à la conduite autonome qui vise directement le cœur de métier de Tesla : le FSD. Elon Musk a d’ailleurs réagi avec une certaine élégance sur X, reconnaissant la difficulté de résoudre le « long tail » des cas rares en conduite.

Plutôt que de répondre frontalement sur le terrain automobile, Tesla semble vouloir prendre de l’avance sur le terrain suivant : le calcul IA de nouvelle génération. En contrôlant à la fois la conception des puces, leur production (via des partenaires) et le moyen de les déployer massivement dans l’espace (Starship), l’écosystème Musk pourrait créer un avantage compétitif difficilement rattrapable.

Vers une nouvelle économie orbitale ?

Si le projet aboutit, les implications seraient immenses. On pourrait voir émerger :

  • Des fournisseurs de « compute-as-a-service » orbital
  • Une nouvelle filière industrielle de fabrication de puces durcies spatiales
  • Une demande explosive pour les lancements Starship
  • De nouveaux usages IA impossibles sur Terre (entraînement sur des datasets massifs en continu, simulations physiques à très grande échelle)
  • Une réduction drastique de l’empreinte carbone liée au calcul IA (grâce à l’énergie solaire pure)

Mais le chemin reste semé d’embûches. Entre les défis techniques, les coûts initiaux pharaoniques, les questions réglementaires (allocation de fréquences, débris orbitaux, souveraineté des données) et la concurrence d’autres acteurs (Amazon avec Kuiper, Google, voire la Chine), rien n’est encore joué.

Un pari à la hauteur d’Elon Musk

Ceux qui suivent Elon Musk depuis des années reconnaissent bien là sa patte : annoncer un objectif qui paraît démesuré, voire délirant, puis mobiliser toutes les ressources pour le rendre possible. On a vu le même schéma avec les fusées réutilisables, les tunnels, Neuralink, les implants cérébraux, les robots humanoïdes… Parfois cela échoue, souvent cela prend beaucoup plus de temps que prévu, mais régulièrement, l’impossible finit par arriver.

Dojo 3 spatial pourrait bien être le prochain chapitre de cette saga. En liant l’expertise en IA de Tesla à la maîtrise spatiale de SpaceX, Musk ne cherche pas simplement à résoudre un problème de calcul pour ses voitures. Il pose les bases d’une infrastructure numérique qui pourrait redéfinir où et comment l’intelligence artificielle la plus avancée sera entraînée et exécutée dans les décennies à venir.

Reste maintenant à savoir si les ingénieurs recrutés via [email protected] parviendront à transformer cette vision en réalité tangible. Une chose est sûre : l’année 2026 vient de commencer sur les chapeaux de roues dans le monde de l’IA et de l’espace.

Et vous, que pensez-vous de cette idée de data centers en orbite ? Révolution inéluctable ou rêve trop coûteux ?

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.