Imaginez un monde où les calculs massifs nécessaires à l’intelligence artificielle ne consomment plus des quantités astronomiques d’électricité, où les data centers ne chauffent plus comme des fours et où les modèles d’IA les plus puissants tournent à une fraction de la consommation actuelle. Cette vision, qui semblait encore futuriste il y a peu, commence à prendre forme grâce à une technologie venue tout droit des laboratoires de recherche les plus audacieux.
En janvier 2026, une startup texane discrète mais ambitieuse a fait trembler le petit monde de l’IA en annonçant une levée de fonds record : 110 millions de dollars. Son nom ? Neurophos. Son ambition ? Révolutionner le hardware sur lequel repose l’inférence des grands modèles d’IA en remplaçant les transistors électroniques classiques par des modulateurs optiques ultra-compacts basés sur des metamaterials.
Quand l’invisibilité inspire les puces du futur
L’histoire commence il y a plus de vingt ans à l’université Duke, là où le physicien David R. Smith a réussi à fabriquer le premier prototype fonctionnel de cape d’invisibilité utilisant des metamaterials. Ces matériaux artificiels, capables de manipuler les ondes électromagnétiques d’une manière impossible dans la nature, ont d’abord fasciné par leurs applications militaires et fantasmagoriques. Mais comme souvent dans la science, ce sont les retombées inattendues qui finissent par transformer notre quotidien.
C’est précisément cette expertise en métamatériaux que Neurophos a choisi d’appliquer au plus gros goulot d’étranglement actuel de l’IA : la consommation énergétique démesurée des calculs matriciels massifs, surtout pendant la phase d’inférence.
Le problème énergétique de l’IA moderne
Aujourd’hui, faire tourner un grand modèle de langage comme ceux qui alimentent ChatGPT, Claude ou Grok demande des quantités d’énergie colossales. Les GPU Nvidia, rois incontestés du marché, consomment des centaines voire des milliers de watts par carte. Les data centers hyperscale dépensent des milliards pour refroidir ces machines et négocient directement avec les fournisseurs d’électricité pour sécuriser leur approvisionnement.
Le problème est double : d’une part la consommation brute, d’autre part la dissipation thermique qui oblige à des systèmes de refroidissement complexes et coûteux. Chaque nouvelle génération de puces électroniques gagne environ 15 % d’efficacité énergétique tous les deux ans environ, principalement grâce aux progrès de la finesse de gravure chez TSMC. Mais ce rythme évolutionnaire ne suit plus la croissance exponentielle des besoins en calcul de l’IA.
« Si vous voulez aller 100 fois plus vite, vous brûlez 100 fois plus d’énergie… à moins de résoudre d’abord le problème d’efficacité énergétique. »
Dr. Patrick Bowen, CEO et co-fondateur de Neurophos
C’est exactement ce verrou que Neurophos prétend avoir sauté en passant du domaine électronique au domaine optique grâce à une approche radicalement différente.
Les promesses des processeurs photoniques
Les avantages théoriques de l’optique sur l’électronique pour les calculs massivement parallèles sont connus depuis longtemps :
- La lumière se propage beaucoup plus vite que les électrons dans les conducteurs
- Les photons produisent très peu de chaleur comparé aux électrons
- Les signaux optiques subissent moins d’interférences et de pertes
- Le multiplexage en longueur d’onde permet de transporter plusieurs informations simultanément sur une même fibre
Malgré ces atouts, les processeurs photoniques peinaient à s’imposer pour trois grandes raisons : la taille des composants optiques, la difficulté de les intégrer à grande échelle et la consommation liée aux conversions permanentes entre domaine électrique et optique.
Neurophos affirme avoir résolu ces trois problèmes grâce à une innovation majeure : le metasurface modulator, un composant optique environ 10 000 fois plus petit que les modulateurs optiques traditionnels.
Une densité de calcul inédite
En miniaturisant drastiquement les éléments optiques actifs, Neurophos parvient à intégrer des milliers de ces modulateurs sur une seule puce. Chaque modulateur peut effectuer des opérations matricielles-vectorielles – le cœur mathématique de l’inférence neuronale – directement dans le domaine optique, sans conversion intermédiaire.
Le résultat annoncé est impressionnant :
| Neurophos OPU | Nvidia B200 | |
| Fréquence | 56 GHz | ~1-2 GHz (effective) |
| Performance crête | 235 POPS | 9 POPS |
| Consommation | 675 W | 1000 W |
| Efficacité énergétique | ~0,35 POPS/W | 0,009 POPS/W |
Ces chiffres, s’ils se confirment en conditions réelles, représenteraient un bond de performance d’environ 26x et une amélioration d’efficacité énergétique de l’ordre de 39x par rapport à la génération Blackwell de Nvidia.
Un écosystème déjà en construction
Neurophos ne se contente pas d’annoncer des chiffres théoriques. La startup affirme avoir déjà signé plusieurs contrats clients (sans dévoiler leur identité) et que des géants comme Microsoft suivent de très près ses avancées.
« L’inférence IA moderne exige des quantités monumentales de puissance et de calcul. Nous avons besoin d’une percée comparable à celle observée dans les modèles eux-mêmes. »
Dr. Marc Tremblay, VP et Technical Fellow, Microsoft
La société développe en parallèle :
- Des modules OPU prêts pour data center
- Une stack logicielle complète
- Du matériel d’accès anticipé pour les développeurs
- Une nouvelle équipe d’ingénieurs à San Francisco
- Une extension significative de ses locaux à Austin
Les défis qui restent à relever
Malgré l’enthousiasme légitime, plusieurs obstacles subsistent avant que les processeurs optiques de Neurophos ne se retrouvent dans les data centers du monde entier :
- La maturité technologique reste limitée (premiers produits commerciaux attendus mi-2028)
- L’écosystème logiciel autour des architectures photoniques est quasi inexistant
- La conversion optique-électrique, même réduite, reste nécessaire aux interfaces
- La fiabilité à grande échelle et sur le long terme n’est pas encore prouvée
- La concurrence ne reste pas immobile : Cerebras, Groq, SambaNova, Lightmatter et d’autres explorent également des voies alternatives
De plus, Nvidia dispose d’un avantage considérable en termes d’écosystème CUDA mature, d’optimisations logicielles accumulées depuis 15 ans et d’une position dominante auprès des hyperscalers.
Un investisseur de poids : Gates Frontier
La présence de Gates Frontier (le véhicule d’investissement de Bill Gates) en lead investor n’est pas anodine. Depuis plusieurs années, l’ancien patron de Microsoft s’intéresse de près aux questions énergétiques liées à l’IA et aux technologies de rupture susceptibles de réduire l’empreinte carbone du numérique.
Parmi les autres participants notables, on retrouve :
- M12 (le fonds corporate de Microsoft)
- Aramco Ventures
- Bosch Ventures
- Carbon Direct (spécialisé dans les technologies de décarbonation)
- Space Capital
Ce tour de table illustre bien l’enjeu stratégique : si la promesse est tenue, les processeurs optiques pourraient devenir l’une des clefs permettant de poursuivre la course à l’IA sans faire exploser la consommation électrique mondiale du secteur.
Vers une nouvelle guerre des architectures ?
L’arrivée de Neurophos s’inscrit dans un mouvement plus large : la fin du monopole de l’architecture von Neumann et des transistors CMOS pour les workloads IA les plus exigeants. Après les accélérateurs tensoriels, les processeurs neuromorphiques, les puces wafer-scale, les architectures spatiales, voici venue l’heure des photons.
Chaque approche présente ses forces et ses faiblesses, mais l’ampleur du problème énergétique est telle que plusieurs voies parallèles pourraient coexister pendant plusieurs années :
- Les GPU traditionnels optimisés (Nvidia, AMD)
- Les ASIC spécialisés (Google TPU, Groq LPU, Tenstorrent)
- Les architectures mémoire proche (Cerebras, SambaNova)
- Les solutions photoniques pures ou hybrides (Lightmatter, Ayar Labs, Neurophos)
- Les approches quantiques (encore très lointaines pour l’IA)
Neurophos se positionne clairement dans la catégorie des rupturistes, ceux qui parient sur un changement fondamental de paradigme plutôt que sur l’amélioration incrémentale.
Et si c’était vraiment la bonne voie ?
Ce qui rend l’approche de Neurophos particulièrement intéressante, c’est qu’elle ne cherche pas à remplacer complètement l’électronique, mais à réserver le domaine optique aux opérations les plus intensives en calcul matriciel, celles qui représentent la majorité des FLOPs dans l’inférence des grands modèles actuels.
En réduisant drastiquement les conversions O/E/O, en miniaturisant les modulateurs et en utilisant des procédés de fabrication compatibles avec les lignes CMOS existantes, la startup espère contourner les écueils qui ont freiné les précédentes tentatives photoniques.
Si les performances mesurées en 2027-2028 confirment les projections, et si l’écosystème logiciel suit, nous pourrions assister à l’un des changements de paradigme les plus importants de l’histoire récente du hardware informatique.
Conclusion : l’aube d’une nouvelle ère ?
Neurophos ne prétend pas avoir inventé la roue, mais plutôt avoir trouvé le moyen de la faire tourner avec la lumière plutôt qu’avec l’électricité. Entre l’urgence climatique, la course effrénée à l’IA et la saturation progressive des nœuds de gravure classiques, le timing semble presque parfait.
Reste maintenant à transformer ces promesses en réalité industrielle. Les 110 millions levés constituent une étape majeure, mais le chemin jusqu’à la production de masse en 2028 sera semé d’embûches techniques, économiques et concurrentielles.
Une chose est sûre : si l’histoire de l’informatique nous a appris quelque chose, c’est que les plus grandes révolutions commencent souvent par des concepts qui paraissent fous au premier abord… comme rendre des objets invisibles avec des matériaux artificiels.
À suivre de très près.