Jag gillar dessa insikter från en chef på Schneider Electric (nyckelspelare i datacenterutbyggnad). " AI-hårdvara skriver om energiekvationen för datacenter. Ett rack i NVIDIA:s Blackwell 2 drar nu ungefär 180–200 kW, vilket driver behovet av hela anläggningen från ~300 MW till 1,2-1,5 GW – ett hopp på 4 till 5 × i en enda arkitekturcykel. Effekttopparna ("300 MW → 1,5 GW → 500 MW") stressar 30 till 50 år gamla transformatorer och distributionstillgångar som aldrig konstruerats för sådan volatilitet, vilket tvingar elbolag och operatörer att tänka om när det gäller nätförstärkning och strategier för generering på plats. Det är latens, inte land, som avgör geografin – därav uppkomsten av "mikrodatacenter i tunnelbanan". Hyperscalers föredrar fortfarande "mega"-platser i öknen, men arbetsbelastningar i realtid (handel, höghastighetstillverkning, QC, robotmontering) kan inte tolerera tur och retur till avlägsna superkluster. Resultat: datacenters fotavtryck pressas tillbaka till täta regioner (t.ex. Pennsylvania AI Hub) och till och med till fabriksgolv, där kant- eller "mikromoln"-rum rymmer blandade rack med äldre PLC:er, Xeon/EPYC-processorer och GPU:er i toppklass för att hålla slutsatserna inom 20–50 ms-kuvertet. En nukleär "mini-renässans" finansieras av molnjättarna. Microsoft har redan tecknat ett 20-årigt avtal om att starta om Three Mile Island Unit 1; SMR-leverantörer (GE, Westinghouse, Rolls-Royce) positionerar små reaktorer som drop-in-baslast för storskaliga campus. Operatörerna medger att den tekniska och regulatoriska vägen är ny och kapitalintensiv, men ser kärnkraft som det enda koldioxidneutrala 24 × 7-utbudet som kan skalas upp i takt med efterfrågan på AI. Kylning och extrautrustning på plats är nästa hotspot för investeringar. Traditionell enfaskylning är redan otillräcklig; flerfasiga vätskesystem blir obligatoriska för termiska belastningar i Blackwell-klassen. Operatörerna utvärderar särskilda diesel- eller gasgeneratorer – och i slutändan SMR:er – för att köra "nyttobelastningar" (kylning, ventilation, säkerhet) lokalt, vilket skulle minska nätförbrukningen med ≈40 % och minska flaskhalsarna i sammanlänkningen. Dessa nischer skapar en ny capex-cykel för OEM-tillverkare inom värmehantering och leverantörer av distribuerad generation. Ingen paus i sikte – chipplaner och programvaruvolatilitet håller capex på gaspedalen. Eftersom varje GPU-generation ger högre densitet kräver datacenter kontinuerliga elektriska och mekaniska eftermonteringar. hyperscalers blandar webbplatser som ägs av konstant belastning med burst-kapacitet från Tier-1 colos (Equinix, NTT, Compass, etc.). Efterfrågan på programvara är ännu mindre förutsägbar: nya kinesiska LLM:er (DeepSeek, Alibaba, Tencent) och fortfarande okända akademiska genombrott kan ytterligare öka beräkningsintensiteten, vilket gör alla två- till femårsprognoser mycket osäkra. Investerare bör följa fyra linser samtidigt – akademiska, start-up, hyperscaler och kapitalallokeringstrender – för att undvika blinda fläckar. "