Har du överskridit H100:s minnesgräns på 80 GB?
H200-kluster med flera noder är nu tillgängliga på begäran.
141 GB HBM3 per GPU, $2,20/timme, etablera en enskild nod eller ett kluster på ~60 sekunder.
Enligt @ArtificialAnlys sticker Hyperbolic ut med stark prestanda över kontextlängder. Vår gpt-oss-120b-modell från @OpenAI levererar 402 tokens/sek och förblir konsekvent över kontextlängder, vilket placerar oss precis bredvid de snabbaste inferensleverantörerna.
🚀 NVIDIA-drivna Qwen3-Next: Nu live på Hyperbolic
Hyperbolics överlägsna prestandatester för Qwen3-Next-80B-A3B drivs av våra NVIDIA @nvidia-kluster, med H100 och H200 GPU:er på begäran optimerade för AI-arbetsbelastningar. NVIDIA:s H100- och H200 GPU:er driver vår infrastruktur med sin Hopper-arkitektur, vilket ger den beräkning som krävs för Qwen3-Nexts massiva MoE-modeller. Medan H100 erbjuder 80 GB HBM3-minne, uppgraderar H200 till 141 GB HBM3e-minne med upp till 45 % bättre prestanda.