Столкнулись с лимитом памяти H100 в 80 ГБ?
Многоузловые кластеры H200 теперь доступны по запросу.
141 ГБ HBM3 на GPU, $2.20/час, разверните один узел или кластер за ~60 секунд.
Согласно @ArtificialAnlys, Hyperbolic выделяется сильной производительностью на различных длинах контекста. Наша модель gpt-oss-120b от @OpenAI обеспечивает 402 токена/сек и сохраняет стабильность на различных длинах контекста, что ставит нас наравне с самыми быстрыми провайдерами вывода.
🚀 Qwen3-Next на базе NVIDIA: теперь в Hyperbolic
Превосходные бенчмарки Hyperbolic для Qwen3-Next-80B-A3B работают на наших кластерах NVIDIA @nvidia, предлагая по запросу GPU H100 и H200, оптимизированные для AI-работ. GPU H100 и H200 от NVIDIA обеспечивают нашу инфраструктуру своей архитектурой Hopper, предоставляя вычислительные мощности, необходимые для огромных моделей MoE Qwen3-Next. В то время как H100 предлагают 80 ГБ памяти HBM3, H200 обновляются до 141 ГБ памяти HBM3e с производительностью до 45% лучше.