Nasz model @OpenAI gpt-oss-120b nie tylko osiąga 402 tokeny na sekundę, ale także utrzymuje tę przepustowość od 1k do 100k tokenów bez załamania. Dla zespołów rozwijających aplikacje w rzeczywistym świecie, ta spójność oznacza przewidywalne koszty, niezawodność na poziomie produkcyjnym i pewność wdrożenia na dużą skalę.