Vår @OpenAI gpt-oss-120b-modell oppnår ikke bare 402 tokens per sekund, men den opprettholder også den gjennomstrømningen fra 1k til 100k tokens uten kollaps. For team som skalerer programmer i den virkelige verden, betyr denne konsistensen forutsigbare kostnader, pålitelighet i produksjonsklassen og tryggheten til å distribuere i stor skala.