Vår @OpenAI gpt-oss-120b-modell uppnår inte bara 402 tokens per sekund, utan den upprätthåller också den genomströmningen från 1k till 100k tokens utan kollaps. För team som skalar verkliga program innebär den här konsekvensen förutsägbara kostnader, tillförlitlighet i produktionsklass och förtroendet att distribuera i stor skala.