@OpenAI gpt-oss-120b-mallimme ei ainoastaan saavuta 402 tokenia sekunnissa, vaan se myös ylläpitää tätä suorituskykyä 1 000 000 tokenista 100 000 tokeniin ilman romahtamista. Todellisia sovelluksia skaalaaville tiimeille tämä johdonmukaisuus tarkoittaa ennustettavia kustannuksia, tuotantotason luotettavuutta ja varmuutta ottaa käyttöön suuressa mittakaavassa.