O nosso modelo @OpenAI gpt-oss-120b não só alcança 402 tokens por segundo, como também mantém esse rendimento de 1k a 100k tokens sem colapsar. Para equipas que estão a escalar aplicações do mundo real, esta consistência significa custos previsíveis, fiabilidade de nível de produção e a confiança para implementar em grande escala.