Nosso modelo @OpenAI gpt-oss-120b não apenas atinge 402 tokens por segundo, mas também sustenta essa taxa de transferência de 1k a 100k tokens sem colapso. Para equipes que dimensionam aplicativos do mundo real, essa consistência significa custos previsíveis, confiabilidade de nível de produção e confiança para implantar em escala.