Nuestro modelo @OpenAI gpt-oss-120b no solo alcanza 402 tokens por segundo, sino que también mantiene ese rendimiento de 1k a 100k tokens sin colapso. Para los equipos que escalan aplicaciones del mundo real, esta consistencia significa costos predecibles, confiabilidad de nivel de producción y la confianza para implementar a escala.