Ons @OpenAI gpt-oss-120b model behaalt niet alleen 402 tokens per seconde, maar houdt die doorvoer ook vol van 1k tot 100k tokens zonder in te storten. Voor teams die echte toepassingen schalen, betekent deze consistentie voorspelbare kosten, productieklare betrouwbaarheid en het vertrouwen om op grote schaal uit te rollen.