La cantidad de computación que tienen los laboratorios está creciendo de manera dramática. Por ejemplo, @OpenAI tiene 14 veces más computación que cuando lanzó GPT-4. @xAI está creciendo la computación de manera extremadamente rápida, y duplicaron la computación disponible entre los lanzamientos de Grok 3 y Grok 4. @AnthropicAI tiene la menor computación, pero han sido muy eficientes al convertir la computación en modelos altamente exitosos. Por ejemplo, Claude 3.5 se lanzó con aproximadamente una quinta parte de la computación que Anthropic tiene ahora. Nota: los datos excluyen a @GoogleDeepMind, que probablemente tiene la mayor computación, aunque no está claro cuán concentrada está para el entrenamiento de LLM. Fuente: @SemiAnalysis_