La cantidad de computación que tienen los laboratorios está creciendo drásticamente. Por ejemplo, @OpenAI tiene 14 veces más cómputo que cuando lanzó GPT-4. @xAI está creciendo la computación extremadamente rápido, y duplicaron la computación disponible entre los lanzamientos de Grok 3 y Grok 4. @AnthropicAI tiene la menor cantidad de cómputo, pero han sido muy eficientes en la conversión de cómputo en modelos altamente exitosos. Por ejemplo, Claude 3.5 se lanzó con aproximadamente una quinta parte de la computación que tiene Anthropic ahora. Nota: los datos excluyen @GoogleDeepMind que probablemente tenga la mayor cantidad de cómputo, aunque no está claro qué tan concentrado está para el entrenamiento de LLM. Fuente: @SemiAnalysis_