Epoch Research afirma: GPT-5 utilizó menos computación de pre-entrenamiento que GPT-4.5, pero es probable que GPT-6 se entrene con más nuevamente. Eso se debe a que las mejoras de "razonamiento" después del entrenamiento están desacelerándose, y con clústeres de GPU más grandes disponibles, escalar el pre-entrenamiento tiene sentido nuevamente. El modelo de máxima computación de openAI + RL será una locura.