A Epoch Research afirma: O GPT-5 usou menos computação pré-treinamento do que o GPT-4.5, mas o GPT-6 provavelmente será treinado em mais novamente isso porque as melhorias pós-treinamento de "raciocínio" estão diminuindo, e com clusters de GPU maiores disponíveis, o dimensionamento do pré-treinamento faz sentido novamente. modelo de computação máxima openAI + RL será insano