Epoch Research tvrdí: GPT-5 spotřeboval méně předtrénovacích výpočtů než GPT-4.5, ale GPT-6 bude pravděpodobně opět trénován na více je to proto, že "uvažování" o zlepšení po tréninku se zpomaluje, a s většími dostupnými clustery GPU má škálování předběžného trénování opět smysl. openAI max-compute model + RL bude šílené