Epoch Research mengklaim: GPT-5 menggunakan komputasi pra-pelatihan lebih sedikit daripada GPT-4.5, tetapi GPT-6 kemungkinan akan dilatih lebih banyak lagi itu karena "penalaran" perbaikan pasca-pelatihan melambat, dan dengan klaster GPU yang lebih besar yang tersedia, penskalaan pra-pelatihan masuk akal lagi. openAI max-compute model + RL akan gila