Epoch Research 聲稱: GPT-5 使用的預訓練計算量少於 GPT-4.5,但 GPT-6 可能會再次使用更多的計算量。 這是因為「推理」的後訓練改進正在放緩, 而且隨著可用的 GPU 集群變大,擴大預訓練再次變得合理。 openAI 的最大計算模型 + 強化學習將會非常瘋狂。