重要的研究論文: "少即是多:使用微型網絡的遞歸推理" 根據研究, 一個只有7M參數的微型模型在ARC-AGI-1/2上超越了更大的LLM(包括DeepSeek R1、Gemini 2.5 Pro) • ARC-AGI-1: 44.6% • ARC-AGI-2: 7.8% 這一突破不是來自於規模,而是效率。 小型遞歸模型暗示下一次飛躍來自於優化,而非擴展。