Wichtige Forschungsarbeit: "Weniger ist mehr: Rekursive Überlegungen mit kleinen Netzwerken" Laut der Forschung, ein kleines Modell mit 7 Millionen Parametern übertrifft größere LLMs (einschließlich DeepSeek R1, Gemini 2.5 Pro) bei ARC-AGI-1/2 • ARC-AGI-1: 44,6% • ARC-AGI-2: 7,8% durchbruch ist nicht die Größe, sondern die Effizienz. kleine rekursive Modelle deuten darauf hin, dass der nächste Sprung aus der Optimierung und nicht aus der Skalierung kommt.