Lucrare de cercetare importantă: "Mai puțin înseamnă mai mult: raționament recursiv cu rețele mici" Conform cercetării, un model mic cu parametri 7M bate LLM-urile mai mari (inclusiv DeepSeek R1, Gemini 2.5 Pro) pe ARC-AGI-1/2 • ARC-AGI-1: 44,6% • ARC-AGI-2: 7,8% Descoperirea nu este dimensiunea, ci eficiența. Modelele mici recursive sugerează că următorul salt vine din optimizare, nu de la scară