Importante articolo di ricerca: "Meno è di più: Ragionamento ricorsivo con reti piccole" Secondo la ricerca, un modello con soli 7 milioni di parametri supera LLM più grandi (inclusi DeepSeek R1, Gemini 2.5 Pro) su ARC-AGI-1/2 • ARC-AGI-1: 44,6% • ARC-AGI-2: 7,8% la svolta non è nelle dimensioni, ma nell'efficienza. i piccoli modelli ricorsivi suggeriscono che il prossimo salto derivi dall'ottimizzazione, non dalla scala.