Tiny Recursive Model (TRM) är en enkel och effektiv metod som bygger på idén: gör mer med mindre. Den använder bara 1 litet 2-lagers nätverk som rekursivt förbättrar sina egna svar. Med endast 7 miljoner parametrar sätter TRM nya rekord och slår LLM:er som är 10 000 × större: - Sudoku-Extreme: 55 % → 87 % - Labyrint-svår: 75 % → 85 % - ARC-AGI-1: 40 % → 45 % - ARC-AGI-2: 5 % → 8 % Så här fungerar det: