Tiny Recursive Model (TRM) er en enkel, effektiv tilnærming bygget på ideen: gjør mer med mindre. Den bruker bare 1 lite 2-lags nettverk som rekursivt forbedrer sine egne svar. Med bare 7 millioner parametere setter TRM nye rekorder, og slår LLM-er 10 000× større: - Sudoku-Extreme: 55 % → 87 % - Labyrint-hard: 75 % → 85 % - ARC-AGI-1: 40 % → 45 % - ARC-AGI-2: 5 % → 8 % Slik fungerer det: