Een paper die het waard is om aandachtig te worden bestudeerd. Het presenteert Lossless Context Management (LCM), dat de manier waarop agenten lange contexten hanteren opnieuw definieert. Het presteert beter dan Claude Code op taken met lange contexten. Recursieve Taalmodellen geven het model volledige autonomie om zijn eigen geheugen scripts te schrijven. LCM neemt die macht terug en geeft het aan een deterministische motor die oude berichten comprimeert in een hiërarchische DAG terwijl het verliesloze aanwijzingen naar elk origineel behoudt. Minder expressief in theorie, maar veel betrouwbaarder in de praktijk. De resultaten: Hun agent (Volt, op Opus 4.6) verslaat Claude Code op *elke* contextlengte van 32K tot 1M tokens op de OOLONG benchmark. +29,2 punten gemiddelde verbetering ten opzichte van Claude Code's +24,7. De kloof wordt groter bij langere contexten. De implicatie is er een die we blijven herleren uit de geschiedenis van software-engineering: hoe je beheert wat het model ziet, kan belangrijker zijn dan het model tools geven om het zelf te beheren. Elk agentenframework dat wordt geleverd met "laat het model het zelf uitzoeken" geheugenstrategieën, kan volledig op de verkeerde abstractie zijn gebouwd. Paper: Leer effectieve AI-agenten te bouwen in onze academie: