Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dödade Stanford bara LLM-finjustering?
Den här nya rapporten från Stanford, som heter Agentic Context Engineering (ACE), bevisar något galet: du kan göra modeller smartare utan att ändra en enda vikt.
Så här fungerar det:
I stället för att träna om modellen utvecklar ACE själva kontexten. Modellen skriver sin egen prompt, reflekterar över vad som fungerade och vad som inte fungerade och skriver sedan om den. Om och om igen. Det blir ett självförbättrande system.
Tänk på det som modellen som håller en levande anteckningsbok där varje misslyckande blir en lektion och varje framgång blir en regel.
Resultaten är imponerande:
- 10,6 % bättre än GPT-4-drivna agenter på AppWorld
- 8,6 % förbättring av uppgifter i det ekonomiska resonemanget
- 86.9% lägre kostnad och latens
Inga märkta data krävs. Bara återkopplingsslingor.
Här är den kontraintuitiva delen:
Alla jagar korta, rena uppmaningar. ACE gör det motsatta. Det bygger täta, utvecklande spelböcker som sammansätts med tiden.
Det visar sig att LLM:er inte behöver enkelhet. De behöver kontexttäthet.
Frågan här är hur man ska hantera all denna information och erfarenhet.
Det är här som det kan vara en bra lösning och ett aktivt forskningsområde framöver att bygga ett realtidsminneslager för agenter (t.ex. @zep_ai )
Vad är dina tankar?
Jag har länkat tidningen i nästa tweet!
____
Om du tyckte att det var insiktsfullt, dela det igen med ditt nätverk.
Hitta mig → @akshay_pachaar ✔️
För fler insikter och handledningar om LLM:er, AI-agenter och maskininlärning!

Länk till artikeln:
38,27K
Topp
Rankning
Favoriter