Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Förenkla LLM:er, AI-agenter, RAG och maskininlärning för dig! • Medgrundare @dailydoseofds_• BITS Pilani • 3 patent • f.d. AI-ingenjör @ LightningAI
Dödade Stanford bara LLM-finjustering?
Den här nya rapporten från Stanford, som heter Agentic Context Engineering (ACE), bevisar något galet: du kan göra modeller smartare utan att ändra en enda vikt.
Så här fungerar det:
I stället för att träna om modellen utvecklar ACE själva kontexten. Modellen skriver sin egen prompt, reflekterar över vad som fungerade och vad som inte fungerade och skriver sedan om den. Om och om igen. Det blir ett självförbättrande system.
Tänk på det som modellen som håller en levande anteckningsbok där varje misslyckande blir en lektion och varje framgång blir en regel.
Resultaten är imponerande:
- 10,6 % bättre än GPT-4-drivna agenter på AppWorld
- 8,6 % förbättring av uppgifter i det ekonomiska resonemanget
- 86.9% lägre kostnad och latens
Inga märkta data krävs. Bara återkopplingsslingor.
Här är den kontraintuitiva delen:
Alla jagar korta, rena uppmaningar. ACE gör det motsatta. Det bygger täta, utvecklande spelböcker som sammansätts med tiden.
Det visar sig att LLM:er inte behöver enkelhet. De behöver kontexttäthet.
Frågan här är hur man ska hantera all denna information och erfarenhet.
Det är här som det kan vara en bra lösning och ett aktivt forskningsområde framöver att bygga ett realtidsminneslager för agenter (t.ex. @zep_ai )
Vad är dina tankar?
Jag har länkat tidningen i nästa tweet!
____
Om du tyckte att det var insiktsfullt, dela det igen med ditt nätverk.
Hitta mig → @akshay_pachaar ✔️
För fler insikter och handledningar om LLM:er, AI-agenter och maskininlärning!

8,8K
Agenter utan minne är inte agenter alls.
Vi antar ofta att LLM:er kommer ihåg saker - de känns trots allt mänskliga. Men sanningen är:
LLM:er är tillståndslösa.
Om du vill att din agent ska komma ihåg något (tidigare chattar, preferenser, beteenden) måste du bygga in minne i det.
Men hur gör man det?
Låt oss förstå detta steg för steg!
Agentminnet finns i två omfång:
1️⃣ Kortfristig
Hanterar aktuella konversationer. Upprätthåller meddelandehistorik, kontext och tillstånd under en session.
2️⃣ Långfristig
Sträcker sig över flera sessioner. Kommer ihåg inställningar, tidigare åtgärder och användarspecifika fakta.
Men det finns mer.
Precis som hos människor kan långtidsminnet hos agenter vara:
1) Semantisk → Lagrar fakta och kunskap
2) Episodiska → Minns tidigare erfarenheter eller slutförande av uppgifter
3) Procedurmässiga → Lär sig hur man gör saker (tänk: internaliserade uppmaningar/instruktioner)
Det här minnet är inte bara trevligt att ha; Det gör det möjligt för handläggare att lära sig av tidigare interaktioner utan att träna om modellen.
Detta är särskilt kraftfullt för kontinuerligt lärande: att låta agenter anpassa sig till nya uppgifter utan att röra LLM-vikter.
Om du löser det här problemet rekommenderar jag att du kollar in @zep_ai: De tillhandahåller ett grafbaserat, människoliknande minnessystem i realtid för dina agenter.
Det är 100 % öppen källkod (Apache 2.0).
Jag har länkat lagringsplatsen i nästa tweet.

21,8K
Topp
Rankning
Favoriter