Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Stanford ha appena ucciso il fine-tuning degli LLM?
Questo nuovo documento di Stanford, chiamato Agentic Context Engineering (ACE), dimostra qualcosa di incredibile: puoi rendere i modelli più intelligenti senza cambiare un singolo peso.
Ecco come funziona:
Invece di riaddestrare il modello, ACE evolve il contesto stesso. Il modello scrive il proprio prompt, riflette su cosa ha funzionato e cosa non ha funzionato, poi lo riscrive. Ripetutamente. Diventa un sistema di auto-miglioramento.
Pensalo come se il modello tenesse un quaderno vivo in cui ogni fallimento diventa una lezione e ogni successo diventa una regola.
I risultati sono impressionanti:
- 10,6% meglio degli agenti alimentati da GPT-4 su AppWorld
- 8,6% di miglioramento nei compiti di ragionamento finanziario
- 86,9% di costo e latenza inferiori
Nessun dato etichettato richiesto. Solo cicli di feedback.
Ecco la parte controintuitiva:
Tutti stanno cercando prompt brevi e puliti. ACE fa l'opposto. Costruisce playbook densi ed evolutivi che si accumulano nel tempo.
Si scopre che gli LLM non hanno bisogno di semplicità. Hanno bisogno di densità di contesto.
La domanda qui è come gestire tutte queste informazioni e esperienze.
È qui che costruire uno strato di memoria in tempo reale per gli Agenti (es. @zep_ai) può essere una grande soluzione e un'area attiva di ricerca in futuro.
Quali sono i tuoi pensieri?
Ho linkato il documento nel tweet successivo!
____
Se lo hai trovato interessante, condividilo con la tua rete.
Trova me → @akshay_pachaar ✔️
Per ulteriori approfondimenti e tutorial su LLM, AI Agents e Machine Learning!

Link al documento:
53,03K
Principali
Ranking
Preferiti