Stanford ha appena ucciso il fine-tuning degli LLM? Questo nuovo documento di Stanford, chiamato Agentic Context Engineering (ACE), dimostra qualcosa di incredibile: puoi rendere i modelli più intelligenti senza cambiare un singolo peso. Ecco come funziona: Invece di riaddestrare il modello, ACE evolve il contesto stesso. Il modello scrive il proprio prompt, riflette su cosa ha funzionato e cosa non ha funzionato, poi lo riscrive. Ripetutamente. Diventa un sistema di auto-miglioramento. Pensalo come se il modello tenesse un quaderno vivo in cui ogni fallimento diventa una lezione e ogni successo diventa una regola. I risultati sono impressionanti: - 10,6% meglio degli agenti alimentati da GPT-4 su AppWorld - 8,6% di miglioramento nei compiti di ragionamento finanziario - 86,9% di costo e latenza inferiori Nessun dato etichettato richiesto. Solo cicli di feedback. Ecco la parte controintuitiva: Tutti stanno cercando prompt brevi e puliti. ACE fa l'opposto. Costruisce playbook densi ed evolutivi che si accumulano nel tempo. Si scopre che gli LLM non hanno bisogno di semplicità. Hanno bisogno di densità di contesto. La domanda qui è come gestire tutte queste informazioni e esperienze. È qui che costruire uno strato di memoria in tempo reale per gli Agenti (es. @zep_ai) può essere una grande soluzione e un'area attiva di ricerca in futuro. Quali sono i tuoi pensieri? Ho linkato il documento nel tweet successivo! ____ Se lo hai trovato interessante, condividilo con la tua rete. Trova me → @akshay_pachaar ✔️ Per ulteriori approfondimenti e tutorial su LLM, AI Agents e Machine Learning!
Link al documento:
53,03K