Apakah Stanford baru saja membunuh penyempurnaan LLM? Makalah baru dari Stanford ini, yang disebut Agentic Context Engineering (ACE), membuktikan sesuatu yang liar: Anda dapat membuat model lebih pintar tanpa mengubah satu bobot pun. Begini cara kerjanya: Alih-alih melatih ulang model, ACE mengembangkan konteks itu sendiri. Model menulis promptnya sendiri, merefleksikan apa yang berhasil dan apa yang tidak, lalu menulis ulang. Berulang kali. Ini menjadi sistem perbaikan diri. Anggap saja seperti model yang menyimpan buku catatan hidup di mana setiap kegagalan menjadi pelajaran dan setiap kesuksesan menjadi aturan. Hasilnya mengesankan: - 10,6% lebih baik daripada agen bertenaga GPT-4 di AppWorld - Peningkatan 8,6% pada tugas penalaran keuangan - Biaya dan latensi 86,9% lebih rendah Tidak diperlukan data berlabel. Hanya loop umpan balik. Inilah bagian yang berlawanan dengan intuisi: Semua orang mengejar petunjuk singkat dan bersih. ACE melakukan sebaliknya. Ini membangun buku pedoman yang padat dan berkembang yang bertambah dari waktu ke waktu. Ternyata LLM tidak membutuhkan kesederhanaan. Mereka membutuhkan kepadatan konteks. Pertanyaannya di sini adalah bagaimana mengelola semua informasi dan pengalaman ini. Di sinilah membangun lapisan memori real-time untuk Agen (misalnya @zep_ai ) dapat menjadi solusi yang bagus dan area penelitian aktif ke depannya. Apa pendapat Anda? Saya telah menautkan makalah di tweet berikutnya! ____ Jika Anda merasa berwawasan luas, bagikan kembali dengan jaringan Anda. Temukan saya → @akshay_pachaar ✔️ Untuk wawasan dan tutorial lebih lanjut tentang LLM, Agen AI, dan Pembelajaran Mesin!
Tautan ke makalah:
53,07K