Невже Стенфорд просто вбив тонке налаштування LLM? Ця нова стаття зі Стенфорду під назвою Agentic Context Engineering (ACE) доводить щось дике: ви можете зробити моделі розумнішими, не змінюючи жодної ваги. Ось як це працює: Замість того, щоб переучувати модель, ACE розвиває сам контекст. Модель пише власну підказку, розмірковує про те, що спрацювало, а що ні, а потім переписує її. Знову і знову. Вона стає системою, що самовдосконалюється. Думайте про це як про модель, яка веде живий зошит, де кожна невдача стає уроком, а кожен успіх – правилом. Результати вражають: - На 10,6% краще, ніж у агентів на базі GPT-4 на AppWorld - Покращення на 8,6% у завданнях з фінансового обґрунтування - На 86,9% нижча вартість і затримка Марковані дані не потрібні. Просто петлі зворотного зв'язку. Ось парадоксальна частина: Всі женуться за короткими, чистими підказками. ACE робить все навпаки. Він створює щільні сценарії, що розвиваються, які з часом накопичуються. Виявляється, LLM не потребують простоти. Їм потрібна щільність контексту. Питання тут у тому, як розпоряджатися всією цією інформацією та досвідом. Саме тут побудова шару пам'яті в реальному часі для агентів (наприклад, @zep_ai ) може стати відмінним рішенням і активною областю досліджень в майбутньому. Які ваші думки? Я посилаюся на газету в наступному твіті! ____ Якщо ви вважаєте її корисною, надішліть запит у свою мережу. Знайди мене → @akshay_pachaar ✔️ Щоб отримати більше інформації та навчальних посібників про LLM, агентів штучного інтелекту та машинне навчання!
Посилання на статтю:
53,03K