Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Невже Стенфорд просто вбив тонке налаштування LLM?
Ця нова стаття зі Стенфорду під назвою Agentic Context Engineering (ACE) доводить щось дике: ви можете зробити моделі розумнішими, не змінюючи жодної ваги.
Ось як це працює:
Замість того, щоб переучувати модель, ACE розвиває сам контекст. Модель пише власну підказку, розмірковує про те, що спрацювало, а що ні, а потім переписує її. Знову і знову. Вона стає системою, що самовдосконалюється.
Думайте про це як про модель, яка веде живий зошит, де кожна невдача стає уроком, а кожен успіх – правилом.
Результати вражають:
- На 10,6% краще, ніж у агентів на базі GPT-4 на AppWorld
- Покращення на 8,6% у завданнях з фінансового обґрунтування
- На 86,9% нижча вартість і затримка
Марковані дані не потрібні. Просто петлі зворотного зв'язку.
Ось парадоксальна частина:
Всі женуться за короткими, чистими підказками. ACE робить все навпаки. Він створює щільні сценарії, що розвиваються, які з часом накопичуються.
Виявляється, LLM не потребують простоти. Їм потрібна щільність контексту.
Питання тут у тому, як розпоряджатися всією цією інформацією та досвідом.
Саме тут побудова шару пам'яті в реальному часі для агентів (наприклад, @zep_ai ) може стати відмінним рішенням і активною областю досліджень в майбутньому.
Які ваші думки?
Я посилаюся на газету в наступному твіті!
____
Якщо ви вважаєте її корисною, надішліть запит у свою мережу.
Знайди мене → @akshay_pachaar ✔️
Щоб отримати більше інформації та навчальних посібників про LLM, агентів штучного інтелекту та машинне навчання!

Посилання на статтю:
53,03K
Найкращі
Рейтинг
Вибране