Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Убил ли Стэнфорд тонкую настройку LLM?
Эта новая статья из Стэнфорда, названная Агентным Контекстным Инжинирингом (ACE), доказывает нечто диковинное: вы можете сделать модели умнее, не изменяя ни одного веса.
Вот как это работает:
Вместо повторной тренировки модели, ACE развивает сам контекст. Модель пишет свой собственный запрос, размышляет о том, что сработало, а что нет, а затем переписывает его. Снова и снова. Это становится самоулучшающейся системой.
Представьте, что модель ведет живую тетрадь, где каждая неудача становится уроком, а каждый успех — правилом.
Результаты впечатляют:
- На 10,6% лучше, чем агенты на базе GPT-4 в AppWorld
- Улучшение на 8,6% в задачах финансового анализа
- На 86,9% ниже стоимость и задержка
Не требуется размеченных данных. Только обратные связи.
Вот парадоксальная часть:
Все стремятся к коротким, чистым запросам. ACE делает наоборот. Он создает плотные, развивающиеся пособия, которые накапливаются со временем.
Оказывается, LLM не нуждаются в простоте. Им нужна плотность контекста.
Вопрос в том, как управлять всей этой информацией и опытом.
Здесь создание слоя памяти в реальном времени для Агентов (например, @zep_ai) может стать отличным решением и активной областью исследований в будущем.
Что вы думаете?
Я прикрепил статью в следующем твите!
____
Если вы нашли это полезным, поделитесь с вашей сетью.
Найдите меня → @akshay_pachaar ✔️
Для получения дополнительных идей и учебных материалов по LLM, AI Agents и Машинному Обучению!

Ссылка на статью:
63,12K
Топ
Рейтинг
Избранное