Убил ли Стэнфорд тонкую настройку LLM? Эта новая статья из Стэнфорда, названная Агентным Контекстным Инжинирингом (ACE), доказывает нечто диковинное: вы можете сделать модели умнее, не изменяя ни одного веса. Вот как это работает: Вместо повторной тренировки модели, ACE развивает сам контекст. Модель пишет свой собственный запрос, размышляет о том, что сработало, а что нет, а затем переписывает его. Снова и снова. Это становится самоулучшающейся системой. Представьте, что модель ведет живую тетрадь, где каждая неудача становится уроком, а каждый успех — правилом. Результаты впечатляют: - На 10,6% лучше, чем агенты на базе GPT-4 в AppWorld - Улучшение на 8,6% в задачах финансового анализа - На 86,9% ниже стоимость и задержка Не требуется размеченных данных. Только обратные связи. Вот парадоксальная часть: Все стремятся к коротким, чистым запросам. ACE делает наоборот. Он создает плотные, развивающиеся пособия, которые накапливаются со временем. Оказывается, LLM не нуждаются в простоте. Им нужна плотность контекста. Вопрос в том, как управлять всей этой информацией и опытом. Здесь создание слоя памяти в реальном времени для Агентов (например, @zep_ai) может стать отличным решением и активной областью исследований в будущем. Что вы думаете? Я прикрепил статью в следующем твите! ____ Если вы нашли это полезным, поделитесь с вашей сетью. Найдите меня → @akshay_pachaar ✔️ Для получения дополнительных идей и учебных материалов по LLM, AI Agents и Машинному Обучению!
Ссылка на статью:
63,12K