斯坦福刚刚杀死了LLM微调吗? 这篇来自斯坦福的新论文,名为代理上下文工程(ACE),证明了一件疯狂的事情:你可以在不改变任何权重的情况下让模型变得更聪明。 它是如何工作的: ACE不是重新训练模型,而是进化上下文本身。模型自己编写提示,反思什么有效,什么无效,然后重写它。一次又一次。它变成了一个自我改进的系统。 可以把它想象成模型保持一个活的笔记本,每一次失败都变成一课,每一次成功都变成一条规则。 结果令人印象深刻: - 在AppWorld上比GPT-4驱动的代理提高了10.6% - 在金融推理任务上提高了8.6% - 成本和延迟降低了86.9% 不需要标记数据。只需反馈循环。 这里的反直觉部分是: 每个人都在追求简短、干净的提示。ACE则相反。它构建了密集、不断发展的手册,随着时间的推移而复合。 事实证明,LLM不需要简单性。它们需要上下文密度。 这里的问题是如何管理所有这些信息和经验。 这就是为代理(例如@zep_ai)构建实时记忆层可以成为一个很好的解决方案和未来积极研究领域的地方。 你有什么想法? 我在下一条推文中链接了这篇论文! ____ 如果你觉得这很有见地,请与你的网络分享。 找到我 → @akshay_pachaar ✔️ 获取更多关于LLM、AI代理和机器学习的见解和教程!
论文链接:
53.03K