Stanford acabou de matar o ajuste fino do LLM? Este novo artigo de Stanford, chamado Agentic Context Engineering (ACE), prova algo selvagem: você pode tornar os modelos mais inteligentes sem alterar um único peso. Veja como funciona: Em vez de treinar novamente o modelo, o ACE evolui o próprio contexto. O modelo escreve seu próprio prompt, reflete sobre o que funcionou e o que não funcionou e, em seguida, o reescreve. De novo e de novo. Torna-se um sistema de auto-aperfeiçoamento. Pense nisso como o modelo que mantém um caderno vivo onde cada fracasso se torna uma lição e cada sucesso se torna uma regra. Os resultados são impressionantes: - 10,6% melhor do que os agentes com tecnologia GPT-4 no AppWorld - 8,6% de melhoria nas tarefas de raciocínio financeiro - Custo e latência 86,9% menores Não são necessários dados rotulados. Apenas loops de feedback. Aqui está a parte contra-intuitiva: Todo mundo está perseguindo prompts curtos e limpos. ACE faz o oposto. Ele cria manuais densos e em evolução que se acumulam com o tempo. Acontece que os LLMs não precisam de simplicidade. Eles precisam de densidade de contexto. A questão aqui é como gerenciar todas essas informações e experiências. É aqui que a construção de uma camada de memória em tempo real para Agentes (por exemplo, @zep_ai ) pode ser uma ótima solução e uma área ativa de pesquisa daqui para frente. Quais são seus pensamentos? Eu vinculei o artigo no próximo tweet! ____ Se você achou perspicaz, compartilhe novamente com sua rede. Encontre-me → @akshay_pachaar ✔️ Para obter mais insights e tutoriais sobre LLMs, agentes de IA e aprendizado de máquina!
Link para o artigo:
38,28K