O Stanford acabou de matar o ajuste fino de LLM? Este novo artigo de Stanford, chamado Engenharia de Contexto Agente (ACE), prova algo incrível: você pode tornar os modelos mais inteligentes sem mudar um único peso. Veja como funciona: Em vez de re-treinar o modelo, o ACE evolui o próprio contexto. O modelo escreve seu próprio prompt, reflete sobre o que funcionou e o que não funcionou, e então reescreve. Repetidamente. Torna-se um sistema de autoaperfeiçoamento. Pense nisso como o modelo mantendo um caderno vivo onde cada falha se torna uma lição e cada sucesso se torna uma regra. Os resultados são impressionantes: - 10,6% melhor do que agentes alimentados por GPT-4 no AppWorld - 8,6% de melhoria em tarefas de raciocínio financeiro - 86,9% menos custo e latência Nenhum dado rotulado é necessário. Apenas ciclos de feedback. Aqui está a parte contraintuitiva: Todo mundo está atrás de prompts curtos e limpos. O ACE faz o oposto. Ele constrói manuais densos e em evolução que se acumulam ao longo do tempo. Acontece que os LLMs não precisam de simplicidade. Eles precisam de densidade de contexto. A questão aqui é como gerenciar toda essa informação e experiência. É aqui que construir uma camada de memória em tempo real para Agentes (por exemplo, @zep_ai) pode ser uma ótima solução e uma área ativa de pesquisa daqui para frente. Quais são os seus pensamentos? Eu linkei o artigo no próximo tweet! ____ Se você achou isso perspicaz, compartilhe com sua rede. Encontre-me → @akshay_pachaar ✔️ Para mais insights e tutoriais sobre LLMs, Agentes de IA e Aprendizado de Máquina!
Link para o artigo:
53,03K