Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O Stanford acabou de matar o ajuste fino de LLM?
Este novo artigo de Stanford, chamado Engenharia de Contexto Agente (ACE), prova algo incrível: você pode tornar os modelos mais inteligentes sem mudar um único peso.
Veja como funciona:
Em vez de re-treinar o modelo, o ACE evolui o próprio contexto. O modelo escreve seu próprio prompt, reflete sobre o que funcionou e o que não funcionou, e então reescreve. Repetidamente. Torna-se um sistema de autoaperfeiçoamento.
Pense nisso como o modelo mantendo um caderno vivo onde cada falha se torna uma lição e cada sucesso se torna uma regra.
Os resultados são impressionantes:
- 10,6% melhor do que agentes alimentados por GPT-4 no AppWorld
- 8,6% de melhoria em tarefas de raciocínio financeiro
- 86,9% menos custo e latência
Nenhum dado rotulado é necessário. Apenas ciclos de feedback.
Aqui está a parte contraintuitiva:
Todo mundo está atrás de prompts curtos e limpos. O ACE faz o oposto. Ele constrói manuais densos e em evolução que se acumulam ao longo do tempo.
Acontece que os LLMs não precisam de simplicidade. Eles precisam de densidade de contexto.
A questão aqui é como gerenciar toda essa informação e experiência.
É aqui que construir uma camada de memória em tempo real para Agentes (por exemplo, @zep_ai) pode ser uma ótima solução e uma área ativa de pesquisa daqui para frente.
Quais são os seus pensamentos?
Eu linkei o artigo no próximo tweet!
____
Se você achou isso perspicaz, compartilhe com sua rede.
Encontre-me → @akshay_pachaar ✔️
Para mais insights e tutoriais sobre LLMs, Agentes de IA e Aprendizado de Máquina!

Link para o artigo:
53,03K
Top
Classificação
Favoritos