Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Stanford acabou de matar o ajuste fino do LLM?
Este novo artigo de Stanford, chamado Agentic Context Engineering (ACE), prova algo selvagem: você pode tornar os modelos mais inteligentes sem alterar um único peso.
Veja como funciona:
Em vez de treinar novamente o modelo, o ACE evolui o próprio contexto. O modelo escreve seu próprio prompt, reflete sobre o que funcionou e o que não funcionou e, em seguida, o reescreve. De novo e de novo. Torna-se um sistema de auto-aperfeiçoamento.
Pense nisso como o modelo que mantém um caderno vivo onde cada fracasso se torna uma lição e cada sucesso se torna uma regra.
Os resultados são impressionantes:
- 10,6% melhor do que os agentes com tecnologia GPT-4 no AppWorld
- 8,6% de melhoria nas tarefas de raciocínio financeiro
- Custo e latência 86,9% menores
Não são necessários dados rotulados. Apenas loops de feedback.
Aqui está a parte contra-intuitiva:
Todo mundo está perseguindo prompts curtos e limpos. ACE faz o oposto. Ele cria manuais densos e em evolução que se acumulam com o tempo.
Acontece que os LLMs não precisam de simplicidade. Eles precisam de densidade de contexto.
A questão aqui é como gerenciar todas essas informações e experiências.
É aqui que a construção de uma camada de memória em tempo real para Agentes (por exemplo, @zep_ai ) pode ser uma ótima solução e uma área ativa de pesquisa daqui para frente.
Quais são seus pensamentos?
Eu vinculei o artigo no próximo tweet!
____
Se você achou perspicaz, compartilhe novamente com sua rede.
Encontre-me → @akshay_pachaar ✔️
Para obter mais insights e tutoriais sobre LLMs, agentes de IA e aprendizado de máquina!

Link para o artigo:
38,28K
Melhores
Classificação
Favoritos