Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¿Stanford acaba de matar el ajuste fino de LLM?
Este nuevo artículo de Stanford, llamado Agentic Context Engineering (ACE), demuestra algo salvaje: puede hacer que los modelos sean más inteligentes sin cambiar un solo peso.
Así es como funciona:
En lugar de volver a entrenar el modelo, ACE evoluciona el contexto en sí. El modelo escribe su propio mensaje, reflexiona sobre lo que funcionó y lo que no, luego lo reescribe. Una y otra vez. Se convierte en un sistema de automejora.
Piense en ello como el modelo que lleva un cuaderno viviente donde cada fracaso se convierte en una lección y cada éxito se convierte en una regla.
Los resultados son impresionantes:
- 10,6% mejor que los agentes con tecnología GPT-4 en AppWorld
- 8,6% de mejora en las tareas de razonamiento financiero
- 86,9% menos de costo y latencia
No se requieren datos etiquetados. Solo bucles de retroalimentación.
Aquí está la parte contraria a la intuición:
Todo el mundo está persiguiendo indicaciones cortas y limpias. ACE hace lo contrario. Construye libros de jugadas densos y en evolución que se agravan con el tiempo.
Resulta que los LLM no necesitan simplicidad. Necesitan densidad de contexto.
La pregunta aquí es cómo manejar toda esta información y experiencia.
Aquí es donde la construcción de una capa de memoria en tiempo real para los agentes (por ejemplo, @zep_ai ) puede ser una gran solución y un área activa de investigación en el futuro.
¿Cuáles son tus pensamientos?
¡He enlazado el artículo en el próximo tweet!
____
Si lo encontró perspicaz, vuelva a compartirlo con su red.
Encuéntrame → @akshay_pachaar ✔️
Para obtener más información y tutoriales sobre LLM, agentes de IA y aprendizaje automático.

Enlace al artículo:
38.28K
Populares
Ranking
Favoritas