Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¿Acaba de matar Stanford el ajuste fino de LLM?
Este nuevo artículo de Stanford, titulado Ingeniería de Contexto Agente (ACE), demuestra algo sorprendente: puedes hacer que los modelos sean más inteligentes sin cambiar un solo peso.
Así es como funciona:
En lugar de volver a entrenar el modelo, ACE evoluciona el contexto mismo. El modelo escribe su propio aviso, reflexiona sobre lo que funcionó y lo que no, y luego lo reescribe. Una y otra vez. Se convierte en un sistema de auto-mejora.
Piénsalo como si el modelo mantuviera un cuaderno vivo donde cada fallo se convierte en una lección y cada éxito en una regla.
Los resultados son impresionantes:
- 10.6% mejor que los agentes impulsados por GPT-4 en AppWorld
- 8.6% de mejora en tareas de razonamiento financiero
- 86.9% menos costo y latencia
No se requiere datos etiquetados. Solo bucles de retroalimentación.
Aquí está la parte contraintuitiva:
Todos están persiguiendo avisos cortos y limpios. ACE hace lo contrario. Construye manuales densos y en evolución que se acumulan con el tiempo.
Resulta que los LLM no necesitan simplicidad. Necesitan densidad de contexto.
La pregunta aquí es cómo gestionar toda esta información y experiencia.
Aquí es donde construir una capa de memoria en tiempo real para Agentes (por ejemplo, @zep_ai) puede ser una gran solución y un área activa de investigación en el futuro.
¿Qué opinas?
He enlazado el artículo en el siguiente tweet!
____
Si lo encontraste interesante, compártelo con tu red.
Encuéntrame → @akshay_pachaar ✔️
¡Para más ideas y tutoriales sobre LLMs, Agentes de IA y Aprendizaje Automático!

Enlace al documento:
53,03K
Parte superior
Clasificación
Favoritos