¿Acaba de matar Stanford el ajuste fino de LLM? Este nuevo artículo de Stanford, titulado Ingeniería de Contexto Agente (ACE), demuestra algo sorprendente: puedes hacer que los modelos sean más inteligentes sin cambiar un solo peso. Así es como funciona: En lugar de volver a entrenar el modelo, ACE evoluciona el contexto mismo. El modelo escribe su propio aviso, reflexiona sobre lo que funcionó y lo que no, y luego lo reescribe. Una y otra vez. Se convierte en un sistema de auto-mejora. Piénsalo como si el modelo mantuviera un cuaderno vivo donde cada fallo se convierte en una lección y cada éxito en una regla. Los resultados son impresionantes: - 10.6% mejor que los agentes impulsados por GPT-4 en AppWorld - 8.6% de mejora en tareas de razonamiento financiero - 86.9% menos costo y latencia No se requiere datos etiquetados. Solo bucles de retroalimentación. Aquí está la parte contraintuitiva: Todos están persiguiendo avisos cortos y limpios. ACE hace lo contrario. Construye manuales densos y en evolución que se acumulan con el tiempo. Resulta que los LLM no necesitan simplicidad. Necesitan densidad de contexto. La pregunta aquí es cómo gestionar toda esta información y experiencia. Aquí es donde construir una capa de memoria en tiempo real para Agentes (por ejemplo, @zep_ai) puede ser una gran solución y un área activa de investigación en el futuro. ¿Qué opinas? He enlazado el artículo en el siguiente tweet! ____ Si lo encontraste interesante, compártelo con tu red. Encuéntrame → @akshay_pachaar ✔️ ¡Para más ideas y tutoriales sobre LLMs, Agentes de IA y Aprendizaje Automático!
Enlace al documento:
53,03K