¿Stanford acaba de matar el ajuste fino de LLM? Este nuevo artículo de Stanford, llamado Agentic Context Engineering (ACE), demuestra algo salvaje: puede hacer que los modelos sean más inteligentes sin cambiar un solo peso. Así es como funciona: En lugar de volver a entrenar el modelo, ACE evoluciona el contexto en sí. El modelo escribe su propio mensaje, reflexiona sobre lo que funcionó y lo que no, luego lo reescribe. Una y otra vez. Se convierte en un sistema de automejora. Piense en ello como el modelo que lleva un cuaderno viviente donde cada fracaso se convierte en una lección y cada éxito se convierte en una regla. Los resultados son impresionantes: - 10,6% mejor que los agentes con tecnología GPT-4 en AppWorld - 8,6% de mejora en las tareas de razonamiento financiero - 86,9% menos de costo y latencia No se requieren datos etiquetados. Solo bucles de retroalimentación. Aquí está la parte contraria a la intuición: Todo el mundo está persiguiendo indicaciones cortas y limpias. ACE hace lo contrario. Construye libros de jugadas densos y en evolución que se agravan con el tiempo. Resulta que los LLM no necesitan simplicidad. Necesitan densidad de contexto. La pregunta aquí es cómo manejar toda esta información y experiencia. Aquí es donde la construcción de una capa de memoria en tiempo real para los agentes (por ejemplo, @zep_ai ) puede ser una gran solución y un área activa de investigación en el futuro. ¿Cuáles son tus pensamientos? ¡He enlazado el artículo en el próximo tweet! ____ Si lo encontró perspicaz, vuelva a compartirlo con su red. Encuéntrame → @akshay_pachaar ✔️ Para obtener más información y tutoriales sobre LLM, agentes de IA y aprendizaje automático.
Enlace al artículo:
38.28K