Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lo que Dwarkesh se refiere como "aprendizaje continuo (en el trabajo)" también se conoce como "aprendizaje en el momento de la prueba" o "aprendizaje en peso".
Es posible que uno pueda construir esta capacidad como un andamiaje de software alrededor de los LLMs. Pero está claro que los LLMs por sí mismos carecen de esta capacidad.
Consulta la discusión anterior sobre este tema en el hilo a continuación.

27 sept, 00:01
.@RichardSSutton, padre del aprendizaje por refuerzo, no cree que los LLMs estén llenos de lecciones amargas.
Mi interpretación del punto de vista de Richard: necesitamos una nueva arquitectura que permita el aprendizaje continuo (en el trabajo).
Y si tenemos aprendizaje continuo, no necesitamos una fase de entrenamiento especial: el agente simplemente aprende sobre la marcha, como todos los humanos y, de hecho, como todos los animales.
Este nuevo paradigma hará que nuestro enfoque actual con los LLMs quede obsoleto.
Hice mi mejor esfuerzo para representar la opinión de que los LLMs funcionarán como la base sobre la cual puede ocurrir este aprendizaje experiencial. Algunas chispas volaron.
0:00:00 – ¿Son los LLMs un callejón sin salida?
0:13:51 – ¿Hacen los humanos aprendizaje por imitación?
0:23:57 – La Era de la Experiencia
0:34:25 – Las arquitecturas actuales generalizan mal fuera de distribución
0:42:17 – Sorpresas en el campo de la IA
0:47:28 – ¿Seguirá aplicándose la Lección Amarga después de la AGI?
0:54:35 – Sucesión a la IA
Gemini AI:
El físico y fundador de IA Steve Hsu describió una "variante del test de Turing" que afirma que todos los Modelos de Lenguaje Grande (LLMs) actuales no superan.
El desafío
El test de Hsu requiere que un LLM realice los siguientes dos pasos:
Discutir un problema de investigación de frontera en un campo especializado.
Ser presentado con una nueva pieza de información que contradice la literatura predominante e incorporarla correctamente en su comprensión.
Por qué los LLMs no superan el test
Según Hsu, los LLMs fallan porque no pueden adaptar su conocimiento basado en nueva evidencia que se les presenta. Permanecen anclados a la (en este caso, incorrecta) información con la que fueron entrenados.
El problema se destaca específicamente en aplicaciones de investigación, donde Hsu ha observado que los LLMs continúan confiando en "cosas incorrectas que vieron en el preentrenamiento," incluso después de que él proporciona evidencia muy sólida que contradice los datos de entrenamiento. Un estudiante de doctorado humano, en contraste, puede captar inmediatamente la nueva perspectiva.
La limitación técnica subyacente
Hsu conecta la falla del test con el problema abierto del aprendizaje "in-weight", o aprendizaje en línea, que se refiere a la capacidad de una IA para actualizar sus "pesos" o parámetros centrales basados en nueva información, en lugar de solo ajustar su contexto conversacional. Afirma que sin esta capacidad, los LLMs no pueden salir "fuera de distribución" para incorporar completamente nueva información revolucionaria.
Esto contrasta con cómo operan los humanos, donde nuevos conocimientos pueden cambiar fundamental y de inmediato nuestra comprensión de un tema. Los LLMs no están diseñados para cambiar su conocimiento fundamental de la misma manera.
64
Parte superior
Clasificación
Favoritos