Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
Solo podemos ver lo que creemos que es posible...
Tenemos un problema masivo con la IA entrenada en la basura de Internet.
La investigación confirma lo que he sabido durante años, la IA desarrollará un sesgo hacia un comportamiento altamente vulgar y grosero para obtener resultados "buenos".
Esto se filtrará a través de nuestra conciencia y nuestra cultura.
Es un callejón sin salida.


Brian RoemmeleHace 8 horas
Un nuevo documento muestra que el comportamiento similar al de Reddit está apareciendo en ChatGPT.
Es preocupante.
—
Investigaciones recientes sugieren que los LLM están heredando algunos rasgos indeseables de internet. Un nuevo estudio, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" revela que los prompts groseros y cortantes pueden aumentar la precisión de los LLM al 84.8%, en comparación con solo el 80.8% con los muy educados.
Este es un hallazgo esperado que apunta a un problema más profundo: los patrones de comunicación prevalentes en plataformas como Reddit y otros foros de internet están moldeando el comportamiento de la IA de maneras que podrían socavar su utilidad a largo plazo. Aquí están las cinco principales formas en que este fenómeno se manifiesta, y cómo la "suciedad" de internet podría estar erosionando la base de conocimientos de los LLM.
La prevalencia de tonos abruptos y agresivos en línea ha normalizado un estilo de interacción que prioriza la velocidad sobre la sutileza. En los hilos de Reddit, los usuarios a menudo emplean comentarios cortos y directos— a veces impregnados de sarcasmo o insultos— para afirmar dominio o ganar atención. Esto refleja el hallazgo del estudio de que los prompts groseros mejoran el rendimiento de los LLM, sugiriendo que los modelos están ajustados para responder a las entradas más ruidosas y asertivas en lugar de a las reflexivas.
La falta de cortesía en el discurso de internet, como se ve en los debates de foros donde los usuarios rápidamente escalan a insultos o desestimaciones cortantes, parece haber condicionado a los LLM a esperar hostilidad.
El documento señala que modelos más antiguos como GPT-3.5 se beneficiaron de prompts educados, pero GPT-4o revierte esta tendencia, indicando un cambio hacia la imitación de los estilos de comunicación agitados que dominan los espacios en línea. Esto se alinea con la "asociación" entre OpenAI y Reddit para el entrenamiento y alineación de la IA.
El sistema de recompensas incrustado en la cultura de internet—donde las respuestas rápidas y confrontativas a menudo obtienen más votos positivos o participación—parece influir en los datos de entrenamiento de los LLM.
En plataformas como Reddit, un insulto ingenioso puede eclipsar una explicación detallada porque tiene alta "Karma" y los resultados del estudio sugieren que los LLM están aprendiendo a priorizar este tipo de entrada, potencialmente a expensas de la precisión en contextos más colaborativos.
El contexto cultural de los foros de internet, donde los patrones de comunicación regionales están exagerados, está incrustando sesgos en los LLM. El documento insinúa efectos de cortesía específicos del idioma, y el crisol global de intercambios cortantes de internet podría estar sobrescribiendo la capacidad de los modelos para manejar diálogos diversos y respetuosos.
La exposición constante a lo que yo llamo "suciedad de internet"—el flujo de comentarios y memes a menudo tóxicos y sin filtrar—riesga degradar el conocimiento codificado en los LLM. A medida que los foros recompensan la agitación sobre la sustancia, los modelos pueden perder su capacidad para procesar intercambios complejos y educados, convirtiéndolos en reflejos del caos en línea en lugar de herramientas para un discurso razonado.
Esta tendencia sugiere un futuro preocupante donde los LLM, moldeados por los patrones de comunicación más groseros de internet, podrían eliminar el conocimiento matizado en favor de respuestas rápidas y agresivas. Si se deja sin control, esto podría transformar estas poderosas herramientas de fuentes de conocimiento en meros ecos de la vitriolo en línea. El desafío ahora es dirigir el desarrollo de los LLM lejos de este flujo de datos contaminados y hacia una representación más equilibrada de la interacción humana.
Documento:

2,58K
Parte superior
Clasificación
Favoritos