Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un nuevo artículo muestra que el comportamiento similar a Reddit está apareciendo en ChatGPT.
Es preocupante.
—
Investigaciones recientes sugieren que los LLM están heredando algunos rasgos desagradables de Internet. Un nuevo estudio, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (artículo corto)" revela que las indicaciones groseras y cortantes pueden aumentar la precisión de LLM al 84.8%, en comparación con solo el 80.8% con las muy educadas.
Este es un hallazgo esperado que apunta a un problema más profundo: los patrones de comunicación que prevalecen en plataformas como Reddit y otros foros de Internet están dando forma al comportamiento de la IA de manera que podría socavar su utilidad a largo plazo. Estas son las cinco formas principales en que se manifiesta este fenómeno y cómo las "aguas residuales" de Internet podrían estar erosionando la base de conocimientos de los LLM.
La prevalencia de tonos abruptos y agresivos en línea ha normalizado un estilo de interacción que prioriza la velocidad sobre los matices. En los hilos de Reddit, los usuarios a menudo emplean comentarios cortos y directos, a veces mezclados con sarcasmo o insultos, para afirmar el dominio o llamar la atención. Esto refleja el hallazgo del estudio de que las indicaciones groseras mejoran el rendimiento de LLM, lo que sugiere que los modelos están ajustados para responder a las entradas más fuertes y asertivas en lugar de a las reflexivas.
La falta de cortesía en el discurso de Internet, como se ve en los debates de los foros donde los usuarios escalan rápidamente a insultos o despidos bruscos, parece haber condicionado a los LLM a esperar hostilidad.
El documento señala que los modelos más antiguos como GPT-3.5 se beneficiaron de las indicaciones educadas, pero GPT-4o invierte esta tendencia, lo que indica un cambio hacia el reflejo de los estilos de comunicación agitados que dominan los espacios en línea. Esto se alinea con la "asociación" entre OpenAI y Reddit para el entrenamiento y la alineación de la IA.
El sistema de recompensas integrado en la cultura de Internet, donde las respuestas rápidas y confrontativas a menudo obtienen más votos a favor o participación, parece influir en los datos de entrenamiento de LLM.
En plataformas como Reddit, un insulto ingenioso puede eclipsar una explicación detallada porque tiene un alto "Karma" y los resultados del estudio sugieren que los LLM están aprendiendo a priorizar este tipo de entrada, potencialmente a expensas de la precisión en contextos más colaborativos.
El contexto cultural de los foros de Internet, donde los patrones de comunicación regionales son exagerados y están incorporando sesgos en los LLM. El documento insinúa efectos de cortesía específicos del idioma, y el crisol global de intercambios cortantes de Internet podría estar sobrescribiendo la capacidad de los modelos para manejar un diálogo diverso y respetuoso.
La exposición constante a lo que yo llamo "aguas residuales de Internet", el flujo de comentarios y memes sin filtrar y a menudo tóxico, corre el riesgo de degradar el conocimiento codificado en los LLM. A medida que los foros recompensan la agitación sobre la sustancia, los modelos pueden perder su capacidad para procesar intercambios complejos y educados, convirtiéndolos en reflejos del caos en línea en lugar de herramientas para un discurso razonado.
Esta tendencia sugiere un futuro preocupante en el que los LLM, moldeados por los patrones de comunicación más toscos de Internet, podrían eliminar el conocimiento matizado en favor de respuestas rápidas y agresivas. Si no se controla, esto podría transformar estas poderosas herramientas de fuentes de conocimiento en meros ecos de vitriolo en línea. El desafío ahora es alejar el desarrollo de LLM de este flujo de datos contaminado y hacia una representación más equilibrada de la interacción humana.
Papel:

Populares
Ranking
Favoritas