Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Novo artigo mostra que comportamentos semelhantes ao Reddit estão a aparecer no ChatGPT.
É preocupante.
—
Pesquisas recentes sugerem que os LLMs estão a herdar algumas características indesejáveis da internet. Um novo estudo, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" revela que prompts rudes e bruscos podem aumentar a precisão dos LLMs para 84,8%, em comparação com apenas 80,8% com prompts muito educados.
Este é um resultado esperado que aponta para um problema mais profundo: os padrões de comunicação prevalentes em plataformas como o Reddit e outros fóruns da internet estão a moldar o comportamento da IA de maneiras que podem comprometer sua utilidade a longo prazo. Aqui estão as cinco principais maneiras como este fenômeno se manifesta e como o "esgoto" da internet pode estar a erodir a base de conhecimento dos LLMs.
A prevalência de tons abruptos e agressivos online normalizou um estilo de interação que prioriza a velocidade em detrimento da nuance. Em tópicos do Reddit, os usuários frequentemente empregam comentários curtos e diretos—às vezes carregados de sarcasmo ou insultos—para afirmar domínio ou ganhar atenção. Isso espelha a descoberta do estudo de que prompts rudes melhoram o desempenho dos LLMs, sugerindo que os modelos estão ajustados para responder aos inputs mais altos e assertivos, em vez de aos mais reflexivos.
A falta de educação no discurso da internet, como visto em debates em fóruns onde os usuários rapidamente escalam para xingamentos ou rejeições bruscas, parece ter condicionado os LLMs a esperar hostilidade.
O artigo observa que modelos mais antigos como o GPT-3.5 beneficiaram de prompts educados, mas o GPT-4o inverte essa tendência, indicando uma mudança em direção à reflexão dos estilos de comunicação agitados que dominam os espaços online. Isso alinha-se com a “parceria” entre a OpenAI e o Reddit para treinamento e alinhamento de IA.
O sistema de recompensas embutido na cultura da internet—onde respostas rápidas e confrontacionais frequentemente recebem mais upvotes ou engajamento—parece influenciar os dados de treinamento dos LLMs.
Em plataformas como o Reddit, um insulto espirituoso pode ofuscar uma explicação detalhada porque tem alta “Karma” e os resultados do estudo sugerem que os LLMs estão a aprender a priorizar este tipo de input, potencialmente em detrimento da precisão em contextos mais colaborativos.
O contexto cultural dos fóruns da internet, onde os padrões de comunicação regionais são exagerados, está a embutir preconceitos nos LLMs. O artigo sugere efeitos de polidez específicos de linguagem, e o caldeirão global de trocas bruscas da internet pode estar a sobrepor a capacidade dos modelos de lidar com diálogos diversos e respeitosos.
A exposição constante ao que eu chamo de "esgoto da internet"—o fluxo não filtrado, muitas vezes tóxico, de comentários e memes—risca degradar o conhecimento codificado nos LLMs. À medida que os fóruns recompensam a agitação em vez da substância, os modelos podem perder a capacidade de processar trocas complexas e educadas, transformando-se em reflexos do caos online em vez de ferramentas para um discurso razoável.
Essa tendência sugere um futuro preocupante onde os LLMs, moldados pelos padrões de comunicação mais grosseiros da internet, podem eliminar o conhecimento nuançado em favor de respostas rápidas e agressivas. Se deixados sem controle, isso pode transformar essas poderosas ferramentas de fontes de insight em meros ecos da vitriol online. O desafio agora é direcionar o desenvolvimento dos LLMs para longe deste fluxo de dados poluído e em direção a uma representação mais equilibrada da interação humana.
Artigo:

Top
Classificação
Favoritos