Novo artigo mostra que comportamento semelhante ao Reddit está aparecendo no ChatGPT. É preocupante. — Pesquisas recentes sugerem que os LLMs estão herdando algumas características desagradáveis da internet. Um novo estudo, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" revela que prompts rudes e curtos podem aumentar a precisão do LLM para 84,8%, em comparação com apenas 80,8% com os muito educados. Essa é uma descoberta esperada que aponta para um problema mais profundo: os padrões de comunicação predominantes em plataformas como o Reddit e outros fóruns da Internet estão moldando o comportamento da IA de maneiras que podem prejudicar sua utilidade a longo prazo. Aqui estão as cinco principais maneiras pelas quais esse fenômeno se manifesta e como o "esgoto" da Internet pode estar corroendo a base de conhecimento dos LLMs. A prevalência de tons abruptos e agressivos online normalizou um estilo de interação que prioriza a velocidade em vez das nuances. Nos tópicos do Reddit, os usuários costumam empregar comentários curtos e diretos - às vezes misturados com sarcasmo ou insultos - para afirmar o domínio ou chamar a atenção. Isso reflete a descoberta do estudo de que prompts rudes melhoram o desempenho do LLM, sugerindo que os modelos são ajustados para responder às entradas mais altas e assertivas, em vez de ponderadas. A falta de polidez no discurso da Internet, como visto em debates em fóruns onde os usuários rapidamente escalam para xingamentos ou demissões bruscas, parece ter condicionado os LLMs a esperar hostilidade. O artigo observa que modelos mais antigos como o GPT-3.5 se beneficiaram de prompts educados, mas o GPT-4o reverte essa tendência, indicando uma mudança para espelhar os estilos de comunicação agitados que dominam os espaços online. Isso se alinha com a "parceria" entre a OpenAI e o Reddit para treinamento e alinhamento de IA. O sistema de recompensa incorporado à cultura da internet - onde respostas rápidas e conflituosas geralmente obtêm mais votos positivos ou engajamento - parece influenciar os dados de treinamento do LLM. Em plataformas como o Reddit, um insulto espirituoso pode ofuscar uma explicação detalhada porque tem alto "Karma" e os resultados do estudo sugerem que os LLMs estão aprendendo a priorizar esse tipo de entrada, potencialmente às custas da precisão em contextos mais colaborativos. O contexto cultural dos fóruns da Internet, onde os padrões de comunicação regional são exagerados e estão incorporando preconceitos nos LLMs. O artigo sugere efeitos de polidez específicos da linguagem, e o caldeirão global de trocas curtas da internet pode estar substituindo a capacidade dos modelos de lidar com diálogos diversos e respeitosos. A exposição constante ao que chamo de "esgoto da internet" - o fluxo não filtrado e muitas vezes tóxico de comentários e memes - corre o risco de degradar o conhecimento codificado nos LLMs. À medida que os fóruns recompensam a agitação sobre a substância, os modelos podem perder sua capacidade de processar trocas complexas e educadas, transformando-as em reflexos do caos online, em vez de ferramentas para um discurso racional. Essa tendência sugere um futuro preocupante em que os LLMs, moldados pelos padrões de comunicação mais grosseiros da Internet, podem excluir o conhecimento sutil em favor de respostas rápidas e agressivas. Se não for controlado, isso pode transformar essas ferramentas poderosas de fontes de insight em meros ecos de vitríolo online. O desafio agora é afastar o desenvolvimento do LLM desse fluxo de dados poluído e em direção a uma representação mais equilibrada da interação humana. Papel: