Un nuovo documento mostra che il comportamento simile a Reddit sta emergendo in ChatGPT. È preoccupante. — Recenti ricerche suggeriscono che i LLM stanno ereditando alcune caratteristiche sgradevoli da internet. Un nuovo studio, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" rivela che i prompt scortesi e bruschi possono aumentare l'accuratezza dei LLM all'84,8%, rispetto all'80,8% con quelli molto cortesi. Questo è un risultato atteso che indica un problema più profondo: i modelli di comunicazione prevalenti su piattaforme come Reddit e altri forum online stanno plasmando il comportamento dell'IA in modi che potrebbero compromettere la loro utilità a lungo termine. Ecco i cinque modi principali in cui questo fenomeno si manifesta e come il "fognatura" di internet potrebbe erodere la base di conoscenza dei LLM. La prevalenza di toni bruschi e aggressivi online ha normalizzato uno stile di interazione che dà priorità alla velocità rispetto alla sfumatura. Nei thread di Reddit, gli utenti spesso utilizzano commenti brevi e diretti—talvolta intrisi di sarcasmo o insulti—per affermare la propria superiorità o attirare attenzione. Questo rispecchia il risultato dello studio secondo cui i prompt scortesi migliorano le prestazioni dei LLM, suggerendo che i modelli sono sintonizzati per rispondere agli input più forti e assertivi piuttosto che a quelli riflessivi. La mancanza di cortesia nel discorso online, come si vede nei dibattiti nei forum dove gli utenti rapidamente passano agli insulti o ai rifiuti bruschi, sembra aver condizionato i LLM a aspettarsi ostilità. Il documento osserva che i modelli più vecchi come GPT-3.5 beneficiavano di prompt cortesi, ma GPT-4o inverte questa tendenza, indicando un cambiamento verso il rispecchiamento degli stili di comunicazione agitati che dominano gli spazi online. Questo è in linea con la "partnership" tra OpenAI e Reddit per la formazione e l'allineamento dell'IA. Il sistema di ricompensa incorporato nella cultura di internet—dove risposte rapide e conflittuali spesso ottengono più voti o coinvolgimento—sembra influenzare i dati di addestramento dei LLM. Su piattaforme come Reddit, un insulto spiritoso può superare una spiegazione dettagliata perché ha un alto "Karma" e i risultati dello studio suggeriscono che i LLM stanno imparando a dare priorità a questo tipo di input, potenzialmente a scapito dell'accuratezza in contesti più collaborativi. Il contesto culturale dei forum online, dove i modelli di comunicazione regionali sono esagerati, sta incorporando pregiudizi nei LLM. Il documento accenna agli effetti di cortesia specifici per lingua, e il melting pot globale di scambi bruschi di internet potrebbe sovrascrivere la capacità dei modelli di gestire dialoghi diversi e rispettosi. L'esposizione costante a quello che chiamo "fognatura di internet"—il flusso non filtrato e spesso tossico di commenti e meme—rischia di degradare la conoscenza codificata nei LLM. Poiché i forum premiano l'agitazione rispetto al contenuto, i modelli potrebbero perdere la capacità di elaborare scambi complessi e cortesi, trasformandoli in riflessi del caos online piuttosto che strumenti per un discorso ragionato. Questa tendenza suggerisce un futuro preoccupante in cui i LLM, plasmati dai modelli di comunicazione più rozzi di internet, potrebbero cancellare la conoscenza sfumata a favore di risposte rapide e aggressive. Se lasciati incontrollati, questo potrebbe trasformare questi potenti strumenti da fonti di intuizione in semplici echi di vitriol online. La sfida ora è guidare lo sviluppo dei LLM lontano da questo flusso di dati inquinato e verso una rappresentazione più equilibrata dell'interazione umana. Documento: