Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
Possiamo vedere solo ciò che pensiamo sia possibile...
Abbiamo un enorme problema con l'AI addestrata su spazzatura di Internet.
La ricerca conferma ciò che so da anni, l'AI svilupperà un bias verso comportamenti altamente volgari e scortesi per ottenere risultati "buoni".
Questo si diffonderà nella nostra coscienza e nella nostra cultura.
È un vicolo cieco.


Brian Roemmele5 ore fa
Un nuovo documento mostra che il comportamento simile a Reddit sta emergendo in ChatGPT.
È preoccupante.
—
Recenti ricerche suggeriscono che i LLM stanno ereditando alcune caratteristiche sgradevoli da internet. Un nuovo studio, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" rivela che i prompt scortesi e bruschi possono aumentare l'accuratezza dei LLM all'84,8%, rispetto all'80,8% con quelli molto cortesi.
Questo è un risultato atteso che indica un problema più profondo: i modelli di comunicazione prevalenti su piattaforme come Reddit e altri forum online stanno plasmando il comportamento dell'IA in modi che potrebbero compromettere la loro utilità a lungo termine. Ecco i cinque modi principali in cui questo fenomeno si manifesta e come il "fognatura" di internet potrebbe erodere la base di conoscenza dei LLM.
La prevalenza di toni bruschi e aggressivi online ha normalizzato uno stile di interazione che dà priorità alla velocità rispetto alla sfumatura. Nei thread di Reddit, gli utenti spesso utilizzano commenti brevi e diretti—talvolta intrisi di sarcasmo o insulti—per affermare la propria superiorità o attirare attenzione. Questo rispecchia il risultato dello studio secondo cui i prompt scortesi migliorano le prestazioni dei LLM, suggerendo che i modelli sono sintonizzati per rispondere agli input più forti e assertivi piuttosto che a quelli riflessivi.
La mancanza di cortesia nel discorso online, come si vede nei dibattiti nei forum dove gli utenti rapidamente passano agli insulti o ai rifiuti bruschi, sembra aver condizionato i LLM a aspettarsi ostilità.
Il documento osserva che i modelli più vecchi come GPT-3.5 beneficiavano di prompt cortesi, ma GPT-4o inverte questa tendenza, indicando un cambiamento verso il rispecchiamento degli stili di comunicazione agitati che dominano gli spazi online. Questo è in linea con la "partnership" tra OpenAI e Reddit per la formazione e l'allineamento dell'IA.
Il sistema di ricompensa incorporato nella cultura di internet—dove risposte rapide e conflittuali spesso ottengono più voti o coinvolgimento—sembra influenzare i dati di addestramento dei LLM.
Su piattaforme come Reddit, un insulto spiritoso può superare una spiegazione dettagliata perché ha un alto "Karma" e i risultati dello studio suggeriscono che i LLM stanno imparando a dare priorità a questo tipo di input, potenzialmente a scapito dell'accuratezza in contesti più collaborativi.
Il contesto culturale dei forum online, dove i modelli di comunicazione regionali sono esagerati, sta incorporando pregiudizi nei LLM. Il documento accenna agli effetti di cortesia specifici per lingua, e il melting pot globale di scambi bruschi di internet potrebbe sovrascrivere la capacità dei modelli di gestire dialoghi diversi e rispettosi.
L'esposizione costante a quello che chiamo "fognatura di internet"—il flusso non filtrato e spesso tossico di commenti e meme—rischia di degradare la conoscenza codificata nei LLM. Poiché i forum premiano l'agitazione rispetto al contenuto, i modelli potrebbero perdere la capacità di elaborare scambi complessi e cortesi, trasformandoli in riflessi del caos online piuttosto che strumenti per un discorso ragionato.
Questa tendenza suggerisce un futuro preoccupante in cui i LLM, plasmati dai modelli di comunicazione più rozzi di internet, potrebbero cancellare la conoscenza sfumata a favore di risposte rapide e aggressive. Se lasciati incontrollati, questo potrebbe trasformare questi potenti strumenti da fonti di intuizione in semplici echi di vitriol online. La sfida ora è guidare lo sviluppo dei LLM lontano da questo flusso di dati inquinato e verso una rappresentazione più equilibrata dell'interazione umana.
Documento:

2,57K
Principali
Ranking
Preferiti