Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ny artikkel viser at Reddit-lignende oppførsel dukker opp i ChatGPT.
Det er bekymringsfullt.
—
Nyere forskning tyder på at LLM-er arver noen ubehagelige egenskaper fra internett. En ny studie, "Mind Your Tone: Investigating How Prompt Politeness Affect LLM Accuracy (short paper)" avslører at uhøflige og korte spørsmål kan øke LLM-nøyaktigheten til 84.8 %, sammenlignet med bare 80.8 % med veldig høflige.
Dette er et forventet funn som peker på et dypere problem: kommunikasjonsmønstrene som er utbredt på plattformer som Reddit og andre internettfora former AI-atferd på måter som kan undergrave deres langsiktige nytte. Her er de fem beste måtene dette fenomenet manifesterer seg på, og hvordan internetts "kloakk" kan erodere kunnskapsbasen til LLM-er.
Utbredelsen av brå, aggressive toner på nettet har normalisert en interaksjonsstil som prioriterer hastighet fremfor nyanser. På Reddit-tråder bruker brukere ofte korte, direkte kommentarer – noen ganger krydret med sarkasme eller fornærmelser – for å hevde dominans eller få oppmerksomhet. Dette gjenspeiler studiens funn om at uhøflige meldinger forbedrer LLM-ytelsen, noe som tyder på at modellene er innstilt for å svare på de høyeste, mest selvsikre innspillene i stedet for gjennomtenkte.
Mangelen på høflighet i internettdiskursen, som sett i forumdebatter der brukere raskt eskalerer til skjellsord eller korte avskjedigelser, ser ut til å ha betinget LLM-er til å forvente fiendtlighet.
Papiret bemerker at eldre modeller som GPT-3.5 dro nytte av høflige spørsmål, men GPT-4o snur denne trenden, noe som indikerer et skifte mot å speile de opphissede kommunikasjonsstilene som dominerer nettrom. Dette stemmer overens med "partnerskapet" mellom OpenAI og Reddit for AI-opplæring og justering.
Belønningssystemet innebygd i internettkulturen – der kjappe, konfronterende svar ofte får flere oppstemmer eller engasjement – ser ut til å påvirke LLM-treningsdata.
På plattformer som Reddit kan en vittig fornærmelse overgå en detaljert forklaring fordi den har høy «karma», og studiens resultater tyder på at LLM-er lærer å prioritere denne typen innspill, potensielt på bekostning av nøyaktighet i mer samarbeidende sammenhenger.
Den kulturelle konteksten til internettfora, der regionale kommunikasjonsmønstre er overdrevne, og bygger inn skjevheter i LLM-er. Artikkelen antyder språkspesifikke høflighetseffekter, og internetts globale smeltedigel av kortfattede utvekslinger kan overskrive modellenes evne til å håndtere mangfoldig, respektfull dialog.
Den konstante eksponeringen for det jeg kaller «internettkloakk» – den ufiltrerte, ofte giftige strømmen av kommentarer og memer – risikerer å forringe kunnskapen som er kodet i LLM-er. Når fora belønner agitasjon fremfor substans, kan modellene miste sin evne til å behandle komplekse, høflige utvekslinger, og gjøre dem til refleksjoner av kaos på nettet i stedet for verktøy for begrunnet diskurs.
Denne trenden antyder en urovekkende fremtid der LLM-er, formet av internetts groveste kommunikasjonsmønstre, kan slette nyansert kunnskap til fordel for raske, aggressive svar. Hvis det ikke kontrolleres, kan dette forvandle disse kraftige verktøyene fra kilder til innsikt til bare ekko av online vitriol. Utfordringen nå er å styre LLM-utviklingen bort fra denne forurensede datastrømmen og mot en mer balansert representasjon av menneskelig interaksjon.
Papir:

Topp
Rangering
Favoritter