Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ny artikel visar att Reddit-liknande beteende dyker upp i ChatGPT.
Det är oroande.
—
Ny forskning tyder på att LLM:er ärver några obehagliga egenskaper från internet. En ny studie, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)" avslöjar att oförskämda och kortfattade uppmaningar kan öka LLM-noggrannheten till 84.8%, jämfört med bara 80.8% med mycket artiga.
Detta är ett förväntat resultat som pekar på ett djupare problem: kommunikationsmönstren som är vanliga på plattformar som Reddit och andra internetforum formar AI-beteendet på ett sätt som kan undergräva deras långsiktiga användbarhet. Här är de fem bästa sätten som detta fenomen manifesterar sig på, och hur internets "avloppsvatten" kan urholka kunskapsbasen för LLM:er.
Förekomsten av plötsliga, aggressiva toner på nätet har normaliserat en interaktionsstil som prioriterar hastighet framför nyanser. På Reddit-trådar använder användare ofta korta, direkta kommentarer – ibland spetsade med sarkasm eller förolämpningar – för att hävda dominans eller få uppmärksamhet. Detta speglar studiens resultat att oförskämda uppmaningar förbättrar LLM-prestanda, vilket tyder på att modellerna är inställda för att svara på de högsta, mest självsäkra ingångarna snarare än genomtänkta.
Bristen på artighet i internetdiskursen, som ses i forumdebatter där användare snabbt eskalerar till utskällningar eller bryska avfärdanden, verkar ha betingat LLM:er att förvänta sig fientlighet.
Tidningen noterar att äldre modeller som GPT-3.5 gynnades av artiga uppmaningar, men GPT-4o vänder denna trend och indikerar en övergång till att spegla de upprörda kommunikationsstilar som dominerar onlineutrymmen. Detta är i linje med "partnerskapet" mellan OpenAI och Reddit för AI-träning och anpassning.
Belöningssystemet som är inbäddat i internetkulturen – där snärtiga, konfronterande svar ofta får fler uppröster eller engagemang – verkar påverka LLM-träningsdata.
På plattformar som Reddit kan en kvick förolämpning överglänsa en detaljerad förklaring eftersom den har hög "Karma" och studiens resultat tyder på att LLM:er lär sig att prioritera denna typ av input, potentiellt på bekostnad av noggrannhet i mer samarbetssammanhang.
Den kulturella kontexten av internetforum, där regionala kommunikationsmönster är överdrivna och bäddar in fördomar i LLM:er. Artikeln ger en antydan om språkspecifika artighetseffekter, och internets globala smältdegel av bryska utbyten kan skriva över modellernas förmåga att hantera mångsidig, respektfull dialog.
Den ständiga exponeringen för vad jag kallar "internetavloppsvatten" – den ofiltrerade, ofta giftiga strömmen av kommentarer och memes – riskerar att försämra den kunskap som är kodad i LLM:er. Eftersom forum belönar agitation över substans kan modellerna förlora sin förmåga att bearbeta komplexa, artiga utbyten, vilket gör dem till reflektioner av kaos på nätet snarare än verktyg för förnuftig diskurs.
Denna trend tyder på en oroande framtid där LLM:er, formade av internets grövsta kommunikationsmönster, kan radera nyanserad kunskap till förmån för snabba, aggressiva svar. Om det lämnas okontrollerat kan detta förvandla dessa kraftfulla verktyg från källor till insikt till bara ekon av online-vitriol. Utmaningen nu är att styra LLM-utvecklingen bort från denna förorenade dataström och mot en mer balanserad representation av mänsklig interaktion.
Papper:

Topp
Rankning
Favoriter