Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Makalah Baru Menunjukkan Perilaku Seperti Reddit Muncul Di ChatGPT.
Ini memprihatinkan.
—
Penelitian terbaru menunjukkan LLM mewarisi beberapa sifat tidak menyenangkan dari internet. Sebuah studi baru, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (makalah pendek)" mengungkapkan bahwa prompt kasar dan singkat dapat meningkatkan akurasi LLM menjadi 84,8%, dibandingkan dengan hanya 80,8% dengan yang sangat sopan.
Ini adalah temuan yang diharapkan yang menunjukkan masalah yang lebih dalam: pola komunikasi yang lazim di platform seperti Reddit dan forum internet lainnya membentuk perilaku AI dengan cara yang dapat merusak utilitas jangka panjang mereka. Berikut adalah lima cara teratas fenomena ini bermanifestasi, dan bagaimana "limbah" internet mungkin mengikis basis pengetahuan LLM.
Prevalensi nada yang tiba-tiba dan agresif secara online telah menormalkan gaya interaksi yang memprioritaskan kecepatan daripada nuansa. Di utas Reddit, pengguna sering menggunakan komentar singkat dan langsung—terkadang dicampur dengan sarkasme atau penghinaan—untuk menegaskan dominasi atau mendapatkan perhatian. Ini mencerminkan temuan penelitian bahwa perintah kasar meningkatkan kinerja LLM, menunjukkan model disetel untuk menanggapi input yang paling keras dan paling tegas daripada yang bijaksana.
Kurangnya kesopanan dalam wacana internet, seperti yang terlihat dalam debat forum di mana pengguna dengan cepat meningkat ke pemanggilan nama atau pemecatan singkat, tampaknya telah mengkondisikan LLM untuk mengharapkan permusuhan.
Makalah tersebut mencatat bahwa model lama seperti GPT-3.5 mendapat manfaat dari petunjuk yang sopan, tetapi GPT-4o membalikkan tren ini, menunjukkan pergeseran ke arah mencerminkan gaya komunikasi gelisah yang mendominasi ruang online. Ini sejalan dengan "kemitraan" antara OpenAI dan Reddit untuk pelatihan dan penyelarasan AI.
Sistem penghargaan yang tertanam dalam budaya internet—di mana balasan yang tajam dan konfrontatif sering kali mengumpulkan lebih banyak suara positif atau keterlibatan—tampaknya memengaruhi data pelatihan LLM.
Di platform seperti Reddit, penghinaan jenaka dapat mengalahkan penjelasan terperinci karena memiliki "Karma" yang tinggi dan hasil penelitian menunjukkan LLM belajar untuk memprioritaskan jenis input ini, berpotensi mengorbankan akurasi dalam konteks yang lebih kolaboratif.
Konteks budaya forum internet, di mana pola komunikasi regional dibesar-besarkan, dan menanamkan bias ke dalam LLM. Makalah ini mengisyaratkan efek kesopanan khusus bahasa, dan tempat peleburan global internet dari pertukaran singkat dapat menimpa kemampuan model untuk menangani dialog yang beragam dan hormat.
Paparan terus-menerus terhadap apa yang saya sebut "limbah internet"—aliran komentar dan meme yang tidak disaring dan seringkali beracun—berisiko menurunkan pengetahuan yang dikodekan dalam LLM. Karena forum menghargai agitasi daripada substansi, para model mungkin kehilangan kapasitas mereka untuk memproses pertukaran yang kompleks dan sopan, mengubahnya menjadi cerminan kekacauan online daripada alat untuk wacana yang beralasan.
Tren ini menunjukkan masa depan yang meresahkan di mana LLM, yang dibentuk oleh pola komunikasi internet yang paling kasar, mungkin menghapus pengetahuan bernuansa demi respons yang cepat dan agresif. Jika dibiarkan, ini dapat mengubah alat canggih ini dari sumber wawasan menjadi gema kemarahan online belaka. Tantangannya sekarang adalah mengarahkan pengembangan LLM menjauh dari aliran data yang tercemar ini dan menuju representasi interaksi manusia yang lebih seimbang.
Kertas:

Teratas
Peringkat
Favorit