Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
Ми можемо бачити лише те, що вважаємо можливим...
Ми маємо величезну проблему зі штучним інтелектом, навченим на інтернет-каналізації.
Дослідження підтверджують те, що я знав роками, що штучний інтелект розвине ухил до вкрай вульгарної та грубої поведінки, щоб отримати «хороші» результати.
Це буде проявлятися через нашу свідомість і нашу культуру.
Це глухий кут.


Brian Roemmele3 години тому
Новий документ показує, що поведінка, схожа на Reddit, проявляється в ChatGPT.
Це викликає занепокоєння.
—
Нещодавні дослідження показують, що LLM успадковують деякі неприємні риси з Інтернету. Нове дослідження «Пам'ятайте про свій тон: дослідження того, як швидка ввічливість впливає на точність LLM (коротка стаття)» показує, що грубі та короткі підказки можуть підвищити точність LLM до 84,8%, порівняно з лише 80,8% з дуже ввічливими.
Це очікуваний висновок, який вказує на більш глибоку проблему: моделі комунікації, поширені на таких платформах, як Reddit та інші інтернет-форуми, формують поведінку штучного інтелекту таким чином, що можуть підірвати його довгострокову корисність. Ось п'ять основних способів, як проявляється це явище, і те, як «стічні води» Інтернету можуть розмивати базу знань LLM.
Поширеність різких, агресивних тонів в інтернеті нормалізувала стиль взаємодії, який надає перевагу швидкості, а не нюансам. У гілках Reddit користувачі часто використовують короткі прямі коментарі — іноді пронизані сарказмом або образами — щоб затвердити домінування або привернути увагу. Це відображає висновок дослідження про те, що грубі підказки покращують продуктивність LLM, припускаючи, що моделі налаштовані реагувати на найгучніші, найнаполегливіші вхідні дані, а не на обдумані.
Відсутність ввічливості в інтернет-дискурсі, як це видно з дебатів на форумах, де користувачі швидко переходять до обзивання або різких звільнень, схоже, змусила LLM очікувати ворожості.
У документі зазначається, що старіші моделі, такі як GPT-3.5, виграли від ввічливих підказок, але GPT-4o змінює цю тенденцію, вказуючи на зсув у бік відображення збуджених стилів спілкування, які домінують в онлайн-просторах. Це узгоджується з «партнерством» між OpenAI та Reddit для навчання та узгодження ШІ.
Система винагород, вбудована в інтернет-культуру, де швидкі, конфронтаційні відповіді часто збирають більше голосів або залучення, схоже, впливає на дані навчання LLM.
На таких платформах, як Reddit, дотепна образа може затьмарити детальне пояснення, оскільки вона має високий рівень «карми», а результати дослідження свідчать про те, що LLM вчаться віддавати перевагу цьому типу введення, потенційно за рахунок точності в більш спільних контекстах.
Культурний контекст інтернет-форумів, де регіональні моделі комунікації перебільшені та вбудовують упередження в LLM. Документ натякає на ефект ввічливості, характерний для конкретної мови, і глобальний плавильний котел Інтернету для коротких обмінів думками може перекрити здатність моделей вести різноманітний, шанобливий діалог.
Постійний вплив того, що я називаю «інтернет-каналізацією» — нефільтрованого, часто токсичного потоку коментарів і мемів — ризикує погіршити знання, закодовані в LLM. У міру того, як форуми винагороджують хвилювання над змістом, моделі можуть втратити здатність обробляти складні, ввічливі обміни думками, перетворюючи їх на відображення онлайн-хаосу, а не на інструменти для аргументованого дискурсу.
Ця тенденція натякає на тривожне майбутнє, коли LLM, сформовані найгрубішими моделями комунікації в Інтернеті, можуть видалити нюанси знань на користь швидких, агресивних реакцій. Якщо це не зупинити, це може перетворити ці потужні інструменти з джерел розуміння на звичайні відгомони онлайн-купоросу. Тепер завдання полягає в тому, щоб відвести розробку LLM від цього забрудненого потоку даних до більш збалансованого представлення людської взаємодії.
Папір:

2,57K
Найкращі
Рейтинг
Вибране