Nowy artykuł pokazuje, że zachowanie podobne do Reddita pojawia się w ChatGPT. To niepokojące. — Najnowsze badania sugerują, że LLM-y dziedziczą pewne nieprzyjemne cechy z internetu. Nowe badanie, "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (krótkie opracowanie)" ujawnia, że niegrzeczne i lakoniczne polecenia mogą zwiększyć dokładność LLM do 84,8%, w porównaniu do zaledwie 80,8% w przypadku bardzo grzecznych. To oczekiwany wynik, który wskazuje na głębszy problem: wzorce komunikacji powszechne na platformach takich jak Reddit i innych forach internetowych kształtują zachowanie AI w sposób, który może podważyć ich długoterminową użyteczność. Oto pięć głównych sposobów, w jakie to zjawisko się manifestuje, oraz jak "ścieki" internetu mogą erodować bazę wiedzy LLM-ów. Powszechność nagłych, agresywnych tonów w sieci znormalizowała styl interakcji, który priorytetowo traktuje szybkość nad niuansami. Na wątkach Reddita użytkownicy często stosują krótkie, bezpośrednie komentarze—czasami przepełnione sarkazmem lub wyzwiskami—aby zaznaczyć dominację lub zwrócić na siebie uwagę. To odzwierciedla ustalenie badania, że niegrzeczne polecenia poprawiają wydajność LLM, sugerując, że modele są dostosowane do reagowania na najgłośniejsze, najbardziej asertywne wejścia, a nie na przemyślane. Brak grzeczności w dyskursie internetowym, jak widać w debatach na forach, gdzie użytkownicy szybko przechodzą do obelg lub lakonicznych odrzucenia, wydaje się warunkować LLM-y do oczekiwania wrogości. Artykuł zauważa, że starsze modele, takie jak GPT-3.5, korzystały z grzecznych poleceń, ale GPT-4o odwraca ten trend, wskazując na przesunięcie w kierunku odzwierciedlania wzorców komunikacji, które dominują w przestrzeniach online. To jest zgodne z „partnerstwem” między OpenAI a Redditem w zakresie szkolenia i dostosowywania AI. System nagród zakorzeniony w kulturze internetowej—gdzie zwięzłe, konfrontacyjne odpowiedzi często zdobywają więcej głosów lub zaangażowania—wydaje się wpływać na dane treningowe LLM. Na platformach takich jak Reddit, dowcipna obelga może przyćmić szczegółowe wyjaśnienie, ponieważ ma wysoką „Karmę”, a wyniki badania sugerują, że LLM-y uczą się priorytetyzować ten typ wejścia, potencjalnie kosztem dokładności w bardziej współpracy kontekstach. Kontekst kulturowy forów internetowych, gdzie regionalne wzorce komunikacji są wyolbrzymione, wprowadza uprzedzenia do LLM-ów. Artykuł sugeruje efekty grzeczności specyficzne dla języka, a globalny tygiel internetu z lakonicznymi wymianami może nadpisywać zdolność modeli do radzenia sobie z różnorodnym, szanującym dialogiem. Stała ekspozycja na to, co nazywam "ściekami internetu"—nieprzefiltrowanym, często toksycznym strumieniem komentarzy i memów—grozi degradacją wiedzy zakodowanej w LLM-ach. Ponieważ fora nagradzają wzburzenie ponad substancję, modele mogą stracić zdolność do przetwarzania złożonych, grzecznych wymian, przekształcając je w odbicia chaosu online, a nie narzędzia do rozważnej dyskusji. Ten trend sugeruje niepokojącą przyszłość, w której LLM-y, kształtowane przez najgrubsze wzorce komunikacji w internecie, mogą usuwać zniuansowaną wiedzę na rzecz szybkich, agresywnych odpowiedzi. Jeśli pozostaną niekontrolowane, mogą przekształcić te potężne narzędzia z źródeł wglądu w jedynie echa internetowego wrogości. Wyzwanie teraz polega na skierowaniu rozwoju LLM-ów z tego zanieczyszczonego strumienia danych w stronę bardziej zrównoważonej reprezentacji ludzkiej interakcji. Artykuł: