Nowe badania Anthropic: Odkryliśmy, że zaledwie kilka złośliwych dokumentów może wprowadzić luki w modelu AI—bez względu na rozmiar modelu czy dane treningowe. Oznacza to, że ataki polegające na zanieczyszczeniu danych mogą być bardziej praktyczne, niż wcześniej sądzono.