Ny antropisk forskning: Vi fann att bara några få skadliga dokument kan skapa sårbarheter i en AI-modell – oavsett modellens storlek eller dess träningsdata. Detta innebär att dataförgiftningsattacker kan vara mer praktiska än man tidigare trott.