Ny forskning i samarbete med den brittiska @AISecurityInst och @turinginst: Vi upptäckte att bara några få skadliga dokument kan skapa sårbarheter i en LLM – oavsett storleken på modellen eller dess träningsdata. Dataförgiftningsattacker kan vara mer praktiska än man tidigare trott.