Nieuw onderzoek met het VK @AISecurityInst en de @turinginst: We hebben ontdekt dat slechts een paar kwaadaardige documenten kwetsbaarheden in een LLM kunnen veroorzaken—ongeacht de grootte van het model of de trainingsdata. Datavergiftigingsaanvallen kunnen praktischer zijn dan eerder werd gedacht.