Ny forskning med UK @AISecurityInst og @turinginst: Vi fant ut at bare noen få skadelige dokumenter kan produsere sårbarheter i en LLM – uavhengig av størrelsen på modellen eller treningsdataene. Dataforgiftningsangrep kan være mer praktisk enn tidligere antatt.