Нове дослідження з британськими @AISecurityInst та @turinginst: Ми виявили, що лише кілька шкідливих документів можуть створювати вразливості в LLM — незалежно від розміру моделі або її навчальних даних. Атаки з отруєнням даних можуть бути більш практичними, ніж вважалося раніше.