与英国 @AISecurityInst 和 @turinginst 的新研究: 我们发现,仅仅几个恶意文档就能在 LLM 中产生漏洞——无论模型的大小或其训练数据如何。 数据中毒攻击可能比之前认为的更为实际。