與英國 @AISecurityInst 和 @turinginst 的新研究: 我們發現僅僅幾個惡意文件就能在 LLM 中產生漏洞——無論模型的大小或其訓練數據如何。 數據中毒攻擊可能比之前認為的更具實用性。