新的Anthropic研究:我們發現僅僅幾個惡意文件就能在AI模型中產生漏洞——無論模型的大小或其訓練數據如何。 這意味著數據中毒攻擊可能比之前認為的更具實用性。