新的Anthropic研究:我们发现,仅仅几个恶意文档就能在AI模型中产生漏洞——无论模型的大小或其训练数据如何。 这意味着数据中毒攻击可能比之前认为的更为实际。