Новое исследование Anthropic: мы обнаружили, что всего несколько вредоносных документов могут вызвать уязвимости в модели ИИ — независимо от размера модели или ее обучающих данных. Это означает, что атаки с отравлением данных могут быть более практичными, чем считалось ранее.