Новое исследование с @AISecurityInst и @turinginst в Великобритании: Мы обнаружили, что всего несколько вредоносных документов могут вызвать уязвимости в LLM — независимо от размера модели или ее обучающих данных. Атаки с отравлением данных могут быть более практичными, чем считалось ранее.