Nghiên cứu mới với @AISecurityInst và @turinginst của Vương quốc Anh: Chúng tôi phát hiện rằng chỉ một vài tài liệu độc hại có thể tạo ra lỗ hổng trong một LLM—bất kể kích thước của mô hình hay dữ liệu huấn luyện của nó. Các cuộc tấn công làm ô nhiễm dữ liệu có thể thực tế hơn những gì trước đây được tin tưởng.