Penelitian baru dengan @AISecurityInst Inggris dan @turinginst: Kami menemukan bahwa hanya beberapa dokumen berbahaya yang dapat menghasilkan kerentanan dalam LLM—terlepas dari ukuran model atau data pelatihannya. Serangan keracunan data mungkin lebih praktis daripada yang diyakini sebelumnya.