Penelitian Antropik Baru: Kami menemukan bahwa hanya beberapa dokumen berbahaya yang dapat menghasilkan kerentanan dalam model AI—terlepas dari ukuran model atau data pelatihannya. Ini berarti bahwa serangan keracunan data mungkin lebih praktis daripada yang diyakini sebelumnya.