بحث أنثروبي جديد: وجدنا أن عددا قليلا فقط من المستندات الضارة يمكن أن تنتج ثغرات أمنية في نموذج الذكاء الاصطناعي - بغض النظر عن حجم النموذج أو بيانات التدريب الخاصة به. هذا يعني أن هجمات تسمم البيانات قد تكون أكثر عملية مما كان يعتقد سابقا.