Nový antropický výzkum: Zjistili jsme, že jen několik škodlivých dokumentů může způsobit zranitelnosti v modelu umělé inteligence – bez ohledu na velikost modelu nebo jeho trénovací data. To znamená, že útoky s otravou dat mohou být praktičtější, než se dříve věřilo.