Nový výzkum ve spolupráci s UK @AISecurityInst a @turinginst: Zjistili jsme, že jen několik škodlivých dokumentů může způsobit zranitelnosti v LLM – bez ohledu na velikost modelu nebo jeho trénovacích dat. Útoky s otravou dat mohou být praktičtější, než se dříve věřilo.