Nuove ricerche con il Regno Unito @AISecurityInst e il @turinginst: Abbiamo scoperto che solo pochi documenti malevoli possono produrre vulnerabilità in un LLM, indipendentemente dalle dimensioni del modello o dai suoi dati di addestramento. Gli attacchi di avvelenamento dei dati potrebbero essere più pratici di quanto si credesse in precedenza.