Nuova ricerca di Anthropic: abbiamo scoperto che bastano pochi documenti malevoli per produrre vulnerabilità in un modello di AI, indipendentemente dalle dimensioni del modello o dai suoi dati di addestramento. Questo significa che gli attacchi di avvelenamento dei dati potrebbero essere più pratici di quanto si credesse in precedenza.