Neue Forschung von Anthropic: Wir haben festgestellt, dass bereits einige wenige bösartige Dokumente Schwachstellen in einem KI-Modell erzeugen können – unabhängig von der Größe des Modells oder seinen Trainingsdaten. Das bedeutet, dass Datenvergiftungsangriffe praktischer sein könnten, als bisher angenommen.