Nouvelle recherche d'Anthropic : Nous avons découvert que quelques documents malveillants peuvent produire des vulnérabilités dans un modèle d'IA, peu importe la taille du modèle ou de ses données d'entraînement. Cela signifie que les attaques par empoisonnement de données pourraient être plus pratiques que ce que l'on croyait auparavant.