De nouvelles recherches avec le Royaume-Uni @AISecurityInst et le @turinginst : Nous avons découvert que quelques documents malveillants peuvent produire des vulnérabilités dans un LLM, peu importe la taille du modèle ou ses données d'entraînement. Les attaques par empoisonnement de données pourraient être plus pratiques que ce que l'on croyait auparavant.