Nueva investigación de Anthropic: encontramos que solo unos pocos documentos maliciosos pueden producir vulnerabilidades en un modelo de IA, independientemente del tamaño del modelo o de sus datos de entrenamiento. Esto significa que los ataques de envenenamiento de datos podrían ser más prácticos de lo que se creía anteriormente.