Nueva investigación de Anthropic: descubrimos que solo unos pocos documentos maliciosos pueden producir vulnerabilidades en un modelo de IA, independientemente del tamaño del modelo o sus datos de entrenamiento. Esto significa que los ataques de envenenamiento de datos pueden ser más prácticos de lo que se creía anteriormente.