Nueva investigación con el @AISecurityInst del Reino Unido y el @turinginst: Descubrimos que solo unos pocos documentos maliciosos pueden producir vulnerabilidades en un LLM, independientemente del tamaño del modelo o de sus datos de entrenamiento. Los ataques de envenenamiento de datos podrían ser más prácticos de lo que se creía anteriormente.