Nueva investigación con el Reino Unido @AISecurityInst y el @turinginst: Descubrimos que solo unos pocos documentos maliciosos pueden producir vulnerabilidades en un LLM, independientemente del tamaño del modelo o sus datos de entrenamiento. Los ataques de envenenamiento de datos pueden ser más prácticos de lo que se creía anteriormente.