Nova pesquisa com o Reino Unido @AISecurityInst e o @turinginst: Descobrimos que apenas alguns documentos maliciosos podem produzir vulnerabilidades em um LLM, independentemente do tamanho do modelo ou de seus dados de treinamento. Os ataques de envenenamento de dados podem ser mais práticos do que se acreditava anteriormente.