Nova pesquisa com o @AISecurityInst do Reino Unido e o @turinginst: Descobrimos que apenas alguns documentos maliciosos podem produzir vulnerabilidades em um LLM—independentemente do tamanho do modelo ou dos seus dados de treinamento. Ataques de envenenamento de dados podem ser mais práticos do que se acreditava anteriormente.