Nova pesquisa da Anthropic: Descobrimos que apenas alguns documentos maliciosos podem produzir vulnerabilidades em um modelo de IA, independentemente do tamanho do modelo ou de seus dados de treinamento. Isso significa que os ataques de envenenamento de dados podem ser mais práticos do que se acreditava anteriormente.