Nova pesquisa da Anthropic: Descobrimos que apenas alguns documentos maliciosos podem produzir vulnerabilidades em um modelo de IA—independentemente do tamanho do modelo ou dos dados de treinamento. Isso significa que ataques de envenenamento de dados podem ser mais práticos do que se acreditava anteriormente.