Ny forskning i samarbete med den brittiska @AISecurityInst och @turinginst:
Vi upptäckte att bara några få skadliga dokument kan skapa sårbarheter i en LLM – oavsett storleken på modellen eller dess träningsdata.
Dataförgiftningsattacker kan vara mer praktiska än man tidigare trott.
Ny antropisk forskning: Vi fann att bara några få skadliga dokument kan skapa sårbarheter i en AI-modell – oavsett modellens storlek eller dess träningsdata.
Detta innebär att dataförgiftningsattacker kan vara mer praktiska än man tidigare trott.
Vi befinner oss vid en brytpunkt i AI:s inverkan på cybersäkerheten.
Claude presterar nu bättre än mänskliga team i vissa cybersäkerhetstävlingar och hjälper team att upptäcka och åtgärda kodsårbarheter.
Samtidigt använder angripare AI för att utöka sin verksamhet.