O nouă cercetare cu @AISecurityInst și @turinginst din Marea Britanie:
Am descoperit că doar câteva documente rău intenționate pot produce vulnerabilități într-un LLM, indiferent de dimensiunea modelului sau de datele sale de antrenament.
Atacurile de otrăvire a datelor ar putea fi mai practice decât se credea anterior.
Noi cercetări antropice: Am descoperit că doar câteva documente rău intenționate pot produce vulnerabilități într-un model AI, indiferent de dimensiunea modelului sau de datele sale de antrenament.
Aceasta înseamnă că atacurile de otrăvire a datelor ar putea fi mai practice decât se credea anterior.
Suntem într-un punct de inflexiune în impactul AI asupra securității cibernetice.
Claude depășește acum echipele umane în unele competiții de securitate cibernetică și ajută echipele să descopere și să remedieze vulnerabilitățile codului.
În același timp, atacatorii folosesc AI pentru a-și extinde operațiunile.