Rozmawiam z kilkoma osobami o tym, co narzędzia AI i programowania oznaczają dla bezpieczeństwa cybernetycznego. Skrócone podsumowanie: AI do ataku,🔥🔥🔥. AI do obrony,🗑️🔥.
W ofensywie, AI: 1) znajduje więcej luk 2) może uzbroić exploity (opinie ekspertów się różnią—ale zapytaj, kiedy ostatnio próbowali. 6 miesięcy temu to odległa historia w AI) 3) prawdopodobnie sprawia, że skrypty dzieci—którzy nie mają pojęcia, jak używać narzędzi napisanych przez kogoś innego—są bardziej efektywne.
W obronie: Przeczytałem argumenty, że AI pomaga organizacjom w łatanie ich systemów i w poznawaniu tego, co znajduje się w sieci. Nawet jeśli to prawda, napastnicy zawsze znajdują sposoby, aby się włamać. To jest lekcja z hakowania przez państwa narodowe, którą niewielu ludzi zdaje się przyswoić. A AI demokratyzuje/proliferuje te narzędzia.
Rzeczywistość obrony, nawet przy zasobach państw narodowych, jest ponura. Jeśli porozmawiasz z osobami, które tam pracowały, usłyszysz, że obronne strony US Cyber Command i izraelskiego 8200 od lat zmagają się z brakiem znaczenia.
Jedną z możliwości, oczywiście, jest monitorowanie przez AI, a dalej w spektrum do źle zdefiniowanej science fiction, wypuszczenie agentów AI w twoim systemie, a może nawet kontratak. Te narzędzia są, oczywiście, podatne na ataki i mogą zaatakować niewłaściwy cel. A to wszystko jest znacznie długoterminowe.
828