«LLM можуть викликати галюцинації речей, і це виглядає дуже реально. Я думаю, що ми знаходимося на ранніх етапах у сфері штучного інтелекту безпеки Web3». Дивіться повний епізод з @blocksek, головним інженером з безпеки @eigenlayer та @jack__sanford нижче