0G тренує найбільший розподілений LLM на сьогоднішній день - 100B+ параметрів!! Останній прорив 0G доводить, що LLM з параметром 100B+ можна тренувати на децентралізованих кластерах навіть за повільного інтернету. Це руйнує міф про те, що для масивних моделей штучного інтелекту потрібні централізовані суперкомп'ютери, і відкриває двері в нову еру відкритого, недорогого та глобально доступного штучного інтелекту. Інфраструктура децентралізованих даних 0G є основою, що дозволяє масштабованим, приватним і стійким до цензури штучним інтелектом для всіх. TLDR: → DiLoCoX вирішує проблему координації обчислень. → 0G вирішує проблему доступу до даних, власності та доступності. → Разом ми відкриваємо майбутнє справді децентралізованого, відкритого штучного інтелекту. Чому це важливий прорив? Традиційне навчання масивних моделей (наприклад, GPT-3) спирається на централізовані, високошвидкісні кластери графічних процесорів з надшвидкими з'єднаннями (наприклад, NVIDIA NVLink, Infiniband). Це дорого, централізовано та обмежено кількома гравцями (OpenAI, Google, Meta тощо). DiLoCoX доводить, що тепер можна навчати моделі параметрів 100B+ на децентралізованих кластерах, використовуючи лише 1 Гбіт/с пропускну здатність; Тип налаштування, доступний для більшості дослідницьких лабораторій або мереж, що живляться від громади. Майбутнє штучного інтелекту вже тут! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 серп., 08:53
Відбувається серйозний зсув у основах штучного інтелекту, і 0G Labs очолює його. Остання стаття @sandy_carter про @Forbes фіксує останній прорив @0G_Research: 0G тренує найбільший розподілений LLM за всю історію - 100B+ параметрів. Занурення в →
2,15K