Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G тренує найбільший розподілений LLM на сьогоднішній день - 100B+ параметрів!!
Останній прорив 0G доводить, що LLM з параметром 100B+ можна тренувати на децентралізованих кластерах навіть за повільного інтернету.
Це руйнує міф про те, що для масивних моделей штучного інтелекту потрібні централізовані суперкомп'ютери, і відкриває двері в нову еру відкритого, недорогого та глобально доступного штучного інтелекту.
Інфраструктура децентралізованих даних 0G є основою, що дозволяє масштабованим, приватним і стійким до цензури штучним інтелектом для всіх.
TLDR:
→ DiLoCoX вирішує проблему координації обчислень.
→ 0G вирішує проблему доступу до даних, власності та доступності.
→ Разом ми відкриваємо майбутнє справді децентралізованого, відкритого штучного інтелекту.
Чому це важливий прорив?
Традиційне навчання масивних моделей (наприклад, GPT-3) спирається на централізовані, високошвидкісні кластери графічних процесорів з надшвидкими з'єднаннями (наприклад, NVIDIA NVLink, Infiniband). Це дорого, централізовано та обмежено кількома гравцями (OpenAI, Google, Meta тощо).
DiLoCoX доводить, що тепер можна навчати моделі параметрів 100B+ на децентралізованих кластерах, використовуючи лише 1 Гбіт/с пропускну здатність; Тип налаштування, доступний для більшості дослідницьких лабораторій або мереж, що живляться від громади.
Майбутнє штучного інтелекту вже тут! 0G Labs FTW


5 серп., 08:53
Відбувається серйозний зсув у основах штучного інтелекту, і 0G Labs очолює його.
Остання стаття @sandy_carter про @Forbes фіксує останній прорив @0G_Research: 0G тренує найбільший розподілений LLM за всю історію - 100B+ параметрів.
Занурення в →

2,15K
Найкращі
Рейтинг
Вибране