0G trenuje największy rozproszony LLM w historii - 100B+ parametrów!! Ostatni przełom 0G udowadnia, że modele LLM z ponad 100 miliardami parametrów mogą być trenowane na zdecentralizowanych klastrach, nawet przy wolnym internecie. To obala mit, że masywne modele AI wymagają scentralizowanych superkomputerów i otwiera drzwi do nowej ery otwartej, niskokosztowej i globalnie dostępnej AI. Zdecentralizowana infrastruktura danych 0G jest kręgosłupem, umożliwiającym skalowalną, prywatną i odporną na cenzurę AI dla każdego. TLDR: → DiLoCoX rozwiązuje problem koordynacji obliczeń. → 0G rozwiązuje problem dostępu do danych, własności i dostępności. → Razem odblokowujemy przyszłość prawdziwie zdecentralizowanej, otwartej AI. Dlaczego to ważny przełom? Tradycyjne trenowanie masywnych modeli (jak GPT-3) opiera się na scentralizowanych, szybkich klastrach GPU z ultra-szybkimi połączeniami (np. NVIDIA NVLink, Infiniband). To jest drogie, scentralizowane i ograniczone do kilku graczy (OpenAI, Google, Meta itd.). DiLoCoX udowadnia, że teraz możliwe jest trenowanie modeli z ponad 100 miliardami parametrów na zdecentralizowanych klastrach, używając tylko 1Gbps pasma; taki rodzaj konfiguracji jest dostępny dla większości laboratoriów badawczych lub sieci wspieranych przez społeczność. Przyszłość AI jest tutaj! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 sie, 08:53
Wielka zmiana w fundamentach AI jest w toku, a 0G Labs prowadzi ją. Najnowszy artykuł @sandy_carter na @Forbes przedstawia najnowszy przełom @0G_Research: 0G szkoli największy rozproszony LLM w historii - 100B+ parametrów. Zanurz się →
1,87K