Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G trenuje największy rozproszony LLM w historii - 100B+ parametrów!!
Ostatni przełom 0G udowadnia, że modele LLM z ponad 100 miliardami parametrów mogą być trenowane na zdecentralizowanych klastrach, nawet przy wolnym internecie.
To obala mit, że masywne modele AI wymagają scentralizowanych superkomputerów i otwiera drzwi do nowej ery otwartej, niskokosztowej i globalnie dostępnej AI.
Zdecentralizowana infrastruktura danych 0G jest kręgosłupem, umożliwiającym skalowalną, prywatną i odporną na cenzurę AI dla każdego.
TLDR:
→ DiLoCoX rozwiązuje problem koordynacji obliczeń.
→ 0G rozwiązuje problem dostępu do danych, własności i dostępności.
→ Razem odblokowujemy przyszłość prawdziwie zdecentralizowanej, otwartej AI.
Dlaczego to ważny przełom?
Tradycyjne trenowanie masywnych modeli (jak GPT-3) opiera się na scentralizowanych, szybkich klastrach GPU z ultra-szybkimi połączeniami (np. NVIDIA NVLink, Infiniband). To jest drogie, scentralizowane i ograniczone do kilku graczy (OpenAI, Google, Meta itd.).
DiLoCoX udowadnia, że teraz możliwe jest trenowanie modeli z ponad 100 miliardami parametrów na zdecentralizowanych klastrach, używając tylko 1Gbps pasma; taki rodzaj konfiguracji jest dostępny dla większości laboratoriów badawczych lub sieci wspieranych przez społeczność.
Przyszłość AI jest tutaj! 0G Labs FTW


5 sie, 08:53
Wielka zmiana w fundamentach AI jest w toku, a 0G Labs prowadzi ją.
Najnowszy artykuł @sandy_carter na @Forbes przedstawia najnowszy przełom @0G_Research: 0G szkoli największy rozproszony LLM w historii - 100B+ parametrów.
Zanurz się →

1,87K
Najlepsze
Ranking
Ulubione