Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G melatih LLM terdistribusi terbesar - 100B+ Parameter!!
Terobosan terbaru 0G membuktikan LLM parameter 100B+ dapat dilatih pada klaster terdesentralisasi bahkan dengan internet yang lambat.
Ini menghancurkan mitos bahwa model AI besar-besaran membutuhkan superkomputer terpusat, dan membuka pintu ke era baru AI terbuka, berbiaya rendah, dan dapat diakses secara global.
Infra data terdesentralisasi 0G adalah tulang punggungnya, memungkinkan AI yang dapat diskalakan, pribadi, dan tahan sensor untuk semua orang.
TLDR:
→ DiLoCoX memecahkan masalah koordinasi komputasi.
→ 0G memecahkan masalah akses, kepemilikan, dan ketersediaan data.
→ Bersama-sama, kami membuka masa depan AI terbuka yang benar-benar terdesentralisasi.
Mengapa ini merupakan terobosan penting?
Pelatihan tradisional model besar (seperti GPT-3) bergantung pada kluster GPU berkecepatan tinggi terpusat dengan interkoneksi ultra-cepat (misalnya, NVIDIA NVLink, Infiniband). Itu mahal, terpusat, dan terbatas pada beberapa pemain (OpenAI, Google, Meta, dll.).
DiLoCoX membuktikan sekarang dimungkinkan untuk melatih model parameter 100B+ melalui kluster terdesentralisasi hanya menggunakan bandwidth 1Gbps; jenis pengaturan yang tersedia untuk sebagian besar laboratorium penelitian atau jaringan yang didukung komunitas.
Masa depan AI ada di sini! 0G Labs FTW


5 Agu, 08.53
Pergeseran besar dalam fondasi AI sedang berlangsung, dan 0G Labs memimpinnya.
Artikel terbaru @sandy_carter tentang @Forbes menangkap terobosan terbaru @0G_Research: 0G melatih LLM terdistribusi terbesar - parameter 100B+.
Menyelam di →

1,86K
Teratas
Peringkat
Favorit