Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G antrenează cel mai mare LLM distribuit de până acum - 100B+ parametri!!
Cea mai recentă descoperire a 0G dovedește că LLM-urile cu parametri 100B+ pot fi antrenate pe clustere descentralizate chiar și cu internet lent.
Acest lucru spulberă mitul că modelele masive de inteligență artificială necesită supercomputere centralizate și deschide ușa către o nouă eră a inteligenței artificiale deschise, ieftine și accesibile la nivel global.
Infrastructura de date descentralizată a 0G este coloana vertebrală, permițând o inteligență artificială scalabilă, privată și rezistentă la cenzură pentru toată lumea.
TLDR:
→ DiLoCoX rezolvă problema coordonării calculului.
→ 0G rezolvă problema accesului, proprietății și disponibilității datelor.
→ Împreună, deblocăm viitorul inteligenței artificiale cu adevărat descentralizate și deschise.
De ce este aceasta o descoperire importantă?
Antrenamentul tradițional al modelelor masive (cum ar fi GPT-3) se bazează pe clustere GPU centralizate, de mare viteză, cu interconexiuni ultra-rapide (de exemplu, NVIDIA NVLink, Infiniband). Acest lucru este scump, centralizat și limitat la câțiva jucători (OpenAI, Google, Meta etc.).
DiLoCoX demonstrează că acum este posibil să antrenezi modele de parametri 100B+ pe clustere descentralizate folosind doar lățime de bandă de 1 Gbps; tipul de configurare disponibil pentru majoritatea laboratoarelor de cercetare sau rețelelor comunitare.
Viitorul AI este aici! 0G Labs FTW

Limită superioară
Clasament
Favorite