Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G allena il più grande LLM distribuito di sempre - oltre 100 miliardi di parametri!!
L'ultimo traguardo di 0G dimostra che i LLM con oltre 100 miliardi di parametri possono essere addestrati su cluster decentralizzati anche con internet lento.
Questo sfata il mito che i modelli AI massicci richiedano supercomputer centralizzati e apre la porta a una nuova era di AI aperta, a basso costo e globalmente accessibile.
L'infrastruttura dati decentralizzata di 0G è la spina dorsale, che consente un'AI scalabile, privata e resistente alla censura per tutti.
TLDR:
→ DiLoCoX risolve il problema del coordinamento computazionale.
→ 0G risolve il problema dell'accesso ai dati, della proprietà e della disponibilità.
→ Insieme, sblocchiamo il futuro di un'AI veramente decentralizzata e aperta.
Perché questo è un importante traguardo?
L'addestramento tradizionale di modelli massicci (come GPT-3) si basa su cluster GPU centralizzati ad alta velocità con interconnessioni ultra-veloci (ad es., NVIDIA NVLink, Infiniband). Questo è costoso, centralizzato e limitato a pochi attori (OpenAI, Google, Meta, ecc.).
DiLoCoX dimostra che ora è possibile addestrare modelli con oltre 100 miliardi di parametri su cluster decentralizzati utilizzando solo 1Gbps di larghezza di banda; il tipo di configurazione disponibile per la maggior parte dei laboratori di ricerca o delle reti alimentate dalla comunità.
Il futuro dell'AI è qui! 0G Labs FTW


5 ago, 08:53
Un cambiamento importante nelle fondamenta dell'IA è in corso, e 0G Labs lo sta guidando.
L'ultimo articolo di @sandy_carter su @Forbes cattura l'ultima scoperta di @0G_Research: 0G addestra il più grande LLM distribuito mai realizzato - oltre 100 miliardi di parametri.
Scopri di più →

2,15K
Principali
Ranking
Preferiti