0G allena il più grande LLM distribuito di sempre - oltre 100 miliardi di parametri!! L'ultimo traguardo di 0G dimostra che i LLM con oltre 100 miliardi di parametri possono essere addestrati su cluster decentralizzati anche con internet lento. Questo sfata il mito che i modelli AI massicci richiedano supercomputer centralizzati e apre la porta a una nuova era di AI aperta, a basso costo e globalmente accessibile. L'infrastruttura dati decentralizzata di 0G è la spina dorsale, che consente un'AI scalabile, privata e resistente alla censura per tutti. TLDR: → DiLoCoX risolve il problema del coordinamento computazionale. → 0G risolve il problema dell'accesso ai dati, della proprietà e della disponibilità. → Insieme, sblocchiamo il futuro di un'AI veramente decentralizzata e aperta. Perché questo è un importante traguardo? L'addestramento tradizionale di modelli massicci (come GPT-3) si basa su cluster GPU centralizzati ad alta velocità con interconnessioni ultra-veloci (ad es., NVIDIA NVLink, Infiniband). Questo è costoso, centralizzato e limitato a pochi attori (OpenAI, Google, Meta, ecc.). DiLoCoX dimostra che ora è possibile addestrare modelli con oltre 100 miliardi di parametri su cluster decentralizzati utilizzando solo 1Gbps di larghezza di banda; il tipo di configurazione disponibile per la maggior parte dei laboratori di ricerca o delle reti alimentate dalla comunità. Il futuro dell'AI è qui! 0G Labs FTW