0G allena il più grande LLM distribuito di sempre - oltre 100 miliardi di parametri!! L'ultimo traguardo di 0G dimostra che i LLM con oltre 100 miliardi di parametri possono essere addestrati su cluster decentralizzati anche con internet lento. Questo sfata il mito che i modelli AI massicci richiedano supercomputer centralizzati e apre la porta a una nuova era di AI aperta, a basso costo e globalmente accessibile. L'infrastruttura dati decentralizzata di 0G è la spina dorsale, che consente un'AI scalabile, privata e resistente alla censura per tutti. TLDR: → DiLoCoX risolve il problema del coordinamento computazionale. → 0G risolve il problema dell'accesso ai dati, della proprietà e della disponibilità. → Insieme, sblocchiamo il futuro di un'AI veramente decentralizzata e aperta. Perché questo è un importante traguardo? L'addestramento tradizionale di modelli massicci (come GPT-3) si basa su cluster GPU centralizzati ad alta velocità con interconnessioni ultra-veloci (ad es., NVIDIA NVLink, Infiniband). Questo è costoso, centralizzato e limitato a pochi attori (OpenAI, Google, Meta, ecc.). DiLoCoX dimostra che ora è possibile addestrare modelli con oltre 100 miliardi di parametri su cluster decentralizzati utilizzando solo 1Gbps di larghezza di banda; il tipo di configurazione disponibile per la maggior parte dei laboratori di ricerca o delle reti alimentate dalla comunità. Il futuro dell'AI è qui! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15 ago, 08:53
Un cambiamento importante nelle fondamenta dell'IA è in corso, e 0G Labs lo sta guidando. L'ultimo articolo di @sandy_carter su @Forbes cattura l'ultima scoperta di @0G_Research: 0G addestra il più grande LLM distribuito mai realizzato - oltre 100 miliardi di parametri. Scopri di più →
2,15K