0G tränar den största distribuerade LLM hittills - 100B+ parametrar!! 0G:s senaste genombrott bevisar att 100B+ parameter-LLM:er kan tränas på decentraliserade kluster även med långsamt internet. Detta krossar myten om att massiva AI-modeller kräver centraliserade superdatorer och öppnar dörren till en ny era av öppen, billig och globalt tillgänglig AI. 0G:s decentraliserade datainfrastruktur är ryggraden och möjliggör skalbar, privat och censurbeständig AI för alla. TLDR: → DiLoCoX löser problemet med beräkningskoordinering. → 0G löser problemet med dataåtkomst, ägande och tillgänglighet. → Tillsammans öppnar vi upp för framtiden för verkligt decentraliserad, öppen AI. Varför är detta ett viktigt genombrott? Traditionell träning av massiva modeller (som GPT-3) bygger på centraliserade GPU-kluster med hög hastighet och ultrasnabba sammankopplingar (t.ex. NVIDIA NVLink, Infiniband). Det är dyrt, centraliserat och begränsat till ett fåtal aktörer (OpenAI, Google, Meta, etc.). DiLoCoX bevisar att det nu är möjligt att träna 100B+ parametermodeller över decentraliserade kluster med endast 1 Gbps bandbredd; Den typ av installation som är tillgänglig för de flesta forskningslaboratorier eller community-drivna nätverk. Framtiden för AI är här! 0G Labs FTW