Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
0G trener den største distribuerte LLM til nå - 100B+ parametere!!
0Gs siste gjennombrudd beviser at 100B+ parameter LLM-er kan trenes på desentraliserte klynger selv med tregt internett.
Dette knuser myten om at massive AI-modeller krever sentraliserte superdatamaskiner, og åpner døren til en ny æra med åpen, rimelig og globalt tilgjengelig AI.
0Gs desentraliserte datainfrastruktur er ryggraden, og muliggjør skalerbar, privat og sensurbestandig AI for alle.
TLDR:
→ DiLoCoX løser problemet med datakoordinering.
→ 0G løser problemet med datatilgang, eierskap og tilgjengelighet.
→ Sammen låser vi opp fremtiden for virkelig desentralisert, åpen AI.
Hvorfor er dette et viktig gjennombrudd?
Tradisjonell trening av massive modeller (som GPT-3) er avhengig av sentraliserte, høyhastighets GPU-klynger med ultraraske sammenkoblinger (f.eks. Det er dyrt, sentralisert og begrenset til noen få aktører (OpenAI, Google, Meta, etc.).
DiLoCoX beviser at det nå er mulig å trene 100B+ parametermodeller over desentraliserte klynger ved å bruke bare 1 Gbps båndbredde; den typen oppsett som er tilgjengelig for de fleste forskningslaboratorier eller fellesskapsdrevne nettverk.
Fremtiden til AI er her! 0G Labs FTW


5. aug., 08:53
Et stort skifte i grunnlaget for AI er på gang, og 0G Labs leder det.
@sandy_carter siste artikkel om @Forbes fanger @0G_Research siste gjennombrudd: 0G trener den største distribuerte LLM hittil - 100B+ parametere.
Dykk ned i →

1,86K
Topp
Rangering
Favoritter