0G trénuje dosud největší distribuované LLM - 100B+ Parametry!! Nejnovější průlom 0G dokazuje, že LLM s parametry 100B+ lze trénovat na decentralizovaných clusterech i s pomalým internetem. To boří mýtus, že masivní modely umělé inteligence vyžadují centralizované superpočítače, a otevírá dveře nové éře otevřené, levné a globálně dostupné umělé inteligence. Decentralizovaná datová infrastruktura 0G je páteří, která umožňuje škálovatelnou, soukromou a cenzuru odolnou umělou inteligenci pro každého. TLDR: → DiLoCoX řeší problém koordinace výpočtů. → 0G řeší problém s přístupem k datům, jejich vlastnictvím a dostupností. → Společně odemykáme budoucnost skutečně decentralizované, otevřené umělé inteligence. Proč je to důležitý průlom? Tradiční trénování masivních modelů (jako je GPT-3) se opírá o centralizované, vysokorychlostní clustery GPU s ultrarychlým propojením (např. NVIDIA NVLink, Infiniband). To je drahé, centralizované a omezené na několik hráčů (OpenAI, Google, Meta atd.). DiLoCoX dokazuje, že je nyní možné trénovat modely parametrů 100B+ přes decentralizované clustery pouze s využitím šířky pásma 1 Gb/s; Druh nastavení, který je k dispozici většině výzkumných laboratoří nebo komunitních sítí. Budoucnost umělé inteligence je tady! 0G Labs FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L15. 8. 08:53
Dochází k zásadnímu posunu v základech umělé inteligence a společnost 0G Labs je v jeho čele. Nejnovější článek @sandy_carter o @Forbes zachycuje nejnovější průlom @0G_Research: 0G trénuje dosud největší distribuované LLM - 100B+ parametry. Ponořte se do →
1,86K