AIの基盤に大きな転換が進んでおり、0G Labsがそれをリードしています。 @sandy_carter の @Forbes に関する最新記事では、@0G_Research の最新のブレークスルーが捉えられています: 0G はこれまでで最大の分散 LLM である 100B+ パラメーターをトレーニングします。 →でダイブ
この論文は、以前は不可能と考えられていたタスクで、インターネットが遅い分散型クラスターで 100B+ パラメーター モデルのトレーニングを可能にすることで、AI における大きな進歩を示しています。
大規模な AI トレーニングをより速く、より安価に、誰でもどこでもアクセスできるようにすることで、中央集権的なテクノロジー大手の独占を打破します。
これがスレッドの終わりです。
41.44K