المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
يقوم 0G بتدريب أكبر LLM موزعة حتى الآن - معلمات 100B + !!
يثبت أحدث اختراق ل 0G أنه يمكن تدريب LLMs معلمة 100B + على مجموعات لامركزية حتى مع بطء الإنترنت.
هذا يحطم الأسطورة القائلة بأن نماذج الذكاء الاصطناعي الضخمة تتطلب أجهزة كمبيوتر عملاقة مركزية ، ويفتح الباب أمام حقبة جديدة من الذكاء الاصطناعي المفتوح والمنخفض التكلفة والذي يمكن الوصول إليه عالميا.
البنية التحتية للبيانات اللامركزية من 0G هي العمود الفقري ، مما يتيح الذكاء الاصطناعي القابل للتطوير والخاص والمقاوم للرقابة للجميع.
TLDR:
→ يحل DiLoCoX مشكلة تنسيق الحوسبة.
يحل → 0G مشكلة الوصول إلى البيانات والملكية والتوافر.
→ معا ، نفتح مستقبل الذكاء الاصطناعي اللامركزية والمفتوحة حقا.
لماذا يعد هذا اختراقا مهما؟
يعتمد التدريب التقليدي للنماذج الضخمة (مثل GPT-3) على مجموعات GPU المركزية عالية السرعة مع وصلات بينية فائقة السرعة (على سبيل المثال ، NVIDIA NVLink و Infiniband). هذا مكلف ومركزي ويقتصر على عدد قليل من اللاعبين (OpenAI و Google و Meta وما إلى ذلك).
يثبت DiLoCoX أنه من الممكن الآن تدريب نماذج معلمات 100B + على مجموعات لامركزية باستخدام عرض النطاق الترددي 1 جيجابت في الثانية فقط. نوع الإعداد المتاح لمعظم مختبرات الأبحاث أو الشبكات التي يدعمها المجتمع.
مستقبل الذكاء الاصطناعي هنا! 0G مختبرات FTW


5 أغسطس، 08:53
هناك تحول كبير في أسس الذكاء الاصطناعي جاري ، وتقوده 0G Labs.
يلتقط أحدث مقال ل @sandy_carter عن @Forbes أحدث اختراق لشركة @0G_Research: يقوم 0G بتدريب أكبر LLM موزعة حتى الآن - معلمات 100B +.
الغوص في →

1.87K
الأفضل
المُتصدِّرة
التطبيقات المفضلة