يقوم 0G بتدريب أكبر LLM موزعة حتى الآن - معلمات 100B + !! يثبت أحدث اختراق ل 0G أنه يمكن تدريب LLMs معلمة 100B + على مجموعات لامركزية حتى مع بطء الإنترنت. هذا يحطم الأسطورة القائلة بأن نماذج الذكاء الاصطناعي الضخمة تتطلب أجهزة كمبيوتر عملاقة مركزية ، ويفتح الباب أمام حقبة جديدة من الذكاء الاصطناعي المفتوح والمنخفض التكلفة والذي يمكن الوصول إليه عالميا. البنية التحتية للبيانات اللامركزية من 0G هي العمود الفقري ، مما يتيح الذكاء الاصطناعي القابل للتطوير والخاص والمقاوم للرقابة للجميع. TLDR: → يحل DiLoCoX مشكلة تنسيق الحوسبة. يحل → 0G مشكلة الوصول إلى البيانات والملكية والتوافر. → معا ، نفتح مستقبل الذكاء الاصطناعي اللامركزية والمفتوحة حقا. لماذا يعد هذا اختراقا مهما؟ يعتمد التدريب التقليدي للنماذج الضخمة (مثل GPT-3) على مجموعات GPU المركزية عالية السرعة مع وصلات بينية فائقة السرعة (على سبيل المثال ، NVIDIA NVLink و Infiniband). هذا مكلف ومركزي ويقتصر على عدد قليل من اللاعبين (OpenAI و Google و Meta وما إلى ذلك). يثبت DiLoCoX أنه من الممكن الآن تدريب نماذج معلمات 100B + على مجموعات لامركزية باستخدام عرض النطاق الترددي 1 جيجابت في الثانية فقط. نوع الإعداد المتاح لمعظم مختبرات الأبحاث أو الشبكات التي يدعمها المجتمع. مستقبل الذكاء الاصطناعي هنا! 0G مختبرات FTW
0G Labs (Ø,G) - AI L1
0G Labs (Ø,G) - AI L1‏5 أغسطس، 08:53
هناك تحول كبير في أسس الذكاء الاصطناعي جاري ، وتقوده 0G Labs. يلتقط أحدث مقال ل @sandy_carter عن @Forbes أحدث اختراق لشركة @0G_Research: يقوم 0G بتدريب أكبر LLM موزعة حتى الآن - معلمات 100B +. الغوص في →
‏‎1.87‏K