يعد GLM 4.6 (المنطق) المحدث من Z ai أحد أكثر طرازات الأوزان المفتوحة ذكاء ، مع ذكاء قريب من DeepSeek V3.1 (المنطق) و Qwen3 235B 2507 (المنطق) 🧠 الوجبات السريعة الرئيسية لقياس مستوى الذكاء: ➤ أداء نموذج التفكير: سجل GLM 4.6 (التفكير) 56 في مؤشر ذكاء التحليل الاصطناعي ، ارتفاعا من درجة GLM 4.5 البالغة 51 في وضع التفكير ➤ أداء نموذج غير منطقي: في وضع عدم التفكير ، يحقق GLM 4.6 درجة 45 ، مما يجعله متقدما بنقطتين على GPT-5 (الحد الأدنى ، غير المنطقي) ➤ كفاءة الرمز المميز: زادت Z ai من درجات تقييم GLM مع تقليل الرموز المميزة للإخراج. بالنسبة إلى GLM 4.6 (المنطق) ، نرى انخفاضا جوهريا بنسبة 14٪ في استخدام الرمز المميز لتشغيل مؤشر ذكاء التحليل الاصطناعي من 100 مليون إلى 86 مليونا ، مقارنة ب GLM 4.5 (التفكير). يختلف هذا عن ترقيات النموذج الأخرى التي رأيناها حيث غالبا ما ترتبط الزيادة في الذكاء بزيادة استخدام الرمز المميز الناتج في وضع عدم التفكير ، يستخدم GLM 4.6 12 مليون رمز إخراج لمؤشر ذكاء التحليل الاصطناعي تفاصيل النموذج الأخرى: ➤ 🪙 نافذة السياق: 200 ألف سياق رمزي. هذا أكبر مقارنة بنافذة سياق GLM 4.5 البالغة 128 ألف رمز ➤ 📏 الحجم: يحتوي GLM 4.6 على 355B معلمات إجمالية و 32B معلمات نشطة - وهذا هو نفس GLM 4.5. للنشر الذاتي، سيتطلب GLM 4.6 ~ 710 جيجابايت من الذاكرة لتخزين الأوزان بدقة BF16 الأصلية ولا يمكن نشرها على عقدة NVIDIA 8xH100 واحدة (~640 جيجابايت من الذاكرة) ➤ ©️ الترخيص: GLM 4.6 متاح بموجب ترخيص معهد ماساتشوستس للتكنولوجيا ➤ 🌐 التوفر: يتوفر GLM 4.6 على واجهة برمجة تطبيقات الطرف الأول من Z ai والعديد من واجهات برمجة التطبيقات التابعة لجهات خارجية مثل DeepInfra (FP8) و Novita (BF16) و GMI Cloud (BF16) و Parasail (FP8)
يعمل GLM 4.6 (التفكير) على تحسين كفاءة الرمز المميز ، مما يتطلب 14 مليون رمز إخراج أقل مقارنة ب GLM 4.5 (المنطق) لمؤشر ذكاء التحليل الاصطناعي
يتم تشغيل evals الكاملة بشكل مستقل بواسطة Artificial Analysis
قارن بين أداء GLM 4.6 بالنسبة للنماذج التي تستخدمها أو تفكر في:
‏‎41.41‏K