المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
تحليل مستقل لنماذج الذكاء الاصطناعي وموفري الاستضافة - اختر أفضل نموذج ومزود واجهة برمجة تطبيقات لحالة الاستخدام الخاصة بك
أطلقت شركة IBM Granite 4.0 - وهي عائلة جديدة من نماذج اللغات ذات الأوزان المفتوحة التي تتراوح في الحجم من 3B إلى 32B. تم توفير الوصول إلى التحليل الاصطناعي قبل الإصدار ، وتظهر معيارنا المعيارية أن Granite 4.0 H Small (32B / 9B إجمالي / معلمات نشطة) سجل مؤشر ذكاء يبلغ 23 ، مع قوة خاصة في كفاءة الرمز المميز
أصدرت شركة IBM اليوم أربعة طرازات جديدة: Granite 4.0 H Small (32B / 9B إجمالي / معلمات نشطة) ، Granite 4.0 H Tiny (7B / 1B) ، Granite 4.0 H Micro (3B / 3B) و Granite 4.0 Micro (3B / 3B). قمنا بتقييم Granite 4.0 Small (في وضع عدم التفكير) و Granite 4.0 Micro باستخدام مؤشر ذكاء التحليل الاصطناعي. تجمع طرازات Granite 4.0 بين كمية صغيرة من طبقات الانتباه القياسية على غرار المحولات مع غالبية طبقات Mamba التي تدعي أنها تقلل من متطلبات الذاكرة دون التأثير على الأداء
النقاط الرئيسية المعيارية:
➤ 🧠 الجرانيت 4.0 H الذكاء الصغير: في حالة عدم التفكير ، يسجل الجرانيت 4.0 H Small 23 في مؤشر ذكاء التحليل الاصطناعي - قفزة +8 نقاط على المؤشر مقارنة ب IBM Granite 3.3 8B (غير منطقي). الجرانيت 4.0 H الأماكن الصغيرة متقدمة على Gemma 3 27B (22) ولكن خلف Mistral Small 3.2 (29) و EXAONE 4.0 32B (غير منطقي ، 30) و Qwen3 30B A3B 2507 (غير منطقي ، 37) في الذكاء
➤ ⚡ الجرانيت 4.0 الذكاء الجزئي: في مؤشر ذكاء التحليل الاصطناعي ، يسجل الجرانيت 4.0 مايكرو 16. يتقدم على Gemma 3 4B (15) و LFM 2 2.6B (12).
➤ ⚙️ كفاءة الرمز المميز: يظهر Granite 4.0 H Small and Micro كفاءة رمزية رائعة - يستخدم Granite 4.0 Small 5.2M ، بينما يستخدم Granite 4.0 Micro 6.7M tokens لتشغيل مؤشر ذكاء التحليل الاصطناعي. كلا الطرازين أقل من الرموز المميزة من Granite 3.3 8B (غير المنطقي) ومعظم النماذج الأخرى ذات الأوزان المفتوحة غير المنطقية التي تقل عن 40B من إجمالي المعلمات (باستثناء Qwen3 0.6B الذي يستخدم 1.9 مليون رمز إخراج مميز)
تفاصيل النموذج الرئيسية:
➤ 🌐 التوفر: جميع الموديلات الأربعة متوفرة على Hugging Face. يتوفر Granite 4.0 H Small على Replicate وبسعر 0.06 دولار / 0.25 دولار لكل 1 مليون رمز إدخال / إخراج
➤ 📏 نافذة السياق: 128 ألف رمز
➤ ©️ الترخيص: تتوفر طرازات الجرانيت 4.0 بموجب ترخيص Apache 2.0


35.8K
أطلقت DeepSeek V3.2 Exp مع بنية DeepSeek Sparse Attention (DSA) الجديدة التي تدعي أنها تقلل من تأثير التحجيم التربيعي للحوسبة بطول السياق
لقد قمنا بشكل مستقل بقياس V3.2 Exp على أنه يحقق ذكاء مشابها ل DeepSeek V3.1 Terminus. تحولت DeepSeek إلى استخدام V3.2 لنقطة نهاية واجهة برمجة التطبيقات الرئيسية الخاصة بها وخفضت أسعار واجهة برمجة التطبيقات بنسبة >50٪. مع تسعير واجهة برمجة تطبيقات الطرف الأول المحدث من DeepSeek ، تنخفض تكلفة تشغيل مؤشر ذكاء التحليل الاصطناعي من 114 دولارا إلى 41 دولارا.
تدعي DeepSeek أنها "قامت بمحاذاة متعمد" تكوينات التدريب ل V3.1 Terminus و V3.2 Exp. يبدو أن أداء مطابقة V3.1 Terminus يوضح أن فوائد الأداء لبنية DeepSeek Spare Attention لا تأتي على حساب الذكاء.
النقاط الرئيسية المعيارية:
➤ 🧠 لا يوجد تغيير في الذكاء الإجمالي: في وضع التفكير ، يسجل DeepSeek V3.2 Exp 57 في مؤشر ذكاء التحليل الاصطناعي. نرى هذا مكافئا في الذكاء ل DeepSeek V3.1 Terminus (التفكير)
➤ 📈 لا يوجد انخفاض في منطق السياق الطويل: على الرغم من تغييرات بنية DeepSeek ، يبدو أن V3.2 Exp (المنطق) لا يظهر أي انخفاض في منطق السياق الطويل - مما يسجل ارتفاعا طفيفا في AA-LCR.
➤ ⚡ أداء غير منطقي: في وضع عدم التفكير ، لا يظهر DeepSeek V3.2 Exp أي تدهور في الذكاء ، حيث يطابق DeepSeek V3.1 Terminus بدرجة 46 في مؤشر ذكاء التحليل الاصطناعي
➤ ⚙️ كفاءة الرمز المميز: بالنسبة إلى DeepSeek V3.2 Exp (التفكير) ، ينخفض استخدام الرمز المميز لتشغيل مؤشر ذكاء التحليل الاصطناعي بشكل طفيف من 67 مليونا إلى 62 مليونا مقارنة ب V3.1 Terminus. يظل استخدام الرمز المميز دون تغيير للمتغير غير المنطقي
➤ 💲التسعير: خفضت DeepSeek بشكل كبير تسعير الرمز المميز لواجهة برمجة تطبيقات الطرف الأول من 0.56 دولار / 1.68 دولار إلى 0.28 دولار / 0.42 دولار لكل 1 مليون رمز إدخال / إخراج - انخفاض بنسبة 50٪ و 75٪ في تسعير رموز المدخلات والمخرجات على التوالي.
تفاصيل النموذج الأخرى:
➤ ©️ الترخيص: DeepSeek V3.2 Exp متاح بموجب ترخيص معهد ماساتشوستس للتكنولوجيا
➤ 🌐 التوفر: يتوفر DeepSeek V3.2 Exp عبر DeepSeek API ، والتي حلت محل DeepSeek V3.1 Terminus. لا يزال بإمكان المستخدمين الوصول إلى DeepSeek V3.1 Terminus عبر واجهة برمجة تطبيقات DeepSeek مؤقتة حتى 15 أكتوبر
➤ 📏 الحجم: يحتوي DeepSeek V3.2 Exp على 671B معلمات إجمالية و 37B معلمات نشطة. هذا هو نفس الموديلات السابقة في سلسلة DeepSeek V3 و R1

41.37K
أصدرت ServiceNow Apriel-v1.5-15B-Thinker ، وهو نموذج تفكير مفتوح الأوزان 15B يقود فئة النماذج الصغيرة لدينا (معلمات <40B)
💼 نظرة عامة: Apriel-v1.5-15B-Thinker هو نموذج تفكير كثيف بمعدل 15B للأوزان المفتوحة. ليس هذا هو النموذج الأول الذي أصدرته ServiceNow ولكنه قفزة كبيرة في الذكاء تم تحقيقه مقارنة بالإصدارات السابقة
🧠 الذكاء: يسجل النموذج 52 في مؤشر ذكاء التحليل الاصطناعي. هذا يضعها على قدم المساواة مع DeepSeek R1 0528 ، الذي يحتوي على بنية معلمة 685B أكبر بكثير. يسجل نموذج ServiceNow نتائج جيدة بشكل خاص ضمن السلوكيات المهمة لوكلاء المؤسسات ، مثل اتباع التعليمات (62٪ في IFBench ، قبل gpt-oss-20B ، المنطق) والتحويلات متعددة الأدوار واستخدام الأدوات (68٪ في τ²-Bench Telecom ، قبل gpt-oss-120B ، المنطق). هذا يجعلها مناسبة بشكل خاص لحالات الاستخدام الوكيل ، والتي من المحتمل أن تكون مركزا نظرا لأن ServiceNow نشطة في مساحة وكلاء المؤسسات
⚙️ الرموز المميزة للإخراج والإسهاب: ينتج النموذج عددا كبيرا من الرموز المميزة للإخراج حتى بين نماذج التفكير - باستخدام ~ 110M من الرموز المميزة للتفكير والإجابة المدمجة لإكمال مؤشر ذكاء التحليل الاصطناعي
🖥️ الوصول: لا يوجد مزودون استدلال بدون خادم يخدمون النموذج حتى الآن ، ولكنه متاح الآن على Hugging Face للاستدلال المحلي أو النشر الذاتي. تم إصدار النموذج بموجب ترخيص معهد ماساتشوستس للتكنولوجيا ، مما يدعم الاستخدام التجاري غير المقيد
i️ نافذة السياق: يحتوي النموذج على نافذة سياق أصلية من 128 ألف رمز مميز.
تهانينا ل @ServiceNowRSRCH على هذه النتيجة الرائعة!

74.49K
الأفضل
المُتصدِّرة
التطبيقات المفضلة