Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5, yeni önde gelen açık ağırlık modeli! GLM-5, açık ağırlık modelleri arasında Yapay Analiz Zeka Endeksi'nin önündedir ve ekonomik açıdan değerli iş görevlerine odaklanan ajanik kıstantımız olan GDPval-AA'da GLM-4.7'ye göre büyük artışlar elde eder
GLM-5, GLM-4.5'ten bu yana @Zai_org'nin ilk yeni mimarisi - GLM-4.5, 4.6 ve 4.7 modellerinin her biri toplam 355B / 32B aktif parametre karışımı uzman modellerden oluşuyordu. GLM-5 toplam 744B / 40B aktif olarak ölçeklenir ve DeepSeek Sparse Attention'ı entegre eder. Bu da GLM-5'i DeepSeek V3 ailesinin (toplam 671B / 37B aktif) ve Moonshot'un Kimi K2 ailesinin (toplamda 1T, 32B aktif) parametre sayısıyla daha uyumlu hale getiriyor. Ancak GLM-5, BF16 hassasiyetinde piyasaya sürülüyor ve toplam boyutu ~1.5TB olarak geliyor - bu, sırasıyla FP8 ve INT4 hassasiyetinde yerel olarak piyasaya sürülen DeepSeek V3 ve son Kimi K2 modellerinden daha büyük.
Önemli çıkarımlar:
➤ GLM-5, Zeka İndeksinde 50 puan aldı ve GLM-4.7'nin 42 puanından yeni açık ağırlık lideri oldu - bu, ajanik performans ve bilgi/halüsinasyon alanlarındaki gelişmelerle desteklenen 8 puanlık bir sıçramadır. Bu, bir açık ağırlık modelinin Yapay Analiz Zeka Endeksi v4.0'da 50 veya daha yüksek puan elde ettiği ilk kezdir; bu, tescilli ve açık ağırlık modelleri arasındaki farkı anlamlı şekilde kapatmayı temsil eder. Kimi K2.5, MiniMax 2.1 ve DeepSeek V3.2 gibi diğer sınır açıkları ağırlıklı modellerin önünde yer alıyor.
➤ GLM-5, açık ağırlıklı modeller arasında en yüksek Yapay Analiz Ajanik Endeksi puanını 63 puanla elde ederek genel sıralamada üçüncü sırada yer almaktadır. Bu, sunum hazırlamak ve veri analizinden video düzenlemeye kadar bilgi iş görevlerinde genel ajanik performansımız için birincil ölçütümüz olan GDPval-AA'daki güçlü performansla desteklenmektedir. GLM-5'in GSYİH-AA ELO'su 1412'dir, bu Claude Opus 4.6 ve GPT-5.2'nin (xhigh) altında durur. GLM-5, açık ağırlık modellerinin gerçek dünyada ekonomik açıdan değerli iş görevlerindeki performansında önemli bir artışı temsil eder
➤ GLM-5, azalmış halüsinasyonla yönlendirilen AA-Her Şeyi Bilme Endeksi'nde büyük bir gelişme gösterir. GLM-5, AA-Her Şeyi Bilme Endeksi'nde -1 puan alıyor - GLM-4.7'ye kıyasla 35 puanlık bir artış (Reasoning, -36). Bu, halüsinasyon oranının GLM-4.7 (Gerekçe) ile karşılaştırıldığında 56 p.p azalmasıyla kaynaklanmaktadır. GLM-5 bunu daha sık kaçınarak ve test edilen modeller arasında en düşük halüsinasyon seviyesine sahip olarak başarıyor
➤ GLM-5, Zeka Endeksi'ni çalıştırmak için ~110M çıktı jetonu kullandı; GLM-4.7'nin ~170M çıktı tokenı ise çoğu değerlendirmede daha yüksek puanlara rağmen önemli bir düşüş oldu. Bu, GLM-5'i Zeka ve Çıktı Tokenları grafiğinin sınırına yaklaştırır, ancak Opus 4.6'ya kıyasla token açısından daha az verimlidir
Ana model detayları:
➤ Bağlam penceresi: 200K token, GLM-4.7'ye eşdeğer
Çok modalite: Sadece metin girişi ve çıkışı - Kimi K2.5, görüntü girişini destekleyen önde gelen açık ağırlıklar modeli olmaya devam ediyor
➤ Boyut: 744B toplam parametre, 40B aktif parametre. Kendi kendine dağıtım için, GLM-5 ağırlıkları yerel BF16 hassasiyetinde depolamak için ~1.490GB belleğe ihtiyaç duyar
➤ Lisanslama: MIT Lisansı
Erişilebilirlik: Bu analizin paylaşıldığı sırada, GLM-5, Z AI'nin birinci taraf API'sinde ve FP8 hassasiyetinde @novita_labs (1 milyon giriş/çıkış belirteri başına 1 $/3,2 $), @gmi_cloud (1 $/3,2 $) ve @DeepInfra (0,8 $/2,56 $) gibi birkaç üçüncü taraf API'de mevcuttur
➤ Eğitim Tokenları: Z AI ayrıca ön eğitim veri hacmini 23T'den 28,5T'ye çıkardığını belirtti

GLM-5, daha düşük halüsinasyonla yönlendirilen AA-Her Şeyi Bilme Endeksi'nde iyileşme göstermektedir. Bu, modelin bilmediği soruları yanıtlamaktan daha fazla kaçındığı anlamına gelir

Tam sonuçların dağılımı

GLM-5 HuggingFace deposu:
Daha fazla bilgi için şu adresi ziyaret edin:
21,55K
En İyiler
Sıralama
Takip Listesi
