Z ai:s uppdaterade GLM 4.6 (Reasoning) är en av de mest intelligenta modellerna för öppna vikter, med intelligens på DeepSeek V3.1 (Reasoning) och Qwen3 235B 2507 (Reasoning) nivå 🧠 Viktiga slutsatser från benchmarking av intelligens: ➤ Resonemangsmodellens prestanda: GLM 4.6 (resonemang) får 56 poäng på Artificial Analysis Intelligence Index, upp från GLM 4.5:s poäng på 51 i resonemangsläge ➤ Prestanda för icke-resonerande modeller: I icke-resonerande läge uppnår GLM 4.6 en poäng på 45, vilket placerar den 2 poäng före GPT-5 (minimal, icke-resonerande) ➤ Tokeneffektivitet: Z ai har ökat GLM:s utvärderingspoäng samtidigt som de har minskat utdatatokens. För GLM 4.6 (resonemang) ser vi en väsentlig minskning med 14 % i tokenanvändning för att köra Artificial Analysis Intelligence Index från 100 miljoner till 86 miljoner, jämfört med GLM 4.5 (resonemang). Detta skiljer sig från andra modelluppgraderingar som vi har sett där ökad intelligens ofta korreleras med ökad användning av utdatatoken. I icke-resonemangsläge använder GLM 4.6 12 miljoner utdatatoken för Artificial Analysis Intelligence Index Andra modelldetaljer: 🪙 ➤ Kontextfönster: 200K tokenkontext. Detta är större jämfört med GLM 4.5:s kontextfönster med 128 000 tokens 📏 ➤ Storlek: GLM 4.6 har 355B totala parametrar och 32B aktiva parametrar - detta är detsamma som GLM 4.5. För självdistribution kommer GLM 4.6 att kräva ~710 GB minne för att lagra vikterna i inbyggd BF16-precision och kan inte distribueras på en enda NVIDIA 8xH100-nod (~640 GB minne) ©️ ➤ Licensiering: GLM 4.6 är tillgänglig under MIT-licensen 🌐 ➤ Tillgänglighet: GLM 4.6 är tillgänglig på Z ai:s förstaparts-API och flera tredjeparts-API:er som DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) och Parasail (FP8)
GLM 4.6 (Resonemang) förbättrar tokeneffektiviteten och kräver 14 miljoner färre utdatatoken jämfört med GLM 4.5 (resonemang) för Artificial Analysis Intelligence Index
Fullständiga utvärderingar som drivs oberoende av Artificiell Analys
Jämför hur GLM 4.6 presterar i förhållande till modeller du använder eller överväger på:
41,38K