Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 är den nya ledande modellen för öppna vikter! GLM-5 leder Artificial Analysis Intelligence Index bland öppna viktmodeller och gör stora framsteg jämfört med GLM-4.7 i GDPval-AA, vårt agentiska riktmärke med fokus på ekonomiskt värdefulla arbetsuppgifter
GLM-5 är @Zai_org första nya arkitektur sedan GLM-4.5 – var och en av GLM-4.5, 4.6 och 4.7-modellerna hade totalt 355 miljarder / 32 miljarder aktiva parameterblandningar av expertmodeller. GLM-5 skalar till totalt 744 miljarder / 40 miljarder aktiva och integrerar DeepSeek Sparse Attention. Detta placerar GLM-5 mer i linje med parameterantalet för DeepSeek V3-familjen (totalt 671 miljarder / 37 miljarder aktiva) och Moonshots Kimi K2-familj (1 T totalt, 32 miljarder aktiva). GLM-5 släpps dock i BF16-precision, med en total storlek på ~1,5TB – större än DeepSeek V3 och de senaste Kimi K2-modellerna som har släppts nativt i FP8 respektive INT4-precision.
Viktiga slutsatser:
➤ GLM-5 får 50 poäng på Intelligence Index och är den nya ledaren i öppna vikter, upp från GLM-4,7:s poäng på 42 – en ökning på 8 poäng tack vare förbättringar inom agentisk prestation och kunskap/hallucination. Detta är första gången en modell med öppna vikter har uppnått ett resultat på 50 eller högre på Artificial Analysis Intelligence Index v4.0, vilket innebär en betydande minskning av gapet mellan proprietära och öppna viktmodeller. Den placerar sig över andra frontier-modeller med öppna vikter som Kimi K2.5, MiniMax 2.1 och DeepSeek V3.2.
➤ GLM-5 uppnår det högsta Artificial Analysis Agentic Index-poängen bland öppna viktmodeller med en poäng på 63, vilket är tredje bästa totalt. Detta drivs av stark prestation i GDPval-AA, vårt primära mått för allmän agentisk prestation på kunskapsarbetsuppgifter från förberedelse av presentationer och dataanalys till videoredigering. GLM-5 har en GDPval-AA ELO på 1412, endast under Claude Opus 4.6 och GPT-5.2 (xhigh). GLM-5 innebär en betydande förbättring av öppna viktmodellers prestanda på verkliga ekonomiskt värdefulla arbetsuppgifter
➤ GLM-5 visar en stor förbättring på AA-Omniscience Index, drivet av minskade hallucinationer. GLM-5 får -1 på AA-Omniscience Index – en förbättring med 35 poäng jämfört med GLM-4,7 (Reasoning, -36). Detta drivs av en minskning av hallucinationsfrekvensen med 56 p.p jämfört med GLM-4,7 (Reasoning). GLM-5 uppnår detta genom att avstå oftare och har den lägsta nivån av hallucinationer bland testade modeller
➤ GLM-5 använde ~110 miljoner utdatatoken för att köra Intelligence Index, jämfört med GLM-4.7:s ~170 miljoner utdatatoken, en betydande minskning trots högre poäng i de flesta utvärderingar. Detta för GLM-5 närmare gränsen för diagrammet Intelligence vs. Output Tokens, men är mindre tokeneffektivt jämfört med Opus 4.6
Viktiga modelldetaljer:
➤ Kontextfönster: 200 000 tokens, motsvarande GLM-4.7
Multimodalitet: Endast textinmatning och utmatning – Kimi K2.5 är fortfarande den ledande modellen med öppna vikter som stödjer bildinmatning
➤ Storlek: 744 miljarder totala parametrar, 40 miljarder aktiva parametrar. För självdistribution kommer GLM-5 att kräva ~1 490 GB minne för att lagra vikterna i inbyggd BF16-precision
➤ Licensiering: MIT-licens
Tillgänglighet: Vid tidpunkten för delningen av denna analys finns GLM-5 tillgängligt på Z AI:s förstaparts-API och flera tredjeparts-API:er såsom @novita_labs ($1/$3,2 per 1 miljon in-/utmatningstoken), @gmi_cloud ($1/$3,2) och @DeepInfra ($0,8/$2,56), i FP8-precision
➤ Träningstokens: Z AI har också indikerat att de har ökat volymen förträningsdata från 23T till 28,5T tokens

GLM-5 visar förbättring i AA-Omniscience Index, drivet av lägre hallucinationer. Detta innebär att modellen avstår mer från att svara på frågor den inte känner till

Genomgång av fullständiga resultat

GLM-5 HuggingFace-arkiv:
För mer information, besök:
15,25K
Topp
Rankning
Favoriter
