Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Z.ai
AI-labbet bakom GLM-modeller, dedikerat till att inspirera utvecklingen av AGI till mänsklighetens fördel.
https://t.co/x14hb3jO7O
GLM ses ofta bara som en kodningsmodell, men dess #1 open source-placering inom artificiell analys berättar en annan historia. Vad folk kan missa: låg hallucination, stark prestation på ekonomiskt värdefulla uppgifter och förstklassig resonemangsförmåga och agentiska förmågor.
Utöver benchmarks hanterar det också daglig chatt och rollspel bra.

Artificial Analysis2 timmar sedan
GLM-5 är den nya ledande modellen för öppna vikter! GLM-5 leder Artificial Analysis Intelligence Index bland öppna viktmodeller och gör stora framsteg jämfört med GLM-4.7 i GDPval-AA, vårt agentiska riktmärke med fokus på ekonomiskt värdefulla arbetsuppgifter
GLM-5 är @Zai_org första nya arkitektur sedan GLM-4.5 – var och en av GLM-4.5, 4.6 och 4.7-modellerna hade totalt 355 miljarder / 32 miljarder aktiva parameterblandningar av expertmodeller. GLM-5 skalar till totalt 744 miljarder / 40 miljarder aktiva och integrerar DeepSeek Sparse Attention. Detta placerar GLM-5 mer i linje med parameterantalet för DeepSeek V3-familjen (totalt 671 miljarder / 37 miljarder aktiva) och Moonshots Kimi K2-familj (1 T totalt, 32 miljarder aktiva). GLM-5 släpps dock i BF16-precision, med en total storlek på ~1,5TB – större än DeepSeek V3 och de senaste Kimi K2-modellerna som har släppts nativt i FP8 respektive INT4-precision.
Viktiga slutsatser:
➤ GLM-5 får 50 poäng på Intelligence Index och är den nya ledaren i öppna vikter, upp från GLM-4,7:s poäng på 42 – en ökning på 8 poäng tack vare förbättringar inom agentisk prestation och kunskap/hallucination. Detta är första gången en modell med öppna vikter har uppnått ett resultat på 50 eller högre på Artificial Analysis Intelligence Index v4.0, vilket innebär en betydande minskning av gapet mellan proprietära och öppna viktmodeller. Den placerar sig över andra frontier-modeller med öppna vikter som Kimi K2.5, MiniMax 2.1 och DeepSeek V3.2.
➤ GLM-5 uppnår det högsta Artificial Analysis Agentic Index-poängen bland öppna viktmodeller med en poäng på 63, vilket är tredje bästa totalt. Detta drivs av stark prestation i GDPval-AA, vårt primära mått för allmän agentisk prestation på kunskapsarbetsuppgifter från förberedelse av presentationer och dataanalys till videoredigering. GLM-5 har en GDPval-AA ELO på 1412, endast under Claude Opus 4.6 och GPT-5.2 (xhigh). GLM-5 innebär en betydande förbättring av öppna viktmodellers prestanda på verkliga ekonomiskt värdefulla arbetsuppgifter
➤ GLM-5 visar en stor förbättring på AA-Omniscience Index, drivet av minskade hallucinationer. GLM-5 får -1 på AA-Omniscience Index – en förbättring med 35 poäng jämfört med GLM-4,7 (Reasoning, -36). Detta drivs av en minskning av hallucinationsfrekvensen med 56 p.p jämfört med GLM-4,7 (Reasoning). GLM-5 uppnår detta genom att avstå oftare och har den lägsta nivån av hallucinationer bland testade modeller
➤ GLM-5 använde ~110 miljoner utdatatoken för att köra Intelligence Index, jämfört med GLM-4.7:s ~170 miljoner utdatatoken, en betydande minskning trots högre poäng i de flesta utvärderingar. Detta för GLM-5 närmare gränsen för diagrammet Intelligence vs. Output Tokens, men är mindre tokeneffektivt jämfört med Opus 4.6
Viktiga modelldetaljer:
➤ Kontextfönster: 200 000 tokens, motsvarande GLM-4.7
Multimodalitet: Endast textinmatning och utmatning – Kimi K2.5 är fortfarande den ledande modellen med öppna vikter som stödjer bildinmatning
➤ Storlek: 744 miljarder totala parametrar, 40 miljarder aktiva parametrar. För självdistribution kommer GLM-5 att kräva ~1 490 GB minne för att lagra vikterna i inbyggd BF16-precision
➤ Licensiering: MIT-licens
Tillgänglighet: Vid tidpunkten för delningen av denna analys finns GLM-5 tillgängligt på Z AI:s förstaparts-API och flera tredjeparts-API:er såsom @novita_labs ($1/$3,2 per 1 miljon in-/utmatningstoken), @gmi_cloud ($1/$3,2) och @DeepInfra ($0,8/$2,56), i FP8-precision
➤ Träningstokens: Z AI har också indikerat att de har ökat volymen förträningsdata från 23T till 28,5T tokens

1,79K
Topp
Rankning
Favoriter
