Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Z ai’s bijgewerkte GLM 4.6 (Redeneren) is een van de meest intelligente open gewichtenmodellen, met een intelligentie die dicht in de buurt komt van DeepSeek V3.1 Terminus (Redeneren) en Qwen3 235B 2507 (Redeneren)
Belangrijke inzichten uit de intelligentiebenchmarking:
➤ Prestaties van het Redeneringsmodel: GLM 4.6 (Redeneren) scoort 56 op de Artificial Analysis Intelligence Index, een stijging ten opzichte van de score van 49 van GLM 4.5 in de redeneringsmodus
➤ Prestaties van het Niet-Redeneringsmodel: In de niet-redeneringsmodus behaalt GLM 4.6 een score van 45, wat het 2 punten boven GPT-5 plaatst (minimaal, niet-redenerend)
➤ Token efficiëntie: Z ai heeft de evaluatiescores van GLM verhoogd terwijl het aantal outputtokens is verminderd. Voor GLM 4.6 (Redeneren) zien we een materiële afname van 14% in het tokenverbruik om de Artificial Analysis Intelligence Index te draaien van 100M naar 86M, vergeleken met GLM 4.5 (Redeneren). Dit is anders dan andere modelupgrades die we hebben gezien, waarbij een toename in intelligentie vaak samenhangt met een toename in het gebruik van outputtokens. In de niet-redeneringsmodus gebruikt GLM 4.6 12M outputtokens om de Artificial Analysis Intelligence Index te draaien
Andere modelgegevens:
➤🪙 Contextvenster: 200k tokencontext. Dit is groter in vergelijking met het contextvenster van 128k tokens van GLM 4.5
➤📏 Grootte: GLM 4.6 heeft 355B totale parameters en 32B actieve parameters - dit is hetzelfde als GLM 4.5. Voor zelfimplementatie vereist GLM 4.6 ongeveer 710GB geheugen om de gewichten op te slaan in native BF16 precisie en kan het niet worden geïmplementeerd op een enkele NVIDIA 8xH100 node (~640GB geheugen)
➤©️ Licentieverlening: GLM 4.6 is beschikbaar onder de MIT-licentie
➤🌐 Beschikbaarheid: GLM 4.6 is beschikbaar op Z ai’s eerste partij API en verschillende derde partij API's zoals DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) en Parasail (FP8)

GLM 4.6 (Redeneren) verbetert de token efficiëntie, wat 14 miljoen minder output tokens vereist in vergelijking met GLM 4.5 (Redeneren) voor de Kunstmatige Analyse Intelligentie Index

Volledige evaluaties onafhankelijk uitgevoerd door Kunstmatige Analyse

Vergelijk hoe GLM 4.6 (Redeneren) presteert ten opzichte van modellen die je gebruikt of overweegt op:
483
Boven
Positie
Favorieten