Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Oberoende analys av AI-modeller och hostingleverantörer - välj den bästa modellen och API-leverantören för ditt användningsfall
Z ai:s uppdaterade GLM 4.6 (Reasoning) är en av de mest intelligenta modellerna för öppna vikter, med intelligens på DeepSeek V3.1 (Reasoning) och Qwen3 235B 2507 (Reasoning) nivå
🧠 Viktiga slutsatser från benchmarking av intelligens:
➤ Resonemangsmodellens prestanda: GLM 4.6 (resonemang) får 56 poäng på Artificial Analysis Intelligence Index, upp från GLM 4.5:s poäng på 51 i resonemangsläge
➤ Prestanda för icke-resonerande modeller: I icke-resonerande läge uppnår GLM 4.6 en poäng på 45, vilket placerar den 2 poäng före GPT-5 (minimal, icke-resonerande)
➤ Tokeneffektivitet: Z ai har ökat GLM:s utvärderingspoäng samtidigt som de har minskat utdatatokens. För GLM 4.6 (resonemang) ser vi en väsentlig minskning med 14 % i tokenanvändning för att köra Artificial Analysis Intelligence Index från 100 miljoner till 86 miljoner, jämfört med GLM 4.5 (resonemang). Detta skiljer sig från andra modelluppgraderingar som vi har sett där ökad intelligens ofta korreleras med ökad användning av utdatatoken. I icke-resonemangsläge använder GLM 4.6 12 miljoner utdatatoken för Artificial Analysis Intelligence Index
Andra modelldetaljer:
🪙 ➤ Kontextfönster: 200K tokenkontext. Detta är större jämfört med GLM 4.5:s kontextfönster med 128 000 tokens
📏 ➤ Storlek: GLM 4.6 har 355B totala parametrar och 32B aktiva parametrar - detta är detsamma som GLM 4.5. För självdistribution kommer GLM 4.6 att kräva ~710 GB minne för att lagra vikterna i inbyggd BF16-precision och kan inte distribueras på en enda NVIDIA 8xH100-nod (~640 GB minne)
©️ ➤ Licensiering: GLM 4.6 är tillgänglig under MIT-licensen
🌐 ➤ Tillgänglighet: GLM 4.6 är tillgänglig på Z ai:s förstaparts-API och flera tredjeparts-API:er som DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) och Parasail (FP8)

41,47K
Z ai:s uppdaterade GLM 4.6 (Reasoning) är en av de mest intelligenta modellerna med öppna vikter, med intelligens på nivån DeepSeek V3.1 Terminus (Reasoning) och Qwen3 235B 2507 (Reasoning)
Viktiga slutsatser från benchmarking av intelligens:
➤ Resonemangsmodellens prestanda: GLM 4.6 (resonemang) får 56 poäng på Artificial Analysis Intelligence Index, upp från GLM 4.5:s poäng på 49 i resonemangsläge
➤ Prestanda för icke-resonerande modeller: I icke-resonerande läge uppnår GLM 4.6 en poäng på 45, vilket placerar den 2 poäng före GPT-5 (minimal, icke-resonerande)
➤ Tokeneffektivitet: Z ai har ökat GLM:s utvärderingspoäng samtidigt som de har minskat utdatatokens. För GLM 4.6 (resonemang) ser vi en väsentlig minskning med 14 % i tokenanvändning för att köra Artificial Analysis Intelligence Index från 100 miljoner till 86 miljoner, jämfört med GLM 4.5 (resonemang). Detta skiljer sig från andra modelluppgraderingar som vi har sett där ökad intelligens ofta korreleras med ökad användning av utdatatoken. I icke-resonemangsläge använder GLM 4.6 12 miljoner utdatatokens för att köra Artificial Analysis Intelligence Index
Andra modelldetaljer:
🪙 ➤ Kontextfönster: 200k tokenkontext. Detta är större jämfört med GLM 4.5:s kontextfönster med 128k tokens
📏 ➤ Storlek: GLM 4.6 har 355B totala parametrar och 32B aktiva parametrar - detta är detsamma som GLM 4.5. För självdistribution kommer GLM 4.6 att kräva ~710 GB minne för att lagra vikterna i inbyggd BF16-precision och kan inte distribueras på en enda NVIDIA 8xH100-nod (~640 GB minne)
©️ ➤ Licensiering: GLM 4.6 är tillgänglig under MIT-licensen
🌐 ➤ Tillgänglighet: GLM 4.6 är tillgänglig på Z ai:s förstaparts-API och flera tredjeparts-API:er som DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) och Parasail (FP8)

531
IBM har lanserat Granite 4.0 - en ny familj av språkmodeller med öppna vikter som varierar i storlek från 3B till 32B. Artificiell analys gavs tillgång till förhandsversionen, och vår benchmarking visar att Granite 4.0 H Small (32B/9B totalt/aktiva parametrar) får ett intelligensindex på 23, med en särskild styrka i tokeneffektivitet
Idag släppte IBM fyra nya modeller: Granite 4.0 H Small (32B/9B totalt/aktiva parametrar), Granite 4.0 H Tiny (7B/1B), Granite 4.0 H Micro (3B/3B) och Granite 4.0 Micro (3B/3B). Vi utvärderade Granite 4.0 Small (i icke-resonemangsläge) och Granite 4.0 Micro med hjälp av Artificial Analysis Intelligence Index. Granite 4.0-modeller kombinerar en liten mängd vanliga uppmärksamhetslager i transformatorstil med en majoritet av Mamba-lager, vilket påstår sig minska minneskraven utan att påverka prestandan
Viktiga slutsatser från benchmarking:
🧠 ➤ Granite 4.0 H Small Intelligence: I icke-resonerande får Granite 4.0 H Small 23 poäng på Artificial Analysis Intelligence-indexet - ett hopp på +8 poäng på indexet jämfört med IBM Granite 3.3 8B (Non Reasoning). Granit 4.0 H Liten placerar sig före Gemma 3 27B (22) men bakom Mistral Small 3.2 (29), EXAONE 4.0 32B (Icke-resonerande, 30) och Qwen3 30B A3B 2507 (Icke-resonerande, 37) i intelligens
⚡ ➤ Granite 4.0 Micro Intelligence: På Artificial Analysis Intelligence Index får Granite 4.0 Micro 16 poäng. Den placerar sig före Gemma 3 4B (15) och LFM 2 2,6B (12).
⚙️ ➤ Tokeneffektivitet: Granite 4.0 H Small och Micro visar imponerande tokeneffektivitet - Granite 4.0 Small använder 5,2 miljoner, medan Granite 4.0 Micro använder 6,7 miljoner tokens för att köra Artificial Analysis Intelligence Index. Båda modellerna har färre tokens än Granite 3.3, 8B (Non-Reasoning) och de flesta andra öppna vikter icke-resonerande modeller som är mindre än 40 B, totala parametrar (förutom Qwen3 0.6B, som använder 1,9 miljoner utdatatokens)
Information om nyckelmodellen:
🌐 ➤ Tillgänglighet: Alla fyra modellerna finns tillgängliga på Hugging Face. Granite 4.0 H Small är tillgänglig på Replicate och kostar $0.06/$0.25 per 1M input/output-tokens
📏 ➤ Kontextfönster: 128K tokens
©️ ➤ Licensiering: Granite 4.0-modellerna är tillgängliga under Apache 2.0-licensen


35,81K
Topp
Rankning
Favoriter