Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analiza independentă a modelelor AI și a furnizorilor de găzduire - alegeți cel mai bun model și furnizor API pentru cazul dvs.
GLM 4.6 (Raționament) actualizat al lui Z ai este unul dintre cele mai inteligente modele de greutăți deschise, cu informații de nivel aproape DeepSeek V3.1 (Raționament) și Qwen3 235B 2507 (Raționament)
🧠 Concluzii cheie de analiză comparativă a informațiilor:
➤ Performanța modelului de raționament: GLM 4.6 (Raționament) obține un scor de 56 la Artificial Analysis Intelligence Index, în creștere de la scorul GLM 4.5 de 51 în modul de raționament
➤ Performanța modelului fără raționament: În modul fără raționament, GLM 4.6 obține un scor de 45, plasându-l cu 2 puncte înaintea GPT-5 (minim, fără raționament)
➤ Eficiența jetoanelor: Z ai a crescut scorurile de evaluare ale GLM în timp ce a scăzut jetoanele de ieșire. Pentru GLM 4.6 (Raționament), vedem o scădere materială de 14% a utilizării tokenurilor pentru a rula Artificial Analysis Intelligence Index de la 100M la 86M, comparativ cu GLM 4.5 (Reasoning). Acest lucru este diferit de alte upgrade-uri de model pe care le-am văzut, unde creșterea inteligenței este adesea corelată cu creșterea utilizării tokenurilor de ieșire. În modul non-raționament, GLM 4.6 folosește 12 milioane de jetoane de ieșire pentru Artificial Analysis Intelligence Index
Alte detalii despre model:
➤ 🪙 Fereastra de context: 200K context de token. Acest lucru este mai mare în comparație cu fereastra de context a GLM 4.5 de 128K token-uri
➤ 📏 Dimensiune: GLM 4.6 are parametri totali 355B și parametri activi 32B - acesta este același cu GLM 4.5. Pentru auto-implementare, GLM 4.6 va necesita ~710 GB de memorie pentru a stoca greutățile la precizia nativă BF16 și nu poate fi implementat pe un singur nod NVIDIA 8xH100 (~640 GB de memorie)
➤ ©️ Licențiere: GLM 4.6 este disponibil sub licența MIT
➤ 🌐 Disponibilitate: GLM 4.6 este disponibil pe API-ul primar al Z ai și pe mai multe API-uri terțe, cum ar fi DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) și Parasail (FP8)

41,45K
GLM 4.6 (Reasoning) actualizat de la Z ai este unul dintre cele mai inteligente modele de greutăți deschise, cu informații de nivel aproape DeepSeek V3.1 Terminus (Reasoning) și Qwen3 235B 2507 (Reasoning)
Concluzii cheie de analiză comparativă a informațiilor:
➤ Performanța modelului de raționament: GLM 4.6 (Raționament) obține un scor de 56 pe indicele de inteligență a analizei artificiale, în creștere de la scorul GLM 4.5 de 49 în modul de raționament
➤ Performanța modelului fără raționament: În modul fără raționament, GLM 4.6 obține un scor de 45, plasându-l cu 2 puncte înaintea GPT-5 (minim, fără raționament)
➤ Eficiența jetoanelor: Z ai a crescut scorurile de evaluare ale GLM în timp ce a scăzut jetoanele de ieșire. Pentru GLM 4.6 (Raționament), vedem o scădere materială de 14% a utilizării tokenurilor pentru a rula Artificial Analysis Intelligence Index de la 100M la 86M, comparativ cu GLM 4.5 (Reasoning). Acest lucru este diferit de alte upgrade-uri de model pe care le-am văzut, unde creșterea inteligenței este adesea corelată cu creșterea utilizării tokenurilor de ieșire. În modul non-raționament, GLM 4.6 folosește 12 milioane de jetoane de ieșire pentru a rula Artificial Analysis Intelligence Index
Alte detalii despre model:
➤ 🪙 Fereastra de context: context de 200k token. Acest lucru este mai mare în comparație cu fereastra de context a GLM 4.5 de 128 de jetoane
➤ 📏 Dimensiune: GLM 4.6 are parametri totali 355B și parametri activi 32B - acesta este același cu GLM 4.5. Pentru auto-implementare, GLM 4.6 va necesita ~710 GB de memorie pentru a stoca greutățile la precizia nativă BF16 și nu poate fi implementat pe un singur nod NVIDIA 8xH100 (~640 GB de memorie)
➤ ©️ Licențiere: GLM 4.6 este disponibil sub licența MIT
➤ 🌐 Disponibilitate: GLM 4.6 este disponibil pe API-ul primar al Z ai și pe mai multe API-uri terțe, cum ar fi DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) și Parasail (FP8)

525
IBM a lansat Granite 4.0 - o nouă familie de modele de limbaj cu greutăți deschise, cu dimensiuni cuprinse între 3B și 32B. Artificial Analysis a primit acces înainte de lansare, iar benchmarking-ul nostru arată că Granite 4.0 H Small (32B/9B parametri totali/activi) a obținut un indice de inteligență de 23, cu o putere deosebită în eficiența tokenurilor
IBM a lansat astăzi patru modele noi: Granite 4.0 H Small (parametri totali/activi 32B/9B), Granite 4.0 H Tiny (7B/1B), Granite 4.0 H Micro (3B/3B) și Granite 4.0 Micro (3B/3B). Am evaluat Granite 4.0 Small (în modul non-raționament) și Granite 4.0 Micro folosind Artificial Analysis Intelligence Index. Modelele Granite 4.0 combină o cantitate mică de straturi standard de atenție în stil transformator cu majoritatea straturilor Mamba, care pretinde că reduc cerințele de memorie fără a afecta performanța
Principalele concluzii ale analizei comparative:
➤ 🧠 Granite 4.0 H Small Intelligence: În non-raționament, Granite 4.0 H Small obține un scor de 23 pe indicele Artificial Analysis Intelligence - un salt de +8 puncte pe indice comparativ cu IBM Granite 3.3 8B (Non-Reasoning). Granite 4.0 H Small se plasează înaintea Gemma 3 27B (22), dar în spatele Mistral Small 3.2 (29), EXAONE 4.0 32B (Non-Reasoning, 30) și Qwen3 30B A3B 2507 (Non-Reasoning, 37) în inteligență
➤ ⚡ Granite 4.0 Micro Intelligence: Pe indicele de inteligență a analizei artificiale, Granite 4.0 Micro are un scor de 16. Se plasează înaintea Gemmei 3 4B (15) și LFM 2 2.6B (12).
➤ ⚙️ Eficiența tokenului: Granite 4.0 H Small și Micro demonstrează o eficiență impresionantă a jetoanelor - Granite 4.0 Small folosește 5.2M, în timp ce Granite 4.0 Micro folosește 6.7M token-uri pentru a rula Artificial Analysis Intelligence Index. Ambele modele au mai puține jetoane decât Granite 3.3, 8B (Non-Reasoning) și majoritatea celorlalte modele cu greutăți deschise, fără raționament, mai mici de 40B parametri totali (cu excepția Qwen3 0.6B, care folosește 1.9M token-uri de ieșire)
Detalii cheie despre model:
➤ 🌐 Disponibilitate: Toate cele patru modele sunt disponibile pe Hugging Face. Granite 4.0 H Small este disponibil pe Replicate și are un preț de 0,06 USD/0,25 USD per 1 milion de jetoane de intrare/ieșire
➤ 📏 Fereastra contextului: 128K jetoane
➤ ©️ Licențiere: Modelele Granite 4.0 sunt disponibile sub licența Apache 2.0


35,81K
Limită superioară
Clasament
Favorite