Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
El GLM 4.6 actualizado de Z ai (Razonamiento) es uno de los modelos de pesos abiertos más inteligentes, con una inteligencia de nivel cercano a DeepSeek V3.1 (Razonamiento) y Qwen3 235B 2507 (Razonamiento)
🧠 Conclusiones clave de la evaluación comparativa de inteligencia:
➤ Rendimiento del modelo de razonamiento: GLM 4.6 (Razonamiento) obtiene una puntuación de 56 en el Índice de Inteligencia de Análisis Artificial, frente a la puntuación de GLM 4.5 de 51 en el modo de razonamiento
➤ Rendimiento del modelo sin razonamiento: En el modo sin razonamiento, GLM 4.6 logra una puntuación de 45, colocándolo 2 puntos por delante de GPT-5 (mínimo, sin razonamiento)
➤ Eficiencia del token: Z ai ha aumentado los puntajes de evaluación de GLM al tiempo que disminuye los tokens de salida. Para GLM 4.6 (Razonamiento), vemos una disminución material del 14% en el uso de tokens para ejecutar el Índice de Inteligencia de Análisis Artificial de 100 M a 86 M, en comparación con GLM 4.5 (Razonamiento). Esto es diferente de otras actualizaciones de modelos que hemos visto donde el aumento en la inteligencia a menudo se correlaciona con el aumento en el uso de tokens de salida. En el modo sin razonamiento, GLM 4.6 utiliza 12 millones de tokens de salida para el Índice de Inteligencia de Análisis Artificial
Otros detalles del modelo:
🪙 ➤ Ventana de contexto: contexto de token de 200K. Esto es más grande en comparación con la ventana de contexto de GLM 4.5 de 128K tokens
📏 ➤ Tamaño: GLM 4.6 tiene 355 mil millones de parámetros totales y 32 mil millones de parámetros activos, lo mismo que GLM 4.5. Para la autoimplementación, GLM 4.6 requerirá ~710 GB de memoria para almacenar los pesos con precisión BF16 nativa y no se puede implementar en un solo nodo NVIDIA 8xH100 (~640 GB de memoria)
©️ ➤ Licencias: GLM 4.6 está disponible bajo la licencia MIT
🌐 ➤ Disponibilidad: GLM 4.6 está disponible en la API propia de Z ai y en varias API de terceros como DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) y Parasail (FP8)

GLM 4.6 (Razonamiento) mejora la eficiencia de los tokens, requiriendo 14 millones menos de tokens de salida en comparación con GLM 4.5 (Razonamiento) para el Índice de Inteligencia de Análisis Artificial

Evaluaciones completas gestionadas de forma independiente por Artificial Analysis

Compare el rendimiento de GLM 4.6 en relación con los modelos que está utilizando o considerando en:
41.37K
Populares
Ranking
Favoritas