Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La versión actualizada de GLM 4.6 (Razonamiento) de Z ai es uno de los modelos de pesos abiertos más inteligentes, con una inteligencia cercana a la de DeepSeek V3.1 Terminus (Razonamiento) y Qwen3 235B 2507 (Razonamiento)
Conclusiones clave sobre la evaluación de inteligencia:
➤ Rendimiento del Modelo de Razonamiento: GLM 4.6 (Razonamiento) obtiene una puntuación de 56 en el Índice de Inteligencia de Análisis Artificial, frente a la puntuación de 49 de GLM 4.5 en modo de razonamiento
➤ Rendimiento del Modelo Sin Razonamiento: En modo sin razonamiento, GLM 4.6 logra una puntuación de 45, colocándose 2 puntos por delante de GPT-5 (mínimo, sin razonamiento)
➤ Eficiencia de Tokens: Z ai ha aumentado las puntuaciones de evaluación de GLM mientras disminuye los tokens de salida. Para GLM 4.6 (Razonamiento), vemos una disminución material del 14% en el uso de tokens para ejecutar el Índice de Inteligencia de Análisis Artificial, de 100M a 86M, en comparación con GLM 4.5 (Razonamiento). Esto es diferente de otras actualizaciones de modelos que hemos visto, donde el aumento en inteligencia a menudo se correlaciona con un aumento en el uso de tokens de salida. En modo sin razonamiento, GLM 4.6 utiliza 12M de tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial
Otros detalles del modelo:
➤🪙 Ventana de Contexto: 200k tokens de contexto. Esto es más grande en comparación con la ventana de contexto de 128k tokens de GLM 4.5
➤📏 Tamaño: GLM 4.6 tiene 355B de parámetros totales y 32B de parámetros activos - esto es lo mismo que GLM 4.5. Para la autoimplementación, GLM 4.6 requerirá ~710GB de memoria para almacenar los pesos en precisión nativa BF16 y no puede ser implementado en un solo nodo NVIDIA 8xH100 (~640GB de memoria)
➤©️ Licenciamiento: GLM 4.6 está disponible bajo la Licencia MIT
➤🌐 Disponibilidad: GLM 4.6 está disponible en la API de primera parte de Z ai y en varias APIs de terceros como DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) y Parasail (FP8)

GLM 4.6 (Razonamiento) mejora la eficiencia de tokens, requiriendo 14M menos tokens de salida en comparación con GLM 4.5 (Razonamiento) para el Índice de Inteligencia de Análisis Artificial.

Evaluaciones completas realizadas de forma independiente por Análisis Artificial

Compara cómo se desempeña GLM 4.6 (Razonamiento) en relación con los modelos que estás utilizando o considerando en:
456
Parte superior
Clasificación
Favoritos