Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
La versión actualizada de GLM 4.6 (Razonamiento) de Z ai es uno de los modelos de pesos abiertos más inteligentes, con una inteligencia cercana a DeepSeek V3.1 (Razonamiento) y Qwen3 235B 2507 (Razonamiento)
🧠 Conclusiones clave sobre la evaluación de inteligencia:
➤ Rendimiento del Modelo de Razonamiento: GLM 4.6 (Razonamiento) obtiene una puntuación de 56 en el Índice de Inteligencia de Análisis Artificial, subiendo desde la puntuación de 51 de GLM 4.5 en modo de razonamiento
➤ Rendimiento del Modelo No Razonamiento: En modo no razonamiento, GLM 4.6 logra una puntuación de 45, colocándose 2 puntos por delante de GPT-5 (mínimo, no razonamiento)
➤ Eficiencia de Tokens: Z ai ha aumentado las puntuaciones de evaluación de GLM mientras disminuye los tokens de salida. Para GLM 4.6 (Razonamiento), vemos una disminución material del 14% en el uso de tokens para ejecutar el Índice de Inteligencia de Análisis Artificial de 100M a 86M, en comparación con GLM 4.5 (Razonamiento). Esto es diferente de otras actualizaciones de modelos que hemos visto, donde el aumento en inteligencia a menudo se correlaciona con un aumento en el uso de tokens de salida. En modo no razonamiento, GLM 4.6 utiliza 12M de tokens de salida para el Índice de Inteligencia de Análisis Artificial
Otros detalles del modelo:
➤🪙 Ventana de Contexto: 200K tokens de contexto. Esto es más grande en comparación con la ventana de contexto de 128K tokens de GLM 4.5
➤📏 Tamaño: GLM 4.6 tiene 355B de parámetros totales y 32B de parámetros activos - esto es lo mismo que GLM 4.5. Para la autoimplementación, GLM 4.6 requerirá ~710GB de memoria para almacenar los pesos en precisión nativa BF16 y no puede ser implementado en un solo nodo NVIDIA 8xH100 (~640GB de memoria)
➤©️ Licenciamiento: GLM 4.6 está disponible bajo la Licencia MIT
➤🌐 Disponibilidad: GLM 4.6 está disponible en la API de primera parte de Z ai y en varias APIs de terceros como DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) y Parasail (FP8)

35,75K
La versión actualizada de GLM 4.6 (Razonamiento) de Z ai es uno de los modelos de pesos abiertos más inteligentes, con una inteligencia cercana a la de DeepSeek V3.1 Terminus (Razonamiento) y Qwen3 235B 2507 (Razonamiento)
Conclusiones clave sobre la evaluación de inteligencia:
➤ Rendimiento del Modelo de Razonamiento: GLM 4.6 (Razonamiento) obtiene una puntuación de 56 en el Índice de Inteligencia de Análisis Artificial, frente a la puntuación de 49 de GLM 4.5 en modo de razonamiento
➤ Rendimiento del Modelo Sin Razonamiento: En modo sin razonamiento, GLM 4.6 logra una puntuación de 45, colocándose 2 puntos por delante de GPT-5 (mínimo, sin razonamiento)
➤ Eficiencia de Tokens: Z ai ha aumentado las puntuaciones de evaluación de GLM mientras disminuye los tokens de salida. Para GLM 4.6 (Razonamiento), vemos una disminución material del 14% en el uso de tokens para ejecutar el Índice de Inteligencia de Análisis Artificial, de 100M a 86M, en comparación con GLM 4.5 (Razonamiento). Esto es diferente de otras actualizaciones de modelos que hemos visto, donde el aumento en inteligencia a menudo se correlaciona con un aumento en el uso de tokens de salida. En modo sin razonamiento, GLM 4.6 utiliza 12M de tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial
Otros detalles del modelo:
➤🪙 Ventana de Contexto: 200k tokens de contexto. Esto es más grande en comparación con la ventana de contexto de 128k tokens de GLM 4.5
➤📏 Tamaño: GLM 4.6 tiene 355B de parámetros totales y 32B de parámetros activos - esto es lo mismo que GLM 4.5. Para la autoimplementación, GLM 4.6 requerirá ~710GB de memoria para almacenar los pesos en precisión nativa BF16 y no puede ser implementado en un solo nodo NVIDIA 8xH100 (~640GB de memoria)
➤©️ Licenciamiento: GLM 4.6 está disponible bajo la Licencia MIT
➤🌐 Disponibilidad: GLM 4.6 está disponible en la API de primera parte de Z ai y en varias APIs de terceros como DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) y Parasail (FP8)

433
IBM ha lanzado Granite 4.0 - una nueva familia de modelos de lenguaje de pesos abiertos que varían en tamaño desde 3B hasta 32B. Artificial Analysis tuvo acceso anticipado a la versión, y nuestras pruebas muestran que Granite 4.0 H Small (32B/9B parámetros totales/activos) obtiene un Índice de Inteligencia de 23, con una fortaleza particular en la eficiencia de tokens.
Hoy IBM lanzó cuatro nuevos modelos: Granite 4.0 H Small (32B/9B parámetros totales/activos), Granite 4.0 H Tiny (7B/1B), Granite 4.0 H Micro (3B/3B) y Granite 4.0 Micro (3B/3B). Evaluamos Granite 4.0 Small (en modo no razonamiento) y Granite 4.0 Micro utilizando el Índice de Inteligencia de Artificial Analysis. Los modelos Granite 4.0 combinan una pequeña cantidad de capas de atención estilo transformer estándar con la mayoría de las capas Mamba, que afirman reducir los requisitos de memoria sin afectar el rendimiento.
Puntos clave de las pruebas:
➤🧠 Inteligencia de Granite 4.0 H Small: En modo no razonamiento, Granite 4.0 H Small obtiene 23 en el índice de inteligencia de Artificial Analysis - un aumento de +8 puntos en el índice en comparación con IBM Granite 3.3 8B (No Razonamiento). Granite 4.0 H Small se sitúa por delante de Gemma 3 27B (22) pero detrás de Mistral Small 3.2 (29), EXAONE 4.0 32B (No Razonamiento, 30) y Qwen3 30B A3B 2507 (No Razonamiento, 37) en inteligencia.
➤⚡ Inteligencia de Granite 4.0 Micro: En el Índice de Inteligencia de Artificial Analysis, Granite 4.0 Micro obtiene 16. Se sitúa por delante de Gemma 3 4B (15) y LFM 2 2.6B (12).
➤⚙️ Eficiencia de tokens: Granite 4.0 H Small y Micro demuestran una impresionante eficiencia de tokens - Granite 4.0 Small utiliza 5.2M, mientras que Granite 4.0 Micro utiliza 6.7M tokens para ejecutar el Índice de Inteligencia de Artificial Analysis. Ambos modelos utilizan menos tokens que Granite 3.3 8B (No Razonamiento) y la mayoría de los otros modelos de pesos abiertos no razonamiento más pequeños que 40B parámetros totales (excepto Qwen3 0.6B que utiliza 1.9M tokens de salida).
Detalles clave del modelo:
➤🌐 Disponibilidad: Los cuatro modelos están disponibles en Hugging Face. Granite 4.0 H Small está disponible en Replicate y tiene un precio de $0.06/$0.25 por 1M de tokens de entrada/salida.
➤📏 Ventana de contexto: 128K tokens.
➤©️ Licencia: Los modelos Granite 4.0 están disponibles bajo la licencia Apache 2.0.


35,8K
Parte superior
Clasificación
Favoritos