Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
No tengas miedo de la grandeza
El generador de agentes que OpenAI lanzó hoy fue construido de principio a fin en menos de 6 semanas, con Codex escribiendo el 80% de los PRs.
Si sientes que la cadencia de nuevos lanzamientos se está acelerando, Codex es probablemente gran parte de la razón.

Steven HeidelHace 14 horas
es difícil exagerar lo importante que ha sido Codex para la capacidad de nuestro equipo de lanzar nuevos productos. por ejemplo: el constructor de agentes de arrastrar y soltar que lanzamos hoy fue construido de principio a fin en menos de 6 semanas, gracias a que Codex escribió el 80% de los PRs
135,59K
Greg Brockman explica que nos dirigimos hacia un "desierto de computación" si no construimos suficientes centros de datos rápidamente:
"Necesitamos tanto poder de computación como sea posible. Toda la industria está tratando de adaptarse a la cantidad de demanda de servicios de IA que vemos venir en los próximos años.
Estamos viendo un mundo con escasez absoluta de computación. Va a haber tanta demanda de servicios de IA, y no solo de OpenAI, realmente de todo el ecosistema. Por eso es importante que toda esta industria se una y diga, ¿cómo podemos construir antes de este desierto de computación hacia el que nos dirigimos de lo contrario?"
9,93K
Agosto de 2025: Matemáticos de Oxford y Cambridge publican un artículo titulado "Ningún LLM resolvió el 554º problema de Yu Tsumura".
Le dieron este problema a o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Pensamiento Extendido) y otros modelos, con instrucciones de "no realizar una búsqueda en la web para resolver el problema". Ningún LLM pudo resolverlo.
El artículo afirma con arrogancia: "Demostramos, contrariamente al optimismo sobre las habilidades de resolución de problemas de los LLM, alimentado por las recientes medallas de oro que se obtuvieron, que existe un problema—el 554º problema de Yu Tsumura—que a) está dentro del alcance de un problema de la IMO en términos de sofisticación de prueba, b) no es un problema de combinatoria que ha causado problemas a los LLM, c) requiere menos técnicas de prueba que los típicos problemas difíciles de la IMO, d) tiene una solución disponible públicamente (probablemente en los datos de entrenamiento de los LLM), y e) que no puede ser resuelto fácilmente por ningún LLM existente de estantería (comercial o de código abierto)."
(Aparentemente, estos matemáticos no recibieron el aviso de que los modelos no publicados de OpenAI y Google que ganaron oro en la IMO son significativamente más poderosos que los modelos disponibles públicamente que probaron. Pero no importa.)
Octubre de 2025: GPT-5 Pro resuelve el 554º problema de Yu Tsumura en 15 minutos.
El momento de Lee Sedol se acerca para muchos.

Bartosz Naskręcki5 oct, 10:37
GPT-5-Pro resolvió, en solo 15 minutos (sin ninguna búsqueda en internet), el problema de presentación conocido como "el 554º problema de Yu Tsumura."
Este es el primer modelo en resolver esta tarea completamente. Espero más resultados como este pronto: el modelo demuestra un sólido dominio del razonamiento en álgebra abstracta elemental.



181,04K
Parte superior
Clasificación
Favoritos