Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
N’ayez pas peur de la grandeur
L'agent builder qu'OpenAI a publié aujourd'hui a été construit de bout en bout en moins de 6 semaines, avec Codex écrivant 80 % des PRs.
Si vous sentez que le rythme des nouvelles publications s'accélère, Codex en est probablement en grande partie la raison.

Steven Heidelil y a 23 heures
il est difficile de surestimer à quel point Codex a été important pour la capacité de notre équipe à lancer de nouveaux produits. par exemple : le constructeur d'agents par glisser-déposer que nous avons lancé aujourd'hui a été construit de bout en bout en moins de 6 semaines, grâce à Codex qui a rédigé 80 % des PR.
135,6K
Greg Brockman explique que nous nous dirigeons vers un "désert de calcul" si nous ne construisons pas suffisamment de centres de données rapidement :
"Nous avons besoin de toute la puissance de calcul possible. Toute l'industrie essaie de s'adapter à la demande de services d'IA que nous voyons arriver au cours des prochaines années.
Nous assistons à un monde avec une rareté absolue de calcul. Il y aura une demande énorme pour les services d'IA, et pas seulement de la part d'OpenAI, mais vraiment de tout l'écosystème. C'est pourquoi il est important que toute cette industrie se réunisse et se demande comment nous pouvons construire en avance de ce désert de calcul vers lequel nous nous dirigeons sinon."
14,15K
Août 2025 : des mathématiciens d'Oxford et de Cambridge publient un article intitulé "Aucun LLM n'a résolu le 554ème problème de Yu Tsumura".
Ils ont donné ce problème à o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Pensée Étendue) et d'autres modèles, avec des instructions de "ne pas effectuer de recherche sur le web pour résoudre le problème". Aucun LLM n'a pu le résoudre.
L'article prétend avec arrogance : "Nous montrons, contrairement à l'optimisme concernant les capacités de résolution de problèmes des LLM, alimenté par les récentes médailles d'or qui ont été obtenues, qu'un problème existe—le 554ème problème de Yu Tsumura—qui a a) un niveau de sophistication de preuve correspondant à un problème de l'IMO, b) n'est pas un problème de combinatoire qui a causé des problèmes aux LLM, c) nécessite moins de techniques de preuve que les problèmes difficiles typiques de l'IMO, d) a une solution disponible publiquement (probablement dans les données d'entraînement des LLM), et e) qui ne peut pas être facilement résolu par un LLM existant hors étagère (commercial ou open-source)."
(Apparemment, ces mathématiciens n'ont pas reçu le mémo selon lequel les modèles non publiés d'OpenAI et de Google qui ont remporté l'or à l'IMO sont significativement plus puissants que les modèles disponibles publiquement qu'ils ont testés. Mais peu importe.)
Octobre 2025 : GPT-5 Pro résout le 554ème problème de Yu Tsumura en 15 minutes.
Le moment Lee Sedol arrive pour beaucoup.

Bartosz Naskręcki5 oct., 10:37
GPT-5-Pro a résolu, en seulement 15 minutes (sans aucune recherche sur internet), le problème de présentation connu sous le nom de "554ème Problème de Yu Tsumura."
C'est le premier modèle à résoudre complètement cette tâche. J'attends d'autres résultats de ce type bientôt — le modèle démontre une forte compréhension du raisonnement en algèbre abstraite élémentaire.



181,05K
Meilleurs
Classement
Favoris