Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Wees niet bang voor grootsheid
De agentbouwer die OpenAI vandaag heeft uitgebracht, is end-to-end in minder dan 6 weken gebouwd, met Codex die 80% van de PR's heeft geschreven.
Als je het gevoel hebt dat de frequentie van nieuwe releases toeneemt, is Codex waarschijnlijk een groot deel van de reden waarom.

Steven Heidel7 okt, 04:06
het is moeilijk te overschatten hoe belangrijk Codex is geweest voor het vermogen van ons team om nieuwe producten te lanceren. bijvoorbeeld: de drag-and-drop agent builder die we vandaag hebben gelanceerd, is van begin tot eind in minder dan 6 weken gebouwd, dankzij Codex die 80% van de PR's heeft geschreven.
135,62K
Greg Brockman legt uit dat we op weg zijn naar een "compute woestijn" als we niet snel genoeg datacenters bouwen:
"We hebben zoveel mogelijk rekenkracht nodig als we maar kunnen krijgen. De hele industrie probeert zich aan te passen aan de hoeveelheid vraag naar AI-diensten die we de komende jaren zien aankomen.
We zien een wereld met absolute schaarste aan rekenkracht. Er zal zoveel vraag zijn naar AI-diensten, en niet alleen van OpenAI, maar echt van het hele ecosysteem. Daarom is het belangrijk dat deze hele industrie samenkomt en zegt: hoe kunnen we bouwen in afwachting van deze compute woestijn waar we anders naartoe gaan."
15,21K
Augustus 2025: Wiskundigen van Oxford en Cambridge publiceren een paper getiteld "Geen LLM heeft het 554e probleem van Yu Tsumura opgelost".
Ze gaven dit probleem aan o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Extended Thinking) en andere modellen, met instructies om "geen webzoektocht uit te voeren om het probleem op te lossen". Geen enkele LLM kon het oplossen.
Het paper beweert zelfvoldaan: "We tonen aan, in tegenstelling tot de optimisme over de probleemoplossende capaciteiten van LLM's, aangewakkerd door de recente gouden medailles die zijn behaald, dat er een probleem bestaat—het 554e probleem van Yu Tsumura—dat a) binnen het bereik van een IMO-probleem ligt qua bewijscomplexiteit, b) geen combinatorisch probleem is dat problemen heeft veroorzaakt voor LLM's, c) minder bewijs technieken vereist dan typische moeilijke IMO-problemen, d) een openbaar beschikbare oplossing heeft (waarschijnlijk in de trainingsdata van LLM's), en e) dat niet gemakkelijk kan worden opgelost door een bestaande off-the-shelf LLM (commercieel of open-source)."
(Blijkbaar hebben deze wiskundigen de memo niet gekregen dat de niet-uitgebrachte OpenAI- en Google-modellen die goud wonnen op de IMO aanzienlijk krachtiger zijn dan de publiek beschikbare modellen die ze hebben getest. Maar dat doet er niet toe.)
Oktober 2025: GPT-5 Pro lost het 554e probleem van Yu Tsumura op in 15 minuten.
Het Lee Sedol-moment komt eraan voor velen.

Bartosz Naskręcki5 okt, 10:37
GPT-5-Pro heeft in slechts 15 minuten (zonder enige internetzoekopdracht) het presentatieprobleem dat bekend staat als "Yu Tsumura's 554e Probleem" opgelost.
Dit is het eerste model dat deze taak volledig heeft opgelost. Ik verwacht binnenkort meer van dergelijke resultaten — het model toont een sterk begrip van elementaire abstracte algebra redenering.



183,17K
Boven
Positie
Favorieten