Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Vær ikke redd for storhet
Agentbyggeren som OpenAI ga ut i dag ble bygget ende-til-ende på under 6 uker, med Codex som skrev 80 % av PR-ene.
Hvis du føler at tråkkfrekvensen til nye utgivelser akselererer, er Codex sannsynligvis mye av grunnen til det.

Steven Heidel15 timer siden
det er vanskelig å overdrive hvor viktig Codex har vært for teamets evne til å sende nye produkter. for eksempel: dra-og-slipp-agentbyggeren vi lanserte i dag ble bygget fra ende til annen på under 6 uker, takket være at Codex skrev 80 % av PR-ene
135,59K
Greg Brockman forklarer at vi er på vei mot en «dataørken» hvis vi ikke bygger nok datasentre raskt:
«Vi trenger så mye datakraft som vi kan få. Hele bransjen prøver å tilpasse seg mengden etterspørsel etter AI-tjenester som vi ser komme i løpet av de neste par årene.
Vi ser en verden med absolutt dataknapphet. Det kommer til å være så stor etterspørsel etter AI-tjenester, og ikke bare fra OpenAI, egentlig fra hele økosystemet. Derfor er det viktig for hele denne bransjen å komme sammen og si, hvordan kan vi bygge i forkant av denne dataørkenen som vi ellers er på vei mot.»
9,93K
August 2025: Oxford- og Cambridge-matematikere publiserer en artikkel med tittelen "No LLM Solved Yu Tsumura's 554th Problem".
De ga dette problemet til o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Extended Thinking) og andre modeller, med instruksjoner om å "ikke utføre et nettsøk for å løse problemet". Ingen LLM kunne løse det.
Avisen hevder selvtilfreds: «Vi viser, i motsetning til optimismen om LLMs problemløsningsevner, drevet av de nylige gullmedaljene som ble oppnådd, at det eksisterer et problem – Yu Tsumuras 554. c) krever færre bevisteknikker enn typiske harde IMO-problemer, d) har en offentlig tilgjengelig løsning (sannsynligvis i treningsdataene til LLM-er), og e) som ikke lett kan løses av noen eksisterende hyllevare-LLM (kommersiell eller åpen kildekode)."
(Tilsynelatende fikk ikke disse matematikerne notatet om at de uutgitte OpenAI- og Google-modellene som vant gull på IMO er betydelig kraftigere enn de offentlig tilgjengelige modellene de testet. Men det spiller ingen rolle.)
Oktober 2025: GPT-5 Pro løser Yu Tsumuras 554.
Lee Sedol-øyeblikket kommer for mange.

Bartosz Naskręcki5. okt., 10:37
GPT-5-Pro løste, på bare 15 minutter (uten internettsøk), presentasjonsproblemet kjent som "Yu Tsumuras 554.
Dette er den første modellen som løser denne oppgaven fullstendig. Jeg forventer flere slike resultater snart - modellen demonstrerer et sterkt grep om elementær abstrakt algebra-resonnement.



181,04K
Topp
Rangering
Favoritter