Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Nie bój się wielkości
Agregator agentów, który OpenAI wydało dzisiaj, został zbudowany od początku do końca w mniej niż 6 tygodni, przy czym Codex napisał 80% PR-ów.
Jeśli czujesz, że tempo nowych wydań przyspiesza, Codex jest prawdopodobnie głównym powodem.

Steven Heidel23 godz. temu
trudno przecenić, jak ważny był Codex dla zdolności naszego zespołu do wprowadzania nowych produktów. na przykład: kreator agentów z funkcją przeciągnij i upuść, który uruchomiliśmy dzisiaj, został zbudowany od początku do końca w mniej niż 6 tygodni, dzięki Codex, który napisał 80% PR-ów.
135,6K
Greg Brockman wyjaśnia, że zmierzamy w kierunku "pustyni obliczeniowej", jeśli nie zbudujemy wystarczającej liczby centrów danych w szybkim tempie:
"Potrzebujemy jak najwięcej mocy obliczeniowej, jaką tylko możemy uzyskać. Cała branża stara się dostosować do rosnącego zapotrzebowania na usługi AI, które widzimy nadchodzące w ciągu najbliższych kilku lat.
Widzimy świat z absolutnym niedoborem obliczeń. Będzie tak duże zapotrzebowanie na usługi AI, i to nie tylko od OpenAI, ale naprawdę z całego ekosystemu. Dlatego ważne jest, aby cała ta branża zjednoczyła się i powiedziała, jak możemy budować z wyprzedzeniem w obliczu tej pustyni obliczeniowej, w kierunku której zmierzamy."
14,15K
Sierpień 2025: Matematycy z Oksfordu i Cambridge opublikowali artykuł zatytułowany "Żaden LLM nie rozwiązał 554. problemu Yu Tsumury".
Przekazali ten problem o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Rozszerzone Myślenie) i innym modelom, z instrukcją, aby "nie przeprowadzać wyszukiwania w sieci w celu rozwiązania problemu". Żaden LLM nie był w stanie go rozwiązać.
Artykuł z dumą twierdzi: "Pokazujemy, wbrew optymizmowi na temat zdolności LLM do rozwiązywania problemów, podsycanemu przez ostatnie złote medale, że istnieje problem—554. problem Yu Tsumury—który a) mieści się w zakresie problemu IMO pod względem złożoności dowodu, b) nie jest problemem kombinatorycznym, co sprawiło trudności LLM, c) wymaga mniej technik dowodowych niż typowe trudne problemy IMO, d) ma publicznie dostępną rozwiązanie (prawdopodobnie w danych treningowych LLM), i e) nie może być łatwo rozwiązany przez jakikolwiek istniejący LLM dostępny na rynku (komercyjny lub open-source)."
(Prawdopodobnie ci matematycy nie dostali informacji, że nieopublikowane modele OpenAI i Google, które zdobyły złoto na IMO, są znacznie potężniejsze niż publicznie dostępne modele, które testowali. Ale to nie ma znaczenia.)
Październik 2025: GPT-5 Pro rozwiązuje 554. problem Yu Tsumury w 15 minut.
Moment Lee Sedola nadchodzi dla wielu.

Bartosz Naskręcki5 paź, 10:37
GPT-5-Pro rozwiązał, w zaledwie 15 minut (bez żadnego wyszukiwania w internecie), problem prezentacyjny znany jako „554. Problem Yu Tsumury”.
To pierwszy model, który całkowicie rozwiązał to zadanie. Oczekuję więcej takich wyników wkrótce — model wykazuje silne zrozumienie podstawowego rozumowania w algebrze abstrakcyjnej.



181,05K
Najlepsze
Ranking
Ulubione