Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Rich ist erstaunlich, aber ich denke tatsächlich nicht, dass er im Zeitalter der LLMs richtig sein wird.
In vielerlei Hinsicht habe ich dokumentiert, dass ich mit Dwarkesh über das Problem (und die Definition) des kontinuierlichen Lernens nicht einverstanden bin.
Zu viel von "Intelligenz" basiert auf menschlichen Intuitionen.

27. Sept., 00:01
.@RichardSSutton, der Vater des Reinforcement Learning, denkt nicht, dass LLMs bitter-lesson-pilled sind.
Mein Stahlmann von Richards Position: Wir brauchen eine neue Architektur, um kontinuierliches (on-the-job) Lernen zu ermöglichen.
Und wenn wir kontinuierliches Lernen haben, brauchen wir keine spezielle Trainingsphase - der Agent lernt einfach im Fluss - wie alle Menschen und tatsächlich, wie alle Tiere.
Dieses neue Paradigma wird unseren aktuellen Ansatz mit LLMs obsolet machen.
Ich habe mein Bestes getan, um die Ansicht zu vertreten, dass LLMs als Grundlage fungieren werden, auf der dieses erfahrungsbasierte Lernen stattfinden kann. Einige Funken flogen.
0:00:00 – Sind LLMs eine Sackgasse?
0:13:51 – Machen Menschen Imitationslernen?
0:23:57 – Die Ära der Erfahrung
0:34:25 – Aktuelle Architekturen generalisieren schlecht außerhalb der Verteilung
0:42:17 – Überraschungen im KI-Bereich
0:47:28 – Wird die Bittere Lektion nach AGI immer noch gelten?
0:54:35 – Nachfolge zur KI
@DicksonPau
Ich würde hinzufügen, dass dies kein Grund ist, grundlegende Forschung zu vermeiden, aber Sie sollten Ihre Erwartungen daran, wie schwierig Forschung ist, anpassen.
Große Technologie wird eine andere Maschine schaffen.
80,77K
Top
Ranking
Favoriten