Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Rich er fantastisk, men jeg tror faktisk ikke han kommer til å ha rett i LLM-alderen.
På omtrent samme måte som jeg har dokumentert at jeg er uenig med Dwarkesh om problemet med kontinuerlig læring (og definisjon).
For mye av "intelligens" er basert på menneskelige intuisjoner.

27. sep., 00:01
.@RichardSSutton, far til forsterkende læring, tror ikke LLM-er er bitre leksjoner.
Min stålmann i Richards posisjon: vi trenger litt ny arkitektur for å muliggjøre kontinuerlig læring (på jobben).
Og hvis vi har kontinuerlig læring, trenger vi ikke en spesiell treningsfase - agenten lærer bare på farten - som alle mennesker, og faktisk som alle dyr.
Dette nye paradigmet vil gjøre vår nåværende tilnærming med LLM-er foreldet.
Jeg gjorde mitt beste for å representere synet på at LLM-er vil fungere som grunnlaget for denne erfaringsbaserte læringen kan skje. Noen gnister fløy.
0:00:00 – Er LLM-er en blindvei?
0:13:51 – Gjør mennesker imitasjonslæring?
0:23:57 – Opplevelsens æra
0:34:25 – Nåværende arkitekturer generaliserer dårlig ut av distribusjon
0:42:17 – Overraskelser i AI-feltet
0:47:28 – Vil The Bitter Lesson fortsatt gjelde etter AGI?
0:54:35 – Etterfølgelse til AI
@DicksonPau
Jeg vil legge til at dette IKKE er en grunn til å unngå grunnleggende forskning, men du bør være kalibrert i dine forventninger til hvor vanskelig forskning er.
Big tech vil lage en annen maskin.
81,05K
Topp
Rangering
Favoritter