Rich est incroyable, mais je ne pense pas qu'il sera à la hauteur à l'ère des LLM. De bien des manières, j'ai documenté que je ne suis pas d'accord avec Dwarkesh sur le problème (et la définition) de l'apprentissage continu. Trop de "l'intelligence" est ancrée dans les intuitions humaines.
Dwarkesh Patel
Dwarkesh Patel27 sept., 00:01
.@RichardSSutton, père de l'apprentissage par renforcement, ne pense pas que les LLM soient affectés par la leçon amère. Mon argument en acier de la position de Richard : nous avons besoin d'une nouvelle architecture pour permettre l'apprentissage continu (sur le tas). Et si nous avons un apprentissage continu, nous n'avons pas besoin d'une phase de formation spéciale - l'agent apprend simplement en temps réel - comme tous les humains, et en effet, comme tous les animaux. Ce nouveau paradigme rendra notre approche actuelle avec les LLM obsolète. J'ai fait de mon mieux pour représenter le point de vue selon lequel les LLM fonctionneront comme la base sur laquelle cet apprentissage expérientiel peut se produire. Quelques étincelles ont volé. 0:00:00 – Les LLM sont-ils une impasse ? 0:13:51 – Les humains font-ils de l'apprentissage par imitation ? 0:23:57 – L'ère de l'expérience 0:34:25 – Les architectures actuelles se généralisent mal hors distribution 0:42:17 – Surprises dans le domaine de l'IA 0:47:28 – La leçon amère s'appliquera-t-elle encore après l'AGI ? 0:54:35 – Succession à l'IA
@DicksonPau
Je voudrais ajouter que ce n'est PAS une raison d'éviter la recherche fondamentale, mais vous devriez être calibré dans vos attentes quant à la difficulté de la recherche. Les grandes entreprises technologiques créeront une machine différente.
80,77K