Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tijdens de NeurIPS 2025-conferentie van vorige maand, ging YC’s @agupta zitten met @krandiash, oprichter en CEO van Cartesia, om uit te leggen waarom de huidige AI-architecturen fundamenteel beperkt kunnen zijn.
Ze bespreken hoe transformers meer functioneren als retrieval-systemen dan als leersystemen, waar nieuwe modelbenaderingen passen, en wat echte multimodale intelligentie mogelijk vereist. Ze behandelen ook waarom Cartesia begon met AI-stem en hoe onderzoeksgestuurde teams diepgaand onderzoek omzetten in echte producten.
00:11 — Introductie van Cartesia
00:26 — Van Architectuuronderzoek naar Startup
01:20 — Wat “Architectuuronderzoek” Echt Betekent
02:18 — Waarom Transformers een Limiet Bereiken
03:33 — Uitleg van State Space Models
04:21 — Intelligentie als Compressie
05:47 — Retrieval vs. Abstractie
06:41 — Hybride Architecturen en de Toekomst
07:13 — Waarom Cartesia Kiest voor Stem-AI
08:25 — Wat Multimodaliteit Echt Betekent
09:20 — Audio als een Recept voor Andere Modaliteiten
10:09 — Tokens, Representaties en Leer Signalen
11:37 — Leer Representaties End-to-End
12:29 — Bouwen voor de “Gemiddelde Mens”
13:54 — Onderzoek vs. Product Realiteit
15:18 — Eén Visie, Meedogenloos Uitgevoerd
16:28 — Product als een Waarheidsserum voor Onderzoek
17:25 — Startup Zwaartekracht Geldt Ook voor Onderzoek
Boven
Positie
Favorieten
