Tijdens de NeurIPS 2025-conferentie van vorige maand, ging YC’s @agupta zitten met @krandiash, oprichter en CEO van Cartesia, om uit te leggen waarom de huidige AI-architecturen fundamenteel beperkt kunnen zijn. Ze bespreken hoe transformers meer functioneren als retrieval-systemen dan als leersystemen, waar nieuwe modelbenaderingen passen, en wat echte multimodale intelligentie mogelijk vereist. Ze behandelen ook waarom Cartesia begon met AI-stem en hoe onderzoeksgestuurde teams diepgaand onderzoek omzetten in echte producten. 00:11 — Introductie van Cartesia 00:26 — Van Architectuuronderzoek naar Startup 01:20 — Wat “Architectuuronderzoek” Echt Betekent 02:18 — Waarom Transformers een Limiet Bereiken 03:33 — Uitleg van State Space Models 04:21 — Intelligentie als Compressie 05:47 — Retrieval vs. Abstractie 06:41 — Hybride Architecturen en de Toekomst 07:13 — Waarom Cartesia Kiest voor Stem-AI 08:25 — Wat Multimodaliteit Echt Betekent 09:20 — Audio als een Recept voor Andere Modaliteiten 10:09 — Tokens, Representaties en Leer Signalen 11:37 — Leer Representaties End-to-End 12:29 — Bouwen voor de “Gemiddelde Mens” 13:54 — Onderzoek vs. Product Realiteit 15:18 — Eén Visie, Meedogenloos Uitgevoerd 16:28 — Product als een Waarheidsserum voor Onderzoek 17:25 — Startup Zwaartekracht Geldt Ook voor Onderzoek