"Next-token voorspelling" heeft net een serieuze rivaal gekregen 🤯 Ant Group heeft LLaDA 2.1 gelanceerd, en het daagt het dominante paradigma van LLM's uit. In tegenstelling tot de meeste modellen die één token tegelijk genereren, gebruikt LLaDA 2.1 diffusie om blokken tekst parallel te genereren. Waarom dit alles verandert: → Globale Planning: Het ziet effectief de "toekomst" terwijl het de "verleden" schrijft → Parallelle Generatie: Het genereert stukken parallel, niet sequentieel, en is veel sneller → Enorme Efficiëntie: 16B MoE-architectuur die slechts ~1.4B actieve parameters per stap gebruikt. 100% Open Source.