Diffusie video modellen maar nu - **realtime**! Eenvoudige videofilters zijn realtime, maar kunnen alleen basiskleuren en stijlen opnieuw inkleuren. Videodiffusiemodellen (Veo en vrienden) zijn magisch, maar het duurt vele seconden/minuten om ze te genereren. MirageLSD is real-time magie. In tegenstelling tot eenvoudige videofilters, begrijpen diffusiemodellen eigenlijk *begrijpen* waar ze naar kijken, zodat ze alle delen van de feed intelligent kunnen stylen (bijv. hoeden op hoofden zetten, of lichtzwaarden in handen, enz.). En ze zijn willekeurig te sturen, bijvoorbeeld door sms-aanwijzingen. Aanpasbare, intelligente videofilters ontgrendelen in de loop van de tijd veel coole ideeën: - Camerafeeds omzetten in alternatieve realiteiten - Regisseer en schiet je eigen films, waarbij je scènes naspeelt met rekwisieten. Realtime => directe feedback/beoordeling. - Vibe codeer games rond alleen eenvoudige bollen/blokken en gebruik vervolgens een real-time diffusiemodel om je spel te textureren om het mooi te maken. - Stijl en pas elke videofeed aan: games, video's, ... bijv. Skyrim maar "MEER EPISCH"? DOOM II maar moderne Unreal Engine-kwaliteit met slechts een prompt? Horrorfilm maar "schattig, roze en alleen konijntjes"? Ik weet het niet! - Achtergronden van zoomgesprekken+++ - Real-time kleding virtueel passen - Bril: bijv. uw visie in realtime cartooniseren? - we kunnen nu Harry Potter Mirror of Erised bouwen, waarbij de "ruwe feed" van jou in de spiegel wordt getoond, maar aangevuld met je diepste verlangens (zoals afgeleid door de AI). - Ik weet het niet, ik mis waarschijnlijk de grootste, zoveel dingen! (Openbaarmaking, ik ben (zeer kleine) angel-investeerder in Decart, ik was opgewonden omdat deze technologie imo heel snel heel goed zal worden en het voelt algemeen, krachtig aan, maar het is ook technisch erg moeilijk. Gefeliciteerd met de lancering voor het team!)