Diffusjonsvideomodeller, men nå - **sanntid**! Enkle videofiltre er i sanntid, men kan bare gjøre grunnleggende omfarging og stiler. Videodiffusjonsmodeller (Veo og venner) er magiske, men de tar mange sekunder/minutter å generere. MirageLSD er magi i sanntid. I motsetning til enkle videofiltre, *forstår* diffusjonsmodeller faktisk hva de ser på, slik at de kan style alle deler av feeden intelligent (f.eks. sette hatter på hodet, eller lyssabler i hendene, etc.). Og de kan styres vilkårlig, for eksempel ved hjelp av tekstmeldinger. Tilpassbare, intelligente videofiltre låser opp mange kule ideer over tid: - forvandle kamerafeeder til alternative virkeligheter - Regisser og ta opp dine egne filmer, og rollespill scener med rekvisitter. Sanntid => umiddelbar tilbakemelding/gjennomgang. - Vibe Code-spill rundt bare enkle kuler/blokker, og bruk deretter en sanntidsdiffusjonsmodell for å strukturere spillet ditt for å gjøre det vakkert. - Stil og tilpass hvilken som helst videofeed: spill, videoer, ... f.eks. Skyrim, men "MER EPISK"? DOOM II, men moderne Unreal Engine-kvalitet med bare en melding? Skrekkfilm, men "søte, rosa og bare kaniner"? Jeg vet ikke! - Zoom samtalebakgrunner+++ - Prøv klær i sanntid virtuelt - briller: f.eks. tegneserier av synet ditt i sanntid? - vi kan nå bygge Harry Potter Mirror of Erised, som viser den "rå feeden" av deg i speilet, men forsterket med dine dypeste ønsker (som utledet av AI). - Jeg vet ikke, jeg går nok glipp av den største, så mange ting! (Avsløring Jeg er (veldig liten) engleinvestor i Decart, jeg var spent fordi imo denne teknologien vil bli veldig bra veldig raskt, og den føles generell, kraftig, men den er også teknisk veldig vanskelig. Gratulerer med lanseringen til teamet!)