Modelli video di diffusione, ma ora - **in tempo reale**! I filtri video semplici sono in tempo reale, ma possono eseguire solo la ricolorazione e gli stili di base. I modelli di diffusione video (Veo e amici) sono magici, ma richiedono molti secondi/minuti per essere generati. MirageLSD è magia in tempo reale. A differenza dei semplici filtri video, i modelli di diffusione in realtà *capiscono* cosa stanno guardando, quindi possono modellare tutte le parti del feed in modo intelligente (ad esempio, mettere cappelli in testa o spade laser nelle mani, ecc.). E sono guidabili arbitrariamente, ad esempio tramite prompt di testo. I filtri video personalizzabili e intelligenti sbloccano molte idee interessanti nel tempo: - Trasforma i feed delle telecamere in realtà alternative - Dirigi e gira i tuoi film, recitando le scene con gli oggetti di scena. Tempo reale => feedback/recensione immediata. - Codifica i giochi attorno a semplici sfere/blocchi, quindi utilizza un modello di diffusione in tempo reale per texturizzare il tuo gioco per renderlo bello. - Stile e personalizzazione di qualsiasi feed video: giochi, video, ... ad esempio Skyrim ma "PIÙ EPICO"? DOOM II ma la moderna qualità dell'Unreal Engine con un solo prompt? Film horror ma "solo carini, rosa e coniglietti"? Non lo so! - Sfondi per chiamate zoom+++ - Prova i vestiti in tempo reale virtualmente - Occhiali: ad esempio, cartoonizzare la tua visione in tempo reale? - ora possiamo costruire Harry Potter Mirror of Erised, mostrando il "feed grezzo" di te nello specchio ma aumentato con i tuoi desideri più profondi (come dedotto dall'IA). - Non lo so, probabilmente mi sto perdendo il più grande, così tante cose! (Divulgazione Sono un (piccolissimo) angel investor in Decart, ero entusiasta perché imo questa tecnologia diventerà molto buona molto velocemente e sembra generale, potente ma è anche tecnicamente molto difficile. Congratulazioni per il lancio al team!)