Falei com @bernhardsson sobre criar um provedor de infraestrutura nativo de IA do zero: "Quando eu estava fazendo aprendizado de máquina no Spotify, 90% do trabalho era apenas construir a infraestrutura, não a aplicação. E a infraestrutura tradicional não é feita para ciclos de feedback rápidos. Quando você está construindo com IA, é realmente irritante testar localmente e depois implantar em produção. Você pode dividir em dois ambientes, mas então você enfrenta o problema de transitar entre eles. Isso não era um problema antes da IA. Mas agora, você tem GPUs e modelos muito grandes que demoram muito para carregar. Então, essa etapa de inicialização leva muito tempo. Construímos @modal para permitir ciclos de feedback rápidos. Eu posso pressionar enter e rodar imediatamente na nuvem. Isso também se adapta bem para rodar aplicativos de IA na nuvem. Porque nenhum provedor de nuvem tradicional tem capacidade para lidar com a escalabilidade dinâmica de GPU necessária para executar inferências. Acabamos criando um provedor de nuvem totalmente novo, nativo de IA."