Conversei com @bernhardsson sobre a criação de um provedor de infraestrutura nativa de IA do zero: "Quando eu estava fazendo aprendizado de máquina no Spotify, 90% do trabalho era apenas construir a infraestrutura, não o aplicativo. E a infraestrutura tradicional não foi criada para ciclos de feedback rápidos. Quando você está criando com IA, é realmente irritante testar localmente e depois implantar na produção. Você pode dividi-lo em dois ambientes, mas então você se depara com o problema de ir entre eles. Isso não era um problema pré-IA. Mas agora, você tem GPUs e modelos muito grandes que demoram muito para carregar. Portanto, essa etapa de iniciação leva muito tempo. Construímos @modal para permitir ciclos de feedback rápidos. Posso apertar enter e executar imediatamente na nuvem. Isso também é bom para a execução de aplicativos de IA na nuvem. Porque nenhum provedor de nuvem tradicional tem capacidade para lidar com o dimensionamento dinâmico de GPU necessário para executar a inferência. No final das contas, acabamos criando um provedor de nuvem totalmente novo, nativo da IA."