Jag pratade med @bernhardsson om att skapa en AI-inbyggd infrastrukturleverantör från grunden: "När jag arbetade med maskininlärning på Spotify handlade 90 % av arbetet bara om att bygga infrastrukturen, inte applikationen. Och traditionell infra är inte byggd för snabba återkopplingsslingor. När du skapar med AI är det verkligen irriterande att testa lokalt och sedan distribuera till produktion. Du kan dela upp den i två miljöer, men då stöter du på problemet med att gå mellan dem. Detta var inte ett problem före AI. Men nu har du GPU:er och mycket stora modeller som tar lång tid att ladda. Så det här initieringssteget tar väldigt lång tid. Vi byggde @modal för att möjliggöra snabba återkopplingsslingor. Jag kan trycka på enter och köra direkt i molnet. Detta lämpar sig också bra för att köra AI-appar i molnet. Eftersom ingen traditionell molnleverantör har kapacitet att hantera dynamisk GPU-skalning som krävs för att köra slutsatsdragning. Det slutade med att vi skapade en helt ny molnleverantör som är inbyggd i AI."