Er is geen inferentie moat Dat is er niet sinds 2023 met modelcompilatie van torch 2.0 en consolidatie naar transformers van DiT Nvidia verliest op lange termijn de inferentiemarkt op batch om de TCO (AMD) te verlagen en real-time (TPU, ASICS)