⚡ Plus facile. Plus rapide. Ouvert. TensorRT LLM 1.0 Déploiement simple, #opensource, et extensible – tout en repoussant les limites de la performance d'inférence. Avec une amélioration de performance d'inférence record de 8X, TensorRT LLM v1.0 facilite la livraison de LLM en temps réel et rentables sur nos GPU. 📥 Juste publié sur GitHub : 🔥 Quoi de neuf @PyTorch création de modèles pour un développement rapide Runtime #Python modulaire pour flexibilité API LLM stable pour un déploiement sans faille 👩‍💻 Rejoignez notre livestream pour en savoir plus : 📅 25 sept., 17h-18h (PDT)