⚡ Más fácil. Más rápido. Abierto. TensorRT LLM 1.0 Despliegue simple, #opensource y extensible, todo mientras se empuja la frontera del rendimiento de inferencia. Con una mejora de rendimiento de inferencia récord de 8X, TensorRT LLM v1.0 facilita la entrega de LLMs en tiempo real y rentables en nuestras GPUs. 📥 Justo lanzado en GitHub: 🔥 Novedades Autoría de modelos @PyTorch para un desarrollo rápido Runtime modular #Python para flexibilidad API LLM estable para un despliegue sin problemas 👩‍💻 Únete a nuestra transmisión en vivo para aprender más: 📅 25 de septiembre, 5-6 pm (PDT)