⚡ Più facile. Più veloce. Aperto. TensorRT LLM 1.0 Distribuzione semplice, #opensource e estensibile – tutto mentre spingiamo i confini delle prestazioni di inferenza. Con un miglioramento delle prestazioni di inferenza record di 8 volte, TensorRT LLM v1.0 rende semplice fornire LLM in tempo reale e a costi contenuti sui nostri GPU. 📥 Appena rilasciato su GitHub: 🔥 Novità Autore del modello @PyTorch per uno sviluppo rapido Runtime #Python modulare per flessibilità API LLM stabile per una distribuzione senza soluzione di continuità 👩‍💻 Unisciti al nostro livestream per saperne di più: 📅 25 settembre, 17-18 (PDT)