⚡ Einfacher. Schneller. Offen. TensorRT LLM 1.0 Einfache Bereitstellung, #opensource und erweiterbar – und das alles, während die Grenzen der Inferenzleistung verschoben werden. Mit einem rekordverdächtigen 8-fachen Verbesserungsgrad der Inferenzleistung macht TensorRT LLM v1.0 es einfach, Echtzeit-LLMs kosteneffizient auf unseren GPUs bereitzustellen. 📥 Gerade auf GitHub veröffentlicht: 🔥 Neuigkeiten @PyTorch Modellautorschaft für schnelle Entwicklung Modularer #Python-Laufzeit für Flexibilität Stabile LLM-API für nahtlose Bereitstellung 👩‍💻 Nimm an unserem Livestream teil, um mehr zu erfahren: 📅 25. Sept., 17-18 Uhr (PDT)