¡FLUX.1 Kontext se ha SOBREALIMENTADO! @NVIDIA_AI_PC aceleración de TensorRT ofrece una inferencia 2 veces más rápida en las GPU RTX. La cuantificación reduce la memoria de 24 GB a 7 GB (FP4) mientras mantiene la calidad. Las variantes BF16/FP8/FP4 listas para la producción ya están en @huggingface