增强大型语言模型:NVIDIA的后训练量化技术
realtime news Aug 02, 2025 10:05
NVIDIA的后训练量化(PTQ)通过利用像NVFP4这样的格式,在不重新训练的情况下优化推理,提高AI模型的性能和效率,据NVIDIA称。

NVIDIA正在通过后训练量化(PTQ)技术推进人工智能模型优化的进步,这是一种无需重训练即可提高性能和效率的技术。据NVIDIA报道,这种方法以受控方式降低模型精度,显著提高了延迟、吞吐量和内存效率。这种方法正在获得如FP4等格式的支持,这些格式提供了显著的增益。
量化简介
量化是一种允许开发者通过交换训练中多余精度以获得更快速推理和减少内存占用的过程。传统模型以FP16、BF16或FP8等完全或混合精度格式训练。然而,进一步量化到低精度格式如FP4可以解锁更大的效率提升。NVIDIA的TensorRT模型优化器通过提供一个灵活的框架支持这一过程,包括诸如SmoothQuant和激活感知权重量化(AWQ)等校准技术。
使用TensorRT模型优化器的PTQ
TensorRT模型优化器旨在优化AI模型以进行推理,支持各种量化格式。它与流行的框架如PyTorch和Hugging Face无缝集成,便于在各种平台上的轻松部署。通过将模型量化为如NVFP4格式,开发者可以在保持准确性的同时显著提高模型的吞吐量。
高级校准技术
校准方法对于确定量化的最佳缩放因子至关重要。简单的方法如最小-最大校准对异常值敏感,而高级技术如SmoothQuant和AWQ提供了更稳健的解决方案。这些方法通过在激活平滑性和权重缩放之间取得平衡,确保高效量化而不影响性能,从而帮助保持模型准确性。
量化到NVFP4的结果
将模型量化到NVFP4在TensorRT模型优化器中提供了最高级别的压缩,显著加速了主要语言模型的令牌生成吞吐量。这是在保留模型原始准确性的同时实现的,展示了PTQ技术在增强AI模型性能上的有效性。
导出PTQ优化的模型
一旦经过PTQ优化,模型可以作为量化的Hugging Face检查点导出,以便于在不同推理引擎之间的轻松共享和部署。NVIDIA在Hugging Face Hub上的模型优化器集合包括可立即使用的检查点,使开发者能够立刻利用PTQ优化的模型。
总体而言,NVIDIA在后训练量化方面的进步正在通过允许更快、更高效的模型而不牺牲准确性来改变AI部署。随着量化技术生态系统的不断增长,开发者可以期待未来更大的性能提升。
Image source: Shutterstock