Place your ads here email us at info@blockchain.news
NVIDIA 的 Grace Hopper 超级芯片革新 XGBoost 3.0,实现太字节规模数据集处理 - Blockchain.News

NVIDIA 的 Grace Hopper 超级芯片革新 XGBoost 3.0,实现太字节规模数据集处理

realtime news Aug 07, 2025 15:00

NVIDIA 最新的 Grace Hopper 超级芯片增强了 XGBoost 3.0,能够以更快的速度和成本效益高效处理太字节规模的数据集。

NVIDIA 的 Grace Hopper 超级芯片革新 XGBoost 3.0,实现太字节规模数据集处理

NVIDIA 推出了重要的机器学习能力进步,推出了 Grace Hopper 超级芯片,专为优化 XGBoost 3.0 在太字节规模数据集上的表现而设计。据 NVIDIA 称,这一开发标志着一个关键时刻,对于依赖梯度提升决策树(GBDT)的行业,其应用范围从欺诈检测到需求预测。

Grace Hopper 超级芯片的性能提升

NVIDIA GH200 Grace Hopper 超级芯片被设计为能够处理从千兆字节到太字节规模的数据集,这得益于其连贯的内存架构。它利用 900 GB/s 的 NVIDIA NVLink-C2C 来流传输数据,使得 1 TB 的模型训练比传统的 CPU 设置快得多。该创新有望减少对复杂 GPU 集群的需求,并简化可扩展性。

XGBoost 3.0 发行版带来了诸如外部内存支持等增强功能,使得在单个超级芯片上处理大型数据集成为可能。这使得以前需要大量 GPU 集群或高内存 CPU 服务器才能训练的模型成为可能。

金融系统中的应用

金融机构将从这些进步中受益。例如,作为一家主要银行,RBC 将搭载 NVIDIA GPU 的 XGBoost 集成到其领先评分系统中,实现了 16 倍的加速和 94% 的模型训练总拥有成本降低。这一转变允许更快速的特征优化,对于高效处理大量数据至关重要。

XGBoost 3.0 的技术增强

XGBoost 3.0 引入了外部内存分位数 DMatrix,能够在单个 GH200 超级芯片上扩展到太字节规模的数据集。此方法利用超快的 C2C 带宽,并通过避免分布式框架简化了设置过程。新的机制有效地压缩数据集,在优化内存使用的同时保持模型精度。

此外,超级芯片的设计结合了 72 核的 Grace CPU 和 Hopper GPU,提供了巨大的带宽和低延迟,使其非常适合处理大规模的训练任务,而不需要复杂的多 GPU 设置。

基准测试和最佳实践

NVIDIA 的 Grace Hopper 超级芯片在 1 TB 数据集上展示了令人印象深刻的性能,与传统的 CPU 配置相比提供了高达 8 倍的加速。ExtMemQuantileDMatrix 功能对数据形状很敏感,通过分页特征矩阵有效地进行处理,从而优化超级芯片的能力利用。

为了最佳利用外部内存,NVIDIA 建议使用 RAPIDS 内存管理器(RMM)并将系统配置为使用 CUDA 12.8 或更高版本。这些实践确保用户可以充分发挥超级芯片在大规模数据处理中的潜力。

XGBoost 3.0 的新功能是什么?

除了内存增强,XGBoost 3.0 还引入了几项升级,包括对分布式外部内存的实验支持以及在 DMatrix 构建期间减少 GPU 内存使用量。这些变化提高了机器学习任务的效率和速度,使 XGBoost 成为数据科学家的更强大工具。

有兴趣的各方可以下载 XGBoost 3.0 并参考 NVIDIA 提供的安装指南和文档,从而有效地利用这些新功能。

为进一步参与和社区支持,NVIDIA 鼓励加入他们的 Slack 频道或参与他们的加速数据科学学习路径,获得 GPU 加速数据科学的实践经验。

欲了解更多信息,请访问 NVIDIA 博客

Image source: Shutterstock