Place your ads here email us at info@blockchain.news
NVIDIA NVLink 和 Fusion 提升 AI 推理性能 - Blockchain.News

NVIDIA NVLink 和 Fusion 提升 AI 推理性能

realtime news Aug 22, 2025 05:33

NVIDIA 的 NVLink 和 NVLink Fusion 技术通过增强的可扩展性和灵活性重新定义了 AI 推理性能,以应对 AI 模型复杂性的指数级增长。

NVIDIA NVLink 和 Fusion 提升 AI 推理性能

人工智能 (AI) 模型复杂性的快速进步显著增加了参数数量,从百万级增长到万亿级,这需要前所未有的计算资源。正如 Joe DeLaere 在最近的 NVIDIA 博客文章 中所指出的,这种演变需要 GPU 集群来管理负载。

NVLink 的演变与影响

NVIDIA 于 2016 年推出 NVLink,以超越 PCIe 在高性能计算和 AI 工作负载中的限制,促进更快的 GPU-to-GPU 通信和统一内存空间。NVLink 技术实现了显著的发展,2018 年引入了 NVLink Switch,在 8-GPU 拓扑中实现 300 GB/s 的全双工带宽,为扩展计算架构铺平了道路。

第五代 NVLink 于 2024 年发布,支持 72 个 GPU 的全双工通信,带宽达到 1,800 GB/s,总带宽为 130 TB/s,是第一代的 800 倍。这一持续进步与 AI 模型日益复杂的计算需求相一致。

NVLink Fusion:定制化与灵活性

NVLink Fusion 旨在为超大规模提供商提供 NVLink 的扩展技术访问权限,允许将定制硅集成到 NVIDIA 的架构中,以进行半定制 AI 基础设施的部署。该技术包括 NVLink SERDES、芯粒、交换机和机架级架构,提供模块化的开放计算项目 (OCP) MGX 机架解决方案以实现灵活的集成。

NVLink Fusion 使用通用芯粒互连 Express (UCIe) IP 和接口支持自定义 CPU 和 XPU 配置,为客户提供跨平台的 XPU 集成需求的灵活性。对于自定义 CPU 设置,建议集成 NVIDIA NVLink-C2C IP,以实现最佳 GPU 连接性和性能。

最大化 AI 工厂收益

NVLink 扩展型结构通过优化每瓦特吞吐量与延迟间的平衡,大幅提升 AI 工厂的生产力。NVIDIA 的 72-GPU 机架架构在满足 AI 计算需求方面发挥着至关重要的作用,能够在各种使用案例中实现最佳推理性能。该技术的扩展配置能力可最大化收益和性能,即使 NVLink 速度保持不变。

一个强大的合作伙伴生态系统

NVLink Fusion 受益于广泛的硅生态系统,包括定制硅、CPU 和 IP 技术的合作伙伴,确保广泛的支持和快速的设计能力。系统合作伙伴网络和数据中心基础设施组件提供商已经在构建 NVIDIA GB200 NVL72 和 GB300 NVL72 系统,加速了采用者的市场时间。

AI 推理的进步

NVLink 在满足 AI 推理时代的计算需求方面代表了一次重大跃进。通过利用 NVLink 技术十年的专业知识和 OCP MGX 机架架构的开放标准,NVLink Fusion 为超大规模提供商提供了卓越的性能和定制化选项。

Image source: Shutterstock