NVIDIA 的 dUPF 为 6G 和 AI 原生网络铺平道路 - Blockchain.News

NVIDIA 的 dUPF 为 6G 和 AI 原生网络铺平道路

realtime news Oct 16, 2025 01:21

NVIDIA 推出分布式用户面功能 (dUPF),通过 AI 功能增强 6G 网络,提供超低延迟和能效。

NVIDIA 的 dUPF 为 6G 和 AI 原生网络铺平道路

随着电信行业向 6G 网络迈进,它正处于重大转型的边缘,而 NVIDIA 在这一演变中发挥着至关重要的作用。据 NVIDIA 称,该公司推出了一款加速和分布式的用户面功能 (dUPF),旨在增强 AI 原生无线接入网 (AI-RAN) 和 AI 核心(AI-Core)。

理解 dUPF 及其重要性

dUPF 是 5G 核心网络中的一个重要组件,现在正在为 6G 进行适应。它在分布式位置管理用户面数据包处理,将计算能力引导至网络边缘。这减少了延迟并优化了网络资源,使其对于实时应用程序和 AI 流量管理至关重要。通过将数据处理移至更靠近用户和无线节点的位置,dUPF 实现了超低延迟操作,这对于自动驾驶汽车和远程手术等下一代应用来说是至关重要的要求。

dUPF 的架构优势

NVIDIA 的 dUPF 实现利用其 DOCA Flow 技术实现硬件加速的数据包引导和处理。这使得操作具有能效、低延迟的特点,加强了 dUPF 在 6G AI 原生无线网络倡议 (AI-WIN) 中的作用。AI-WIN 项目是 T-Mobile 和 Cisco 等行业领导者的合作,旨在为 6G 构建 AI 原生网络栈。

在 NVIDIA 平台上实施 dUPF 的优势

NVIDIA AI Aerial 平台是一系列加速计算平台和服务,支持 dUPF 部署。主要优点包括:

  • 零丢包的超低延迟,提升了边缘 AI 推理的用户体验。
  • 通过分布式处理实现成本降低,减少传输成本。
  • 通过硬件加速实现能效,降低 CPU 使用和能耗。
  • 源于实时边缘数据处理的 AI 原生服务的新收入模式。
  • 改进 AI 和 RAN 流量的网络性能和可扩展性。

实际应用案例和实施

dUPF 的功能对于要求即时响应的应用尤其有益,如 AR/VR、游戏和工业自动化。通过在网络边缘托管 dUPF 功能,可以在本地处理数据,消除了回程延迟。这种本地化处理还增强了数据隐私和安全性。

从实际角度来看,NVIDIA 的 dUPF 参考实现已在实验室设置中得到验证,展示了具有零丢包的 100 Gbps 吞吐量。这显示了 dUPF 在仅使用最小 CPU 资源的情况下高效处理 AI 流量的潜力。

行业采用和未来前景

Cisco 已将 NVIDIA 加速的平台下的 dUPF 架构视为 AI 中心网络的基石。此次合作旨在使电信运营商能够部署高性能、能效的 dUPF 解决方案,为视频搜索、智能 AI 和超响应服务等应用铺平道路。

随着电信行业的不断发展,NVIDIA 的 dUPF 被认为是向 6G 网络转型的关键技术,有望为未来的 AI 中心应用提供必要的基础设施。

Image source: Shutterstock