AMD 推出 Pensando AI 网络接口卡以增强 AI 基础设施
realtime news Apr 11, 2025 11:32
AMD 推出其 Pensando AI 网络接口卡,承诺提供高性能和灵活性的可扩展 AI 基础设施,以满足下一代 AI 工作负载的需求。

为了加强 AI 基础设施,AMD 宣布推出其 Pensando Pollara 400 AI 网络接口卡,以满足 AI 和机器学习工作负载日益增长的需求。根据 AMD 的说法,这些新的 AI 网络接口卡(NICs)承诺提供可扩展的解决方案,以满足 AI 集群的性能需求,同时保持灵活性。
应对 AI 基础设施挑战
随着 AI 和大语言模型需求的增加,迫切需要一种能有效处理高性能需求的并行计算基础设施。一个主要挑战是阻碍 GPU 利用率的网络瓶颈。AMD 的新 AI 网络接口卡旨在通过优化数据中心内节点之间的 GPU-GPU 通信网络来克服这一问题,从而提高数据传输速度和整体网络效率。
Pensando AI 网络接口卡的特性
Pensando Pollara 400 AI 网络接口卡被描述为业内首款全可编程的 AI NIC。它们按照新兴的超以太网联盟(UEC)标准构建,提供客户使用 AMD 的 P4 架构对硬件管道进行编程的能力。这允许添加新功能和自定义传输协议,确保 AI 工作负载可以在不等待新硬件代的情况下加速。
一些关键特性包括:
- 传输协议选项:支持 RoCEv2、UEC RDMA 或任何以太网协议。
- 智能数据包喷洒:利用高级数据包管理技术提高网络带宽利用率。
- 无序数据包处理:通过高效管理无序数据包的到达来减少缓冲时间。
- 选择性重传:仅重发丢失或损坏的数据包以提高网络性能。
- 路径感知拥塞控制:在拥塞期间优化负载平衡以保持性能。
- 快速故障检测:使用快速故障转移机制最小化 GPU 闲置时间。
开放生态系统与可扩展性
AMD 强调开放生态系统的优势,使组织能够构建可轻松扩展和可编程以应对未来需求的 AI 基础设施。这种方法不仅减少了资本支出,还避免了对昂贵交换结构的依赖,这使其成为云服务提供商和企业的经济高效解决方案。
Pensando Pollara 400 AI 网络接口卡已在全球一些最大规模的数据中心得到验证。其可编程性、高带宽、低延迟和广泛的功能使其成为云服务提供商提升其 AI 基础设施能力的首选。
Image source: Shutterstock