NVIDIA和Google Cloud通过Rubin GPU推动人工智能的边界 - Blockchain.News

NVIDIA和Google Cloud通过Rubin GPU推动人工智能的边界

realtime news Apr 22, 2026 13:07

NVIDIA的Vera Rubin GPU和Google Cloud的AI基础设施为大规模的自治与物理AI铺平了道路。

NVIDIA和Google Cloud通过Rubin GPU推动人工智能的边界

NVIDIA(纳斯达克股票代码:NVDA)和Google Cloud宣布了其长达十年的合作伙伴关系的突破性扩展,目标是下一代人工智能应用程序。这一合作在2026年拉斯维加斯的Google Cloud Next大会上宣布,围绕NVIDIA的Vera Rubin支持的A5X实例和Google Cloud的AI基础设施展开,推动创建能够扩展到近100万台Rubin GPU的“AI工厂”。

这些AI工厂旨在推进自治与物理AI——即设计为能够自主推理、计划和行动的系统,同时降低成本和能源使用。NVIDIA的Rubin GPU平台是尖端的Blackwell架构的一部分,其推理吞吐量是前代H100的四倍,而对于万亿参数模型的能耗则降低了25倍。这标志着在减少AI工作负载成本和环境影响方面的重要进步。

Rubin GPU的规模化

由NVIDIA Vera Rubin NVL72机架级系统支持的A5X实例,承诺每个token的推理成本降低10倍,每兆瓦的token吞吐量增加10倍,与之前的模型相比。这些实例可以扩展到单站点集群中的80,000台Rubin GPU,以及跨多站点集群的960,000台GPU,为企业级别的AI任务(如大型语言模型的训练和实时推理工作负载的运行)提供无与伦比的性能。

“未来十年的人工智能将由在集成、AI优化基础设施上运行高要求工作负载的能力所塑造,”Google Cloud的AI和计算基础设施副总裁兼总经理Mark Lohmeyer说。通过结合Google Cloud的可扩展基础设施与NVIDIA基于Blackwell的系统,该平台为企业提供了一个灵活且具有成本效益的复杂AI工作流解决方案。

自治AI与物理应用

除了基础设施外,该合作还引入了对NVIDIA Gemini企业代理平台的增强功能。开发者可以利用NVIDIA Nemotron和NeMo框架构建能够管理工作流、模拟环境和提供机器人技术支持的自治AI系统。例如,NVIDIA的开放模型和API现已优化为在Google Cloud环境中运行,从而加快了自治AI的训练和部署速度。

应用范围从CrowdStrike的网络安全工具(用于微调特定领域威胁检测的模型)到NVIDIA Omniverse和Isaac Sim等工业解决方案(用于创建数字孪生和机器人模拟)。这些工具简化了从设计到现实部署的过渡,覆盖了汽车、航空航天和重型机械等行业。

AI硬件领域的竞争优势

NVIDIA的Blackwell GPU在内存带宽、能源效率和张量性能方面带来了显著改进。这些特性对于训练大型模型和运行实时AI推理至关重要。Blackwell GPU的云租赁价格从每小时2.65美元到14.24美元不等,完整的DGX B200系统售价超过50万美元,NVIDIA正在巩固其作为AI硬件领导者的地位。

这一主导地位反映在NVIDIA当前4.858万亿美元的市值上,使其成为全球最有价值的公司。结合Rubin GPU和Vera CPU的Vera Rubin平台预计将带来巨大的增长机遇,因为AWS、Google Cloud和Microsoft等云服务提供商将在2026年部署基于Rubin的实例。

未来的发展方向

此次最新合作强调了NVIDIA和Google Cloud在大规模部署人工智能方面的承诺。随着自治与物理AI有望改变行业,企业现在能够无缝地从原型开发转向生产阶段。过去一年中已有超过90,000名开发人员加入生态系统,创新的潜力巨大。

对于交易员和投资者来说,AI硬件竞争是一个值得关注的关键领域。通过Rubin和Blackwell平台等产品保持技术领先地位,NVIDIA强化了其增长前景,而与Google Cloud的合作则为其在竞争对手面前增加了一层防御能力。

两家公司将在Google Cloud Next的即将举行的研讨会和演示中展示其联合努力。随着企业采用加速,NVIDIA继续为人工智能时代树立标准。

Image source: Shutterstock