NEW
NVIDIA NIM 微服务在 Azure AI Foundry 上革新 AI 部署 - Blockchain.News

NVIDIA NIM 微服务在 Azure AI Foundry 上革新 AI 部署

realtime news May 13, 2025 08:06

NVIDIA 的 NIM 微服务整合到 Azure AI Foundry 中,通过 GPU 加速的推理增强了 AI 部署,为企业提供可扩展和安全的 AI 解决方案。

NVIDIA NIM 微服务在 Azure AI Foundry 上革新 AI 部署

根据NVIDIA 的博客,NVIDIA 的 NIM 微服务整合到微软的 Azure AI Foundry 中,标志着企业 AI 部署的重大进步。通过利用 Azure 的安全和可扩展基础设施,此合作使组织能够更高效地部署复杂的 AI 模型。

增强 AI 部署

NVIDIA 的 NIM 微服务专为 GPU 加速的推理而设计,适用于预训练和定制 AI 模型。 这些服务整合了 NVIDIA 的先进推理技术与社区贡献,优化了尖端 AI 模型的响应时间和吞吐量。 这一创新是 NVIDIA AI Enterprise 的一部分,这是一个为安全和高性能 AI 推理设计的套件。

开发人员可以通过标准化 API 访问这些 AI 模型,从而便于在语音、图像、视频、3D、药物发现和医学成像等各个领域中开发 AI 应用程序。 这种广泛的适用性使 NIM 微服务成为企业 AI 解决方案的多功能工具。

Azure AI Foundry 的能力

Azure AI Foundry 提供一个全面的平台,用于设计、定制和管理 AI 应用程序。 它通过集成的门户、SDK 和 API 提供丰富的 AI 功能,确保安全的数据集成和企业级治理。 这种设置加快了从 AI 模型选择到生产部署的过渡。

无缝集成和部署

NIM 微服务在 Azure AI Foundry 上本机支持,简化了部署过程,并消除了复杂的 GPU 基础设施管理的需要。 这种集成确保了高可用性和可扩展性,适用于苛刻的 AI 工作负载,从而实现 AI 模型的快速部署和操作化。

部署过程简化,允许用户从 Azure AI Foundry 中的模型目录中选择模型,并以最小的努力将其集成到 AI 工作流中。 这种用户友好的方式支持在 Azure 生态系统中创建生成性 AI 应用程序。

先进工具和支持

NVIDIA NIM 微服务提供零配置部署、无缝 Azure 集成、企业级可靠性和可扩展的推理能力。 NVIDIA AI Enterprise 支持这些功能,确保企业级使用的一致性能和安全更新。

开发人员还可以利用 Azure 的 AI 代理服务和代理 AI 框架,例如 Semantic Kernel,受益于 NVIDIA 技术如 Dynamo、TensorRT、vLLM 和 PyTorch。 这些工具确保 NIM 微服务在 Azure 的托管计算基础设施上有效扩展。

快速入门

NVIDIA NIM 微服务整合到 Azure AI Foundry 中,使开发人员能够快速部署、扩展和操作 AI 模型。 NVIDIA 的 AI 推理平台与 Azure 的云基础设施的强大组合为高性能 AI 部署提供了一条简化的路径。

有关在 Azure 上部署 NVIDIA NIM 微服务的更多信息,请访问NVIDIA 官方博客

Image source: Shutterstock