NVIDIA 发布 NemoClaw 堆栈以实现本地安全的 AI 代理部署 - Blockchain.News

NVIDIA 发布 NemoClaw 堆栈以实现本地安全的 AI 代理部署

realtime news Apr 17, 2026 19:54

NVIDIA 发布开源的 NemoClaw 参考堆栈,使开发者能够在 DGX Spark 硬件上本地运行基于 Nemotron 120B 模型的沙盒化 AI 代理。

NVIDIA 发布 NemoClaw 堆栈以实现本地安全的 AI 代理部署

NVIDIA 发布了 NemoClaw,这是一个开源参考堆栈,允许开发者完全在本地硬件上部署自主的AI代理。这对于因使用基于云的 AI 服务而对数据隐私感到担忧的企业来说是一个重要举措。

该堆栈整合了多个 NVIDIA 工具,创建了公司所谓的“沙盒化 AI 助手”,无需在运行时依赖外部资源运行。所有推理过程都在设备上进行,这意味着敏感数据永远不会离开用户的硬件。

NemoClaw 的实际功能

NemoClaw 的核心是连接三个组件:OpenShell(一个强制执行隔离边界的安全运行时)、OpenClaw(支持 Slack、Discord 和 Telegram 的多通道代理框架)以及 NVIDIA 的 Nemotron 3 Super 120B 推理模型。

该架构解决了一个实际问题。随着 AI 代理从简单的问答系统演变为能够执行代码、读取文件和调用 API 的自主助手,安全风险迅速增加——尤其是在使用第三方云基础设施处理的情况下。

NVIDIA 的文档指出:“部署一个可以执行代码和使用工具的代理而没有适当的隔离会带来真正的风险。” OpenShell 创建了一个“围墙花园”,管理凭证并代理网络调用,同时阻止未经授权的访问。

硬件要求与设置

参考部署目标是运行 Ubuntu 24.04 LTS 的 NVIDIA DGX Spark (GB10) 系统。设置大约需要 20-30 分钟的主动配置时间,以及 15-30 分钟下载 87GB 的 Nemotron 模型。

开发者需要 Docker 28.x 或更高版本,并配备 NVIDIA 容器运行时,以及作为本地模型服务引擎的 Ollama。安装向导通过一个命令处理大部分配置:curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash

需要注意的是:使用 120B 参数模型进行推理通常需要 30-90 秒每次响应。这在此规模的本地推理中是预期的,但这意味着 NemoClaw 适合准确性比速度更重要的工作流。

安全模型与策略控制

默认情况下,沙盒将代理限制为一组受限的网络端点。当代理尝试访问外部服务(例如获取网页或调用第三方 API)时,OpenShell 会阻止请求并将其提请审批。

管理员可以为单次会话批准请求,或通过策略预设永久添加端点。这提供了对代理访问内容的实时可见性,而无需重启沙盒。

NVIDIA 包含了一个重要的免责声明:“虽然 OpenShell 提供了强大的隔离,但请记住,没有任何沙盒可以完全防御高级提示注入。在测试新工具时,请始终在隔离系统上部署。”

为什么这对企业 AI 很重要

这一发布反映了企业对不需要将专有数据发送至外部服务器的 AI 能力的日益需求。金融机构、医疗组织和国防承包商对基于云的 AI 工具尤为谨慎。

NemoClaw 不是一个即装即用的产品——它是一个需要显著技术专业知识的参考实现。但它为组织建立自己的安全代理基础设施提供了蓝图,同时 NVIDIA 负责处理隔离、推理和消息平台集成之间的复杂协调。

完整文档和代码可在 GitHub 上获取,同时还有一个无需硬件的浏览器演示,可访问 build.nvidia.com/nemoclaw。

Image source: Shutterstock