在当今 AI 智能体技术爆发的时代,NVIDIA 的开源项目 NemoClaw 无疑是企业用户和技术爱好者眼中的明星项目。它不仅继承了 OpenClaw 强大的通用智能体能力: 理解复杂指令、自主编写代码、操作文件以及控制浏览器。更重要的是,通过底层的 NVIDIA OpenShell 运行时,它提供了一个更安全、完全隔离的沙盒环境。
当你拥有一台像 NVIDIA DGX Spark 这样的顶级桌面 AI 超级计算机(配备 GB10 Grace Blackwell 超级芯片,拥有 1 PFLOPS 的算力和 128GB 的 LPDDR5x 统一内存)时,将 NemoClaw 与本地大型语言模型结合,是释放这台机器潜力的最佳方式。
本文将带你了解 NemoClaw 的核心优势,并提供一个极简的部署方案,让你能够轻松地在 DGX Spark 上运行一个基于本地 Qwen3.5 35B 模型的安全智能体。
为什么选择NemoClaw?
NVIDIA NemoClaw 是一个开源软件堆栈,它简化了运行 OpenClaw 实时助手的过程——只需一条命令。它安装了 NVIDIA OpenShell 运行时,来添加基于策略的隐私和安全护栏,让用户能够更多地控制其智能体的行为和数据处理:
沙盒隔离:每个 AI 智能体都在其自身隔离的 OpenShell 沙盒内运行,通过策略强制控制文件访问、网络活动和数据泄露——而且由于这些控制独立于智能体进程之外,无论是智能体本身还是任何恶意的提示词注入都无法覆盖它们。
隐私路由:拦截智能体发出的请求,自动剥离 PII(个人身份信息)和凭证等敏感数据,然后根据你组织的隐私策略将请求路由到本地或外部的 AI 模型。
安全能力演进:当智能体学习新技能或尝试安装新工具时,每一项新能力都要受到相同的安全策略控制。
为什么选择 DGX Spark 本地大模型?
本地部署具有无与伦比的优势:
零成本无限试错:复杂的智能体任务(如代码调试、网络信息提取)通常需要消耗大量的 token。使用本地模型,你不再需要担心 API 账单,可以让智能体自由工作。
压榨硬件潜力:DGX Spark 的 128GB 统一内存和 273 GB/s 内存带宽可以轻松容纳像 Qwen3.5 35B 这样的开源模型,这些模型兼具强大的推理和编程能力,让你享受极低的推理延迟。
极简部署方案
第1步:准备环境
确保你的 DGX Spark 上已安装 Docker,并且 Ollama 服务已启动。以下过程以 Qwen 3.5 模型为例(DGX Spark 运行 35B 模型毫不费力):
# 拉取 Qwen3.5 35B 模型 ollamapull qwen3.5:35b-a3b
第2步:运行一键部署脚本
克隆辅助脚本并运行它:
# 获取辅助部署脚本 gitclonehttps://github.com/HeKun-NVIDIA/nemoclaw-setup.git cdnemoclaw-setup # 授予执行权限并运行 bash nemoclaw-setup.sh
脚本执行期间的终端交互指南:
脚本将自动检测本地 Ollama 服务并列出已安装的模型。
Detectedlocalinference option: Ollama LocalOllamaisrunningonlocalhost:11434 UselocalOllamaforinference? [Y/n]: Y Ollama models: 1) qwen3.5:35b-a3b 2) llama3:8b Choose model [1]:1
输入你要使用的模型编号(例如,1)并按回车键。
接下来,它将进入 NemoClaw 的官方引导流程。在第 3 步,它会询问是否创建或覆盖沙盒:
Sandbox'my-assistant'already exists. Recreate it? [y/N]: y
输入 y 确认创建。
在第 4 步选择推理方法时,你必须选择 Local Ollama:
Selectan inference provider: 1) OpenAI 2)LocalvLLM 3)LocalOllama Choice:3
选择 3,然后输入你在第一步中选择的模型名称(例如,qwen3.5:35b-a3b)。
在第 7 步选择策略预设时,只需按回车键应用默认推荐配置(通常包括 pypi 和 npm 访问权限)。
脚本将在最后输出以下消息,表明网络路由已成功配置,桥接了沙盒与主机 Ollama 之间的通信:
Patchinggateway inference route... Gateway inference route updated to http://172.17.0.1:11434/v1 ───────────────────────────────────────────────── Browser access: http://127.0.0.1:18789/ ─────────────────────────────────────────────────
第 3 步:远程访问 UI
作为一个例子,假设 IP 地址是 192.168.8.117,你想通过 MacBook 上的浏览器访问 UI。然后在您的电脑上打开一个新终端并设置 SSH 端口转发:
# 将本地端口 18789 转发到 DGX Spark 的端口 18789 ssh-N -L18789:127.0.0.1:18789nvidia@192.168.8.117
保持此终端打开。然后打开你的浏览器并访问部署成功后终端提示的链接(例如):
http://127.0.0.1:18789/#token=ed53e52784cebb810eef349d946aeeca9574c49feb3e15df6852f17473a752b9 (注意:此链接将在上述终端命令执行完毕后显示。请直接复制终端中显示的带有token的链接)。
此时,NemoClaw 极具未来感的控制台界面将显示出来。
与本地智能体聊天

在聊天界面中,你可以直接向 NemoClaw 发送指令。为了验证它正在使用指定的本地模型,你可以问它:“你好,NemoClaw,你的本地大模型是什么?”
它会回复其底层的大模型名字:
智能体回复示例:
你好 Ken!本地运行的大模型是 Qwen3.5:35b-a3b!
详情:
模型系列:Qwen3.5(Qwen 系列的最新版本)
参数量:35B(350 亿参数)
提供商:Inference(通过 API 调用的模型)
模型ID:inference/qwen3.5:35b-a3b
现在,你可以开始给它分配各种任务,例如“帮我写一个贪吃蛇网页游戏并运行它”,同时利用 DGX Spark 带来的推理速度和完全本地化、隐私安全的 AI 智能体体验。
进阶:如何一键更换模型?
得益于 DGX Spark 的 128GB 内存,你可以轻松尝试更大更强的模型。例如,最近流行的国内开源推理模型 DeepSeek-R1;DGX Spark 可以轻松运行其 70B 版本(deepseek-r1:70b)。
如果你想更换模型,无需手动编辑复杂的配置文件。你只需要在终端中指定环境变量并重新运行辅助脚本:
# 提前拉取模型(可选,但推荐) ollamapull deepseek-r1:70b # 一键切换并重建沙盒 NEMOCLAW_MODEL=deepseek-r1:70b NEMOCLAW_RECREATE_SANDBOX=1bash nemoclaw-setup.sh
辅助脚本会自动为你销毁旧沙盒,重建它,并配置所有网络路由。这只需几分钟,你的 NemoClaw 智能体就会带着新的 DeepSeek 大脑重新开始。
在本地智能体的世界里玩得开心!
- 附录1:OpenClaw 风险防范六大核心建议
- 内容来源:国家网络与信息安全信息通报中心
- 附录2:防范OpenClaw安全风险,工信部提出“六要六不要”
- 内容来源:工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)
|作者:Ken He NVIDIA 企业级开发者社区经理 & 高级讲师
关注
14文章
5717浏览量
110196免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com