OpenClaw(俗称“龙虾”)已成为2026年现象级的AI应用,其强大的工具调用和任务执行能力吸引了无数开发者和企业。然而,将龙虾动不动上百万的token消耗,使得很多想尝试的用户望而却步,把龙虾“养”在本地,不仅可以大幅度节省token消耗量,而且可以实现数据隐私、低延迟等诸多优势。登临KS20 GPU 凭借其强大的端侧算力和CUDA兼容优势,成为解锁本地OpenClaw全新玩法的理想硬件选择。
本教程将基于内部测试报告和应用指南,为您提供一份从环境准备到任务发布的完整“养龙虾”指南,助您快速搭建属于自己的24小时AI管家。
核心优势|KS20如何赋能本地OpenClaw?
在动手之前,我们先明确KS20为OpenClaw带来的核心价值:
强大的端侧算力 :KS20支持高达70TOPS的AI算力和60路1080P@30fps视频解码,足以驱动复杂的多模态应用(MCP),如家庭安全管家、智能翻译等。
超长上下文支持 :测试表明,KS20-32GB可流畅运行Qwen3-Coder模型,并支持高达 140K上下文长度 ,远超OpenClaw官方最低要求的64K,这意味着龙虾能处理更长的对话和更复杂的指令。
极致的推理性能 :面对超过20K输入长度的单次请求,KS20的prefill速度可达 1750 token/s ,解码速度仍能保持在 10 tps以上 ,确保了流畅的交互体验。
显著降低Token消耗 :通过在本地部署大模型,将对本地数据的查询、修改等操作本地化处理,可大幅降低对云端API的Token消耗,真正解决“养不起龙虾”的痛点。
广泛的软硬件兼容性:KS20支持X86、ARM等多种主流CPU架构,以及麒麟、统信等国产操作系统,为不同场景提供了灵活选择。
KS20适配OpenClaw核心参数一览
| 参数项 | 具体配置/性能 | 说明与优势 | |||
| 测试卡型号 | KS20-32GB | 提供充足显存,满足大模型部署需求。 | |||
| 运行模型 | Qwen3-Coder | 支持开源生态,具备强大的代码生成与通用任务能力。 | |||
| 模型大小 | 17GB | 适配KS20-32GB显存,部署无压力。 | |||
| 上下文长度 | 140K | 远超官方最低要求(64K),能处理极长对话和文档。 | |||
| Prefill速度 | 1750 token/s (20K 输入) |
首屏响应速度快,用户体验佳。 | |||
| Decoding速度 | >10 tps | 生成流畅,无明显卡顿。 | |||
| 工具调用 | 正常响应 | 成功接入并使用外部工具(如Tavily Search),验证了完整功能。 |
手把手部署|四步搭建您的本地龙虾
01硬件与环境准备
硬件 :确保您拥有一台安装了登临KS20-32GB 加速卡的主机,支持信创及市场主流CPU架构。
软件 :安装linux或国产主流操作系统,获取驱动及一键部署脚本,快速完成环境搭建。
02启动模型服务
下载模型 :从开源社区下载Qwen3-Coder模型。测试中使用的模型地址为:https://modelscope.cn/models/tclf90/Qwen3-Coder-30B-A3B-Instruct-AWQ/files。
配置启动命令 :在KS20上配置启动Qwen3-Coder模型的命令。关键参数是必须启用tool-use功能,这是OpenClaw调用外部工具的基础,执行命令如下;部署过程中可以看到上下文支持140K。
DLEOL_USE_CU_MQA_TILEKV=1vllm serve /LocalRun/model_zoo/Qwen3-Coder-30B-A3B-Instruct-AWQ/
-tp1--served-model-name qwen3-coder
--enable-auto-tool-choice --tool-call-parser qwen3_coder
--dtype=half
--compilation-config '{"cudagraph_capture_sizes":[64,128,192,256],"cudagraph_capture_decode_sizes":[1]}'
--max-num-batched-tokens256--scheduler-cls vllm.v1.core.sched.scheduler.Scheduler
--max-model-len140000
03配置OpenClaw客户端
完成OpenClaw安装 :Openclaw 的安装教程非常多,可以参考官方文档https://docs.openclaw.ai/zh-CN,命令一键安装。
npm install -gopenclaw@latest
安装完成后,使用openclaw配置命令进行,配置关键在配置参数部分使用vLLM本地服务:
openclawonboard
连接本地模型服务:在OpenClaw的设置中,配置“本地OpenAI-completions服务”。将服务地址指向您在第二步中启动的模型服务地址(默认是http://0.0.0.0:8000/v1 )

启动客户端:启动OpenClaw客户端,此时它将连接到您本地的KS20模型了。可以使用网页访问或TUI界面,快速测试推荐使用TUI界面
#启动openclaw服务 openclaw gateway restart #进入tui界面 openclaw tui #在openclaw中启动新session /new
04
发布任务与测试验证
准备工具技能(SKILLS):为OpenClaw添加所需的工具技能。测试中使用了Tavily Search技能,并配置了对应的API Key(通常注册即可获得免费额度)。具体方法参考:https://clawhub.ai/

发布测试任务:向OpenClaw发布一个需要调用外部工具的任务,例如:“请使用Tavily搜索最新的AI大模型动态,并总结给我。”

验证功能:观察OpenClaw是否能正确调用Tavily API,并将搜索结果整理后返回。同时,您可以从模型服务的后台日志中,确认工具使用需求已被正常响应。

通过本教程,您已掌握使用登临KS20在本地部署和运行OpenClaw的完整流程。KS20凭借其 强大算力、超长上下文、卓越性能和广泛兼容性 ,为本地“养龙虾”提供了坚实的硬件基础。这不仅是一次技术实践,更是开启个人AI助理、家庭智能中枢或企业边缘计算新可能的起点。
随着开源模型和OpenClaw生态的持续发展,登临GPU将持续进化,为您解锁更多AI赋能的全新玩法。现在,就动手部署,体验属于您的24小时AI管家吧!
关于登临
苏州登临科技股份有限公司是一家专注于高性能通用 GPU 设计与研发的创新型企业,致力于为 AI 计算、图形渲染、高性能计算等领域提供自主可控、高效能的算力解决方案。公司以“技术赋能行业革新”为理念,通过自主研发的GPU 架构,在多个行业实现了规模化商业落地,成为推动国产算力发展的关键力量。
关注
28文章
5209浏览量
135600免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com