open claw太烧token怎么办?英伟达把 Kimi K2.5 开放免费调用了
而且这个模型已经冲到 OpenClaw 调用量榜首,超过 Gemini 3 Flash 和 Claude Sonnet 4.5
如果你正在折腾 OpenClaw,这篇教程能帮你 10 分钟内把免费的 Kimi K2.5 跑起来
为什么是 Kimi K2.5 + OpenClaw
先说数据:2月4日至今,Kimi K2.5 一直位居 OpenClaw 模型调用量第一
这不是偶然,因为:
● Kimi K2.5 是万亿参数的多模态 MoE 模型,支持图片+视频+文本
● 原生支持 Agent Swarm(能并行跑100个子智能体,OpenClaw 正好需要这个)
● 256K 上下文窗口,处理长对话和复杂任务不掉链子
● 最关键:英伟达现在免费开放,没有明确的速率限制
对独立开发者来说,这个组合是目前成本最低、能力最强的 AI 智能体方案
第一步:获取 NVIDIA API Key
访问 build.nvidia.com/explore/discov…
右上角点击头像 → Login → 用邮箱注册(会收到验证邮件,去邮箱点确认)
注册完后,进入 build.nvidia.com/settings/api-k…
点击 Generate API Key,复制保存(只显示一次,丢了就得重新生成)
第二步:配置 OpenClaw
方法一:直接编辑配置文件
如果你已经装好 OpenClaw,想手动添加 NVIDIA 作为新的 provider:
打开配置文件:
找到
保存后重启 OpenClaw
第三步:验证是否配置成功
启动 OpenClaw:
pnpm openclaw gateway --verbose
看到类似输出说明成功:
✓ Gateway connected | idle ✓ Agent main | session main ✓ Model: nvidia/moonshotai/kimi-k2.5 | tokens 0/256k
随便发个消息测试:
帮我分析一下这段代码的性能问题
如果有正常回复,说明接入成功了
避坑指南
坑 1:提示 "Unknown model" 或 404 错误
原因:OpenClaw 2026.2.1 之前的版本对 NVIDIA 的模型名称识别有 bug
解决:
● 确保 OpenClaw 版本 ≥ 2026.2.1
● 模型名称必须写成
● 如果还是不行,让ai来给你搞
坑 2:请求一直排队,响应很慢
原因:NVIDIA 免费 tier 虽然没明确限制,但高峰期会有排队(有人测试遇到 150+ 请求在排队)
解决:
-把deepseek 模型也加上用,解决高峰期拥堵的问题
via Memos (author: 嘻咦啊呀)
而且这个模型已经冲到 OpenClaw 调用量榜首,超过 Gemini 3 Flash 和 Claude Sonnet 4.5
如果你正在折腾 OpenClaw,这篇教程能帮你 10 分钟内把免费的 Kimi K2.5 跑起来
为什么是 Kimi K2.5 + OpenClaw
先说数据:2月4日至今,Kimi K2.5 一直位居 OpenClaw 模型调用量第一
这不是偶然,因为:
● Kimi K2.5 是万亿参数的多模态 MoE 模型,支持图片+视频+文本
● 原生支持 Agent Swarm(能并行跑100个子智能体,OpenClaw 正好需要这个)
● 256K 上下文窗口,处理长对话和复杂任务不掉链子
● 最关键:英伟达现在免费开放,没有明确的速率限制
对独立开发者来说,这个组合是目前成本最低、能力最强的 AI 智能体方案
第一步:获取 NVIDIA API Key
访问 build.nvidia.com/explore/discov…
右上角点击头像 → Login → 用邮箱注册(会收到验证邮件,去邮箱点确认)
注册完后,进入 build.nvidia.com/settings/api-k…
点击 Generate API Key,复制保存(只显示一次,丢了就得重新生成)
第二步:配置 OpenClaw
方法一:直接编辑配置文件
如果你已经装好 OpenClaw,想手动添加 NVIDIA 作为新的 provider:
打开配置文件:
~/.openclaw/openclaw.json(Windows 在用户目录下)找到
providers 部分,添加这段:{
"providers": {
"nvidia": {
"baseUrl": "integrate.api.nvidia.com/v1",
"apiKey": "你的_NVIDIA_API_KEY",
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "kimi-k2.5",
"reasoning": true,
"input": ["text", "image", "video"],
"cost": {
"input": 0,
"output": 0
},
"contextWindow": 256000,
"maxTokens": 8192
}
]
}
}
}
保存后重启 OpenClaw
第三步:验证是否配置成功
启动 OpenClaw:
pnpm openclaw gateway --verbose
看到类似输出说明成功:
✓ Gateway connected | idle ✓ Agent main | session main ✓ Model: nvidia/moonshotai/kimi-k2.5 | tokens 0/256k
随便发个消息测试:
帮我分析一下这段代码的性能问题
如果有正常回复,说明接入成功了
避坑指南
坑 1:提示 "Unknown model" 或 404 错误
原因:OpenClaw 2026.2.1 之前的版本对 NVIDIA 的模型名称识别有 bug
解决:
● 确保 OpenClaw 版本 ≥ 2026.2.1
● 模型名称必须写成
moonshotai/kimi-k2.5(不是 nvidia/moonshotai-kimi-k2.5)● 如果还是不行,让ai来给你搞
坑 2:请求一直排队,响应很慢
原因:NVIDIA 免费 tier 虽然没明确限制,但高峰期会有排队(有人测试遇到 150+ 请求在排队)
解决:
-把deepseek 模型也加上用,解决高峰期拥堵的问题
via Memos (author: 嘻咦啊呀)