open claw太烧token怎么办?英伟达把 Kimi K2.5 开放免费调用了

而且这个模型已经冲到 OpenClaw 调用量榜首,超过 Gemini 3 Flash 和 Claude Sonnet 4.5

如果你正在折腾 OpenClaw,这篇教程能帮你 10 分钟内把免费的 Kimi K2.5 跑起来

为什么是 Kimi K2.5 + OpenClaw

先说数据:2月4日至今,Kimi K2.5 一直位居 OpenClaw 模型调用量第一

这不是偶然,因为:

Kimi K2.5 是万亿参数的多模态 MoE 模型,支持图片+视频+文本
原生支持 Agent Swarm(能并行跑100个子智能体,OpenClaw 正好需要这个)
256K 上下文窗口,处理长对话和复杂任务不掉链子
最关键:英伟达现在免费开放,没有明确的速率限制

对独立开发者来说,这个组合是目前成本最低、能力最强的 AI 智能体方案

第一步:获取 NVIDIA API Key

访问 build.nvidia.com/explore/discov

右上角点击头像 → Login → 用邮箱注册(会收到验证邮件,去邮箱点确认)

注册完后,进入 build.nvidia.com/settings/api-k

点击 Generate API Key,复制保存(只显示一次,丢了就得重新生成)

第二步:配置 OpenClaw

方法一:直接编辑配置文件

如果你已经装好 OpenClaw,想手动添加 NVIDIA 作为新的 provider:

打开配置文件:~/.openclaw/openclaw.json(Windows 在用户目录下)

找到 providers 部分,添加这段:
{
  "providers": {
    "nvidia": {
      "baseUrl": "integrate.api.nvidia.com/v1",
      "apiKey": "你的_NVIDIA_API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "moonshotai/kimi-k2.5",
          "name": "kimi-k2.5",
          "reasoning": true,
          "input": ["text", "image", "video"],
          "cost": {
            "input": 0,
            "output": 0
          },
          "contextWindow": 256000,
          "maxTokens": 8192
        }
      ]
    }
  }
}

保存后重启 OpenClaw

第三步:验证是否配置成功

启动 OpenClaw:

pnpm openclaw gateway --verbose

看到类似输出说明成功:

✓ Gateway connected | idle ✓ Agent main | session main ✓ Model: nvidia/moonshotai/kimi-k2.5 | tokens 0/256k

随便发个消息测试:

帮我分析一下这段代码的性能问题

如果有正常回复,说明接入成功了

避坑指南

坑 1:提示 "Unknown model" 或 404 错误

原因:OpenClaw 2026.2.1 之前的版本对 NVIDIA 的模型名称识别有 bug

解决:

确保 OpenClaw 版本 ≥ 2026.2.1
模型名称必须写成 moonshotai/kimi-k2.5(不是 nvidia/moonshotai-kimi-k2.5
如果还是不行,让ai来给你搞

坑 2:请求一直排队,响应很慢

原因:NVIDIA 免费 tier 虽然没明确限制,但高峰期会有排队(有人测试遇到 150+ 请求在排队)

解决:

-把deepseek 模型也加上用,解决高峰期拥堵的问题

via Memos (author: 嘻咦啊呀)
 
 
Back to Top
© 2026 ZHCN.XYZ