刘贺
返回首页

OpenClaw 用着用着变水了?Fallback 背锅 + NVIDIA 免费白嫖 DeepSeek/Kimi/GLM 全攻略

分钟阅读
💬 公众号
OpenClawNVIDIA免费 APIAI 开发DeepSeek

1. 背景:龙虾哥突然变"水"了

最近两天,我在跟龙虾哥(我的 OpenClaw 助手)对需求的时候,感觉它的输出质量明显下滑--开始讲车轱辘话,回答变得客套,甚至有点"水"。

于是我打开 openclaw tui 直接测了一下,果然复现了——报了一个 401 错误。

claude-401

就是这个 HTTP 401 authentication_error——Claude 接口认证失败,OpenClaw 触发了 Fallback(故障转移)机制,悄悄把模型切到了保底的 Gemini 上。

平心而论,Gemini 也很能打,但在处理中文互联网语境上还是差了点意思,导致输出显得有些"水土不服"。

2. 发现新大陆:薅老黄的羊毛

找到病因后,我想趁机试试国内的几个主流大模型(比如 DeepSeek、Kimi、GLM 等)。但痛点是:并没有购买相关厂商的套餐。

有没有什么方法能低成本试用这些国内主流大模型?

结果在找平替的时候发现了一片新大陆--NVIDIA(英伟达)!没想到浓眉大眼的老黄不仅卖显卡,还白送大模型 API。NVIDIA 的开发者平台不仅集成了包括 DeepSeek、Kimi、GLM、MiniMax 在内的一众国产顶流模型,还大方地给出了 每分钟 40 次请求(40 RPM) 的免费额度。

nvidia-api-rate

今天就把这套申请和配置的全过程分享给大家。

3. 实操:从注册到获取 Key

整个配置过程出乎意料的简单,只需要四步。

1. 访问地址:浏览器打开 https://build.nvidia.com

2. 注册/登录:点击右上角「Login」,输入邮箱,若账号不存在则进入注册流程,设置密码后 NVIDIA 会向邮箱发送验证码,输入后完成账号创建(全程无需绑卡)。

nvidia-model-page

3. 手机号验证:在进行 API Key 申请前需要完成手机号验证:

  • 点击主页右上角的「Verify」按钮
  • 将国家代码从 +1 改为 +86(支持国内手机号)
  • 输入手机号,点击「Send Code via SMS」发送验证码
  • 输入收到的短信验证码,点击「Verify」完成验证

4. 生成 Key

  • 点击右上角头像,选择「API Keys」。
  • 点击「Generate API Key」,输入 Key 名称,有效期选「Never Expire」(永不过期)。
  • 点击「Generate Key」后会得到一串 nvapi- 开头的密钥。
  • ⚠️ 踩坑:Key 只会显示一次,记得马上复制保存!这一把钥匙,可以通用平台上所有的模型。

nvidia-api-keys

4. 核心干货:OpenClaw 配置全攻略

拿到密钥后,直接在底层框架(OpenClaw)里加几行配置就行。因为英伟达的接口完美兼容了 OpenAI 格式,所以只需要指定 baseURL 和对应的模型全名,就能无缝调用。

打开 ~/.openclaw/openclaw.json,在 models.providers 下新增 nvidia 节点:

{
  "models": {
    "mode": "merge",
    "providers": {
      "nvidia": {
        "baseUrl": "https://integrate.api.nvidia.com/v1",
        "apiKey": "nvapi-你的密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-ai/deepseek-v3.2",
            "name": "deepseek-v3.2",
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "moonshotai/kimi-k2.5",
            "name": "kimi-k2.5",
            "contextWindow": 200000,
            "maxTokens": 8192
          },
          {
            "id": "z-ai/glm4.7",
            "name": "glm4.7",
            "contextWindow": 200000,
            "maxTokens": 8192
          },
          {
            "id": "minimaxai/minimax-m2.1",
            "name": "minimax-m2.1",
            "contextWindow": 200000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

配置好 provider 之后,还需要告诉 OpenClaw 的 agent 系统该用哪些模型。在同一个 openclaw.json 里补充 agents 节点:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "google/gemini-3.1-pro-preview",
          "nvidia/deepseek-ai/deepseek-v3.2",
          "nvidia/moonshotai/kimi-k2.5"
        ]
      },
      "subagents": {
        "model": "google/gemini-3.1-pro-preview"
      }
    }
  }
}

这样配置后:主 agent 优先用 Claude,挂了自动切 Gemini 3,再不行才用 NVIDIA 的免费模型兜底;子任务(subagents)默认跑 Gemini 3,省 Claude 额度。

几个注意点:

  • mode: merge 表示与已有配置合并,不会覆盖其他 provider
  • api 字段填 openai-completions,NVIDIA 接口兼容 OpenAI 格式
  • 模型 id 是 NVIDIA 平台上的完整路径,name 是你在 OpenClaw 里调用时用的别名

配置保存后重启 gateway 生效:

openclaw gateway restart

验证模型是否加载成功:

openclaw models list

openclaw-models-list

5. 经验总结

1. Fallback 机制是把双刃剑:它能保证系统不宕机,但也容易掩盖底层模型悄悄降级带来的"智力下滑"。切换了模型要有感知,不然用户会以为是你变笨了。

2. 多关注硬件大厂的生态红利:NVIDIA 这种卖算力的巨头,为了推广自家的微服务架构,在 API 调用上通常非常慷慨。利用好大厂的生态红利,能极大降低我们探索 AI 的成本。

如果你也想体验下不同国产大模型的能力,又不想挨个注册充值,这里只提供一个试用思路:不妨拿老黄的这个平台作为零成本探索和测试的跳板!