V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
tbphp
V2EX  ›  Claude

低成本爽用 Claude Code: GPT-Load + CCR 方案

  •  
  •   tbphp · 28 天前 · 3359 次点击

    最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。

    直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemini 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。

    下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目😁,有用就点个 Star 吧。)

    相关的项目:

    前提条件

    如果想知道 GPT-Load 如何部署,请查看帖子: https://s.v2ex.com/t/1146354 , 或者项目 README ,一键式部署。

    • 确保您已经成功部署并启动了 GPT-Load 服务。此贴以默认的地址 http://localhost:3001 和代理密钥 sk-123456 为例。(后面需要改成自己实际配置的代理密钥)
    • 已安装 Node.js 和 npm 。

    安装

    执行命令,安装 Claude Code 和 CCR 。

    npm install -g @anthropic-ai/claude-code
    npm install -g @musistudio/claude-code-router
    

    配置

    配置文件: ~/.claude-code-router/config.json (如果没有就创建)

    配置内容示例:

    {
      "Providers": [
        {
          "name": "gpt-load-openai",
          "api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions",
          "api_key": "sk-123456",
          "models": [
            "gpt-4.1-mini",
            "gpt-4.1-nano"
          ]
        },
        {
          "name": "gpt-load-gemini",
          "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/",
          "api_key": "sk-123456",
          "models": [
            "gemini-2.5-pro",
            "gemini-2.5-flash"
          ],
          "transformer": {
            "use": [
              "gemini"
            ]
          }
        },
        {
          "name": "gpt-load-gemini-openai",
          "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions",
          "api_key": "sk-123456",
          "models": [
            "gemini-2.5-pro",
            "gemini-2.5-flash"
          ]
        },
        {
          "name": "gpt-load-anthropic",
          "api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages",
          "api_key": "sk-123456",
          "models": [
            "claude-sonnet-4-20250514",
            "claude-3-haiku-20240307"
          ],
          "transformer": {
            "use": [
              "Anthropic"
            ]
          }
        }
      ],
      "Router": {
        "default": "gpt-load-gemini,gemini-2.5-pro",
        "background": "gpt-load-gemini,gemini-2.5-flash",
        "think": "gpt-load-gemini,gemini-2.5-pro",
        "longContext": "gpt-load-gemini,gemini-2.5-pro",
        "longContextThreshold": 60000,
        "webSearch": "gpt-load-gemini,gemini-2.5-flash"
      }
    }
    

    说明:

    • 上面的 gpt-load-gemini-openai 渠道是 Gemini 的 OpenAI 兼容格式。
    • 记得把 http://localhost:3001,还有路径里面的分组名称(openai,gemini)换成自己的。
    • Providers 里面的渠道配置,根据自己 GPT-Load 的分组渠道自行调整。没有就删除。
    • sk-123456 密钥也要改成自己的代理密钥。
    • 还有个细节,anthropic 渠道里面的 transformer.use 值是:Anthropic,首字母一定要大写。
    • 模型也要根据自己的渠道配置,我只是写了几个官方默认的。
    • 最后重点,Router里面我默认配置了 gemini 的模型,你根据自己需求调整配置。

    总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load 服务的具体情况调整。别直接复制进去用啊。

    使用

    CCR ! 启动!!!

    ccr code
    

    GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南

    26 条回复    2025-08-07 12:50:16 +08:00
    keakon
        1
    keakon  
       28 天前
    Gemini 要弱很多,工具容易报错,做到一半经常放弃
    tbphp
        2
    tbphp  
    OP
       28 天前
    @keakon 可以试一下千问 code 模型,如果有资源的话。
    h272377502
        3
    h272377502  
       28 天前
    20 美元的 claude pro 够我用,平时代码量不大。还是用 sonnet 模型舒心
    headwindx
        4
    headwindx  
       28 天前
    编码上 sonnet 比 gpt 还是强太多了,不能只看价格,还得看产出效率。便宜不出活,好比大学毕业生免费为你实习,但就是完成不了你的任务,你还得训练它。
    tbphp
        5
    tbphp  
    OP
       28 天前
    @headwindx 是的,不过每个人都有不同的需求,多给一种选择方案。
    shuimugan
        6
    shuimugan  
       28 天前
    比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少
    tbphp
        7
    tbphp  
    OP
       27 天前
    @shuimugan
    嗯,我也是 gemini 轮询 Key + roo code 。确实效果很好,而且精准。

    也不能说是 claude code 做得不好,可能是模型适配度的问题吧。
    tbphp
        8
    tbphp  
    OP
       27 天前
    @h272377502
    claude pro 只有兑换模式,没有 api 吧。对话肯定完全够用,只是很多场景还是直接调用 api 方便一点。
    issakchill
        9
    issakchill  
       27 天前
    @shuimugan 同感 gemini+roo 比 gemini cli 用起来好太多了
    tbphp
        10
    tbphp  
    OP
       27 天前
    @issakchill
    我也是这套方案,roo+gemini 确实好用。

    如果有多 Key 的话,使用 gpt-load 搞个轮询,接入 roo-code 就可以无限使用了,不用担心 tokens 消耗。
    h272377502
        11
    h272377502  
       27 天前
    @tbphp 用 clove 转一下就就是 api 了
    maximdx
        12
    maximdx  
       27 天前
    月之暗面 k2 直接买其实也还好吧
    asd999cxcx
        13
    asd999cxcx  
       27 天前
    我最近遇到一个问题:ccr 发起一次对话,完成了一个任务,这个任务执行完了扣了魔搭很多次额度,这是为什么?
    tbphp
        14
    tbphp  
    OP
       27 天前
    @asd999cxcx
    cc 的用量大吧
    hahahasnoopy
        15
    hahahasnoopy  
       27 天前
    穷人直接用 qwen-coder 好了,我在用。使用的是 modelscope 的免费次数,基本上够用了,而且个人感觉逻辑上比 gemini 要好
    asd999cxcx
        16
    asd999cxcx  
       27 天前
    @tbphp
    Total cost: $0.0004 (costs may be inaccurate due to usage of unknown models)
    Total duration (API): 4m 27.2s
    Total duration (wall): 26m 19.9s
    Total code changes: 130 lines added, 8 lines removed
    Usage by model:
    claude-3-5-haiku: 3 input, 3 output, 0 cache read, 0 cache write
    Qwen/Qwen3-Coder-480B-A35B-Instruct: 19 input, 19 output, 0 cache read, 0 cache write
    这是那次对话的统计
    myderr
        17
    myderr  
       27 天前
    感谢,用上了,非常爽,就是可以粘贴图片吗,有些场景我想直接发图片给他
    tbphp
        18
    tbphp  
    OP
       27 天前
    @asd999cxcx
    是因为一次对话过程中,cc 会进行多次 api 调用以处理不同的任务。并不是一次对话就只调用一次 API 哦。
    tbphp
        19
    tbphp  
    OP
       27 天前
    @myderr 可以直接 ctrl + c 复制图片,然后去兑换终端里面,直接 ctrl +v 。
    mac 是 cmd +c ,cmd +v
    myderr
        20
    myderr  
       27 天前
    @tbphp #19 我就是这样使用的,发现没任何反应,所以我再来问的,模型 Router 我使用的就是你的这个,所以肯定也不是模型不支持图片
    tbphp
        21
    tbphp  
    OP
       27 天前
    @myderr 我确实可以啊,粘贴成功,对话框里面就会显示类似`[Image #1]`的文字。
    如果不能复制,那你尝试使用 @命令,把图片的路径 @进去试一下呢。
    Dreamerwwr
        22
    Dreamerwwr  
       26 天前
    抓到 T 佬了
    asd999cxcx
        23
    asd999cxcx  
       26 天前
    @tbphp 原来是这样,我还以为他和 cursor 之类的一样,一次对话只算一次调用,他这个是只有 cc 这样吗还是其他 agent 用 API 调用模式都会这样?
    crytis
        24
    crytis  
       26 天前
    @hahahasnoopy modelscope 的 qwen 总是报 Invalid tool parameter ,还有啥能白嫖的
    tbphp
        25
    tbphp  
    OP
       26 天前
    cursor 一次对话也是会调用多次 API ,只是他的判断为一次任务来扣除次数。
    你可以理解为 cursor 是按照对话次数计算,而不是 API 请求次数。
    tbphp
        26
    tbphp  
    OP
       26 天前 via iPhone
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1002 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:18 · PVG 03:18 · LAX 12:18 · JFK 15:18
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.