最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。
直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemini 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。
下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目😁,有用就点个 Star 吧。)
相关的项目:
如果想知道 GPT-Load 如何部署,请查看帖子: https://s.v2ex.com/t/1146354 , 或者项目 README ,一键式部署。
http://localhost:3001
和代理密钥 sk-123456
为例。(后面需要改成自己实际配置的代理密钥)执行命令,安装 Claude Code 和 CCR 。
npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router
配置文件: ~/.claude-code-router/config.json
(如果没有就创建)
配置内容示例:
{
"Providers": [
{
"name": "gpt-load-openai",
"api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions",
"api_key": "sk-123456",
"models": [
"gpt-4.1-mini",
"gpt-4.1-nano"
]
},
{
"name": "gpt-load-gemini",
"api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/",
"api_key": "sk-123456",
"models": [
"gemini-2.5-pro",
"gemini-2.5-flash"
],
"transformer": {
"use": [
"gemini"
]
}
},
{
"name": "gpt-load-gemini-openai",
"api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions",
"api_key": "sk-123456",
"models": [
"gemini-2.5-pro",
"gemini-2.5-flash"
]
},
{
"name": "gpt-load-anthropic",
"api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages",
"api_key": "sk-123456",
"models": [
"claude-sonnet-4-20250514",
"claude-3-haiku-20240307"
],
"transformer": {
"use": [
"Anthropic"
]
}
}
],
"Router": {
"default": "gpt-load-gemini,gemini-2.5-pro",
"background": "gpt-load-gemini,gemini-2.5-flash",
"think": "gpt-load-gemini,gemini-2.5-pro",
"longContext": "gpt-load-gemini,gemini-2.5-pro",
"longContextThreshold": 60000,
"webSearch": "gpt-load-gemini,gemini-2.5-flash"
}
}
说明:
gpt-load-gemini-openai
渠道是 Gemini 的 OpenAI 兼容格式。http://localhost:3001
,还有路径里面的分组名称(openai
,gemini
)换成自己的。Providers
里面的渠道配置,根据自己 GPT-Load
的分组渠道自行调整。没有就删除。sk-123456
密钥也要改成自己的代理密钥。Anthropic
,首字母一定要大写。Router
里面我默认配置了 gemini 的模型,你根据自己需求调整配置。总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load
服务的具体情况调整。别直接复制进去用啊。
CCR ! 启动!!!
ccr code
GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南。
![]() |
1
keakon 28 天前
Gemini 要弱很多,工具容易报错,做到一半经常放弃
|
![]() |
3
h272377502 28 天前
20 美元的 claude pro 够我用,平时代码量不大。还是用 sonnet 模型舒心
|
![]() |
4
headwindx 28 天前
编码上 sonnet 比 gpt 还是强太多了,不能只看价格,还得看产出效率。便宜不出活,好比大学毕业生免费为你实习,但就是完成不了你的任务,你还得训练它。
|
![]() |
6
shuimugan 28 天前
比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少
|
7
tbphp OP |
8
tbphp OP @h272377502
claude pro 只有兑换模式,没有 api 吧。对话肯定完全够用,只是很多场景还是直接调用 api 方便一点。 |
![]() |
9
issakchill 27 天前
@shuimugan 同感 gemini+roo 比 gemini cli 用起来好太多了
|
10
tbphp OP @issakchill
我也是这套方案,roo+gemini 确实好用。 如果有多 Key 的话,使用 gpt-load 搞个轮询,接入 roo-code 就可以无限使用了,不用担心 tokens 消耗。 |
![]() |
11
h272377502 27 天前
@tbphp 用 clove 转一下就就是 api 了
|
12
maximdx 27 天前
月之暗面 k2 直接买其实也还好吧
|
13
asd999cxcx 27 天前
我最近遇到一个问题:ccr 发起一次对话,完成了一个任务,这个任务执行完了扣了魔搭很多次额度,这是为什么?
|
14
tbphp OP @asd999cxcx
cc 的用量大吧 |
15
hahahasnoopy 27 天前
穷人直接用 qwen-coder 好了,我在用。使用的是 modelscope 的免费次数,基本上够用了,而且个人感觉逻辑上比 gemini 要好
|
16
asd999cxcx 27 天前
@tbphp
Total cost: $0.0004 (costs may be inaccurate due to usage of unknown models) Total duration (API): 4m 27.2s Total duration (wall): 26m 19.9s Total code changes: 130 lines added, 8 lines removed Usage by model: claude-3-5-haiku: 3 input, 3 output, 0 cache read, 0 cache write Qwen/Qwen3-Coder-480B-A35B-Instruct: 19 input, 19 output, 0 cache read, 0 cache write 这是那次对话的统计 |
![]() |
17
myderr 27 天前
感谢,用上了,非常爽,就是可以粘贴图片吗,有些场景我想直接发图片给他
|
18
tbphp OP @asd999cxcx
是因为一次对话过程中,cc 会进行多次 api 调用以处理不同的任务。并不是一次对话就只调用一次 API 哦。 |
![]() |
22
Dreamerwwr 26 天前
抓到 T 佬了
|
23
asd999cxcx 26 天前
@tbphp 原来是这样,我还以为他和 cursor 之类的一样,一次对话只算一次调用,他这个是只有 cc 这样吗还是其他 agent 用 API 调用模式都会这样?
|
![]() |
24
crytis 26 天前
@hahahasnoopy modelscope 的 qwen 总是报 Invalid tool parameter ,还有啥能白嫖的
|
25
tbphp OP cursor 一次对话也是会调用多次 API ,只是他的判断为一次任务来扣除次数。
你可以理解为 cursor 是按照对话次数计算,而不是 API 请求次数。 |
26
tbphp OP @Dreamerwwr 😃
|