同样的问题,Medium 是不是已经足够应付多数情况了?
烧 token 的速度,同样的问题下,有多大差异?
大家都是开着 Extra High 来做 coding 的吗?
1
niubilewodev 3 月 24 日
我使用 high+fast 模式。
Extra High 太慢了。只有真的遇到问题了,采用 Extra High 。 |
2
GlobalNPC 3 月 24 日
1 个问题 消耗了周额度的 5%
|
3
Mageblade 3 月 24 日
开了 windsurf max 套餐,我现在反正无脑用 gpt 5.4 xhight ,偶尔用 claude opus 4.6 ,token 基本用不完
|
4
FH0 3 月 24 日
对于我来说,20 美元的套餐是远远不够的,又没有 100 美元的套餐。所以我是 gpt-5.4-xhigh fast 双开的情况下用 codex 。
|
5
Saunak 3 月 24 日
@niubilewodev #1 pro 吗? plus 这样感觉不够吧
|
6
14 3 月 24 日
xhigh 太慢了,我最近切回到 high 了,感觉大部分问题差别不大,反而迭代速度快了能提升整体效率
|
7
vsomeone 3 月 24 日
我用 xhigh fast 没感觉很慢
|
8
niubilewodev 3 月 25 日
|
9
iorilu 3 月 25 日
@niubilewodev 有没有注册机分享下
|
10
strawberrydafu 3 月 25 日
openai 在 gpt-5.3-codex 发布时就提到,与直觉相反,在 benchmark 中,medium 的表现比 xhigh 的表现要更出色。
其原因可能是 xhigh 容易想多。 我在大多数情况下觉得 medium 就够用,但有的问题你不开 xhigh 就是得不到一个满意的解答。现在 codex 可以单独配置 plan mode 下的 model (包括思考强度),我觉得可以考虑执行默认 medium ,plan 看问题复杂性调整(如果能 adaptive 思考强度可能会更好) |
12
Saunak 3 月 25 日
@strawberrydafu #10 plan 了之后,执行阶段模型会再补充思考吗?还是只进行编码?
|