主要的问题是这些厂商,它的后台的模型并不总是用了它的主力的模型,会在后台降智。
智谱的这个 GLM 4.6 ,新出的 Minimax M2 ,一开始挺好的,服务一有压力就乱来。
只要这些模型出 token 的速度一提升,就知道开始降智了,用了次一档的东西。
造成的结果就是写出来非常烂的代码,写出来一个文件,每个函数都是错误的,然后我要给他擦屁股几个小时。
这太可怕了,浪费我的大量的时间,去给他他们的模型提供优化数据。
还不如老老实实消费 token 去。
1
zzutmebwd 12 天前
牛马们如果都有活一多就降低工作质量的觉悟就好了。
|
2
CC11001100 12 天前
@zzutmebwd 实际上人的负载一旦高了之后出错率就会不由自主的升高,领导们有时候也会靠这个来辅助判断压榨牛马的性能极限。。。
![]() |
3
musi 12 天前 via iPhone
|
4
Seck 12 天前
听了楼上的 3 层楼,醍醐灌顶,摸鱼摸鱼🖐️🐟️
|
5
YanSeven 12 天前
什么意思,没看懂,是在说同一个厂商推出的“包月服务”里面的模型会出现降智以次充好的现象,而该厂商的以 api 充值的方式则不会吗。
|
6
mightofcode 12 天前
自己掌握生产力是多麽重要
|
7
dbow OP @YanSeven 包月服务里,厂商有明显的动态调度,节省资源的情况,用次一等规模较小的模型,临时取代规模大的那个,以获得得快的 token 输出,以及服务量,但是输出的代码就差了很多, 小模型不仅 token 成本低,并发服务能力也好的多。
|
8
kneo 12 天前 via Android
按 token 付费不降智吗?
|
10
bobohu 12 天前
GLM 4.6 两天我用了 100 万 token ,太可怕了
|
12
bbbblue 12 天前
minimax m2 套餐不是才刚上吗。。。这么快就试出来降智了?
|
13
roygong 12 天前 via iPhone
老老实实用 Claude 吧,人家超额是直接停用
|