MrLonely's recent timeline updates
MrLonely

MrLonely

V2EX member #127428, joined on 2015-07-16 14:56:09 +08:00
Today's activity rank 20280
MrLonely's recent replies
@crac 这玩意是真的吗?怎么判断呢?真的手感一模一样的话, 我觉得这个价格能接受。
以前也喜欢折腾这些,还试过黑苹果。但是现在慢慢折腾不动了。因为工作的连续性不允许我的主力电脑有任何一个工作日无法正常工作。羡慕你们依然能从中找到乐趣。
@craftsmanship 占用空间 70%和内存压力 70%是两码事。
@dreamerblue 整机 Reset ,然后把软件一个一个装回来,配置一个一个配好,就没有这个问题了。其实就跟重启大法一样。只不过是个操作一轮两三天的大重启。

但如果想偷懒,用 Time Machine 恢复备份,可不管用。至少对我来说不管用。
Oh? 那岂不是说 Composer 2 是蒸馏了蒸馏 Claude 的模型?
但是这种 app 最后能用组播网络吗?如果用单播,那岂不是带宽负担爆炸?
Mar 14
Replied to a topic by JYii Claude Code 咨询 skill 使用中文英文区别大吗
@andforce 我把你这个问题用中英文两种语言和 Claude ,Grok ,Gemini ,ChatGPT 四个平台,一共八个 conversation ,并且在每种语言的第一轮对话后,把另外三个平台的回复发送给它让重新思考。无法支持你所说的结论。



Grok 是其中分析深度明显更差的,只简单地考虑到了语言本身的编码效率。ChatGPT 思考更完善。最终的结论基本落脚在
1. 对于旧一些的模型,例如 GPT-4 ,Opus3.5 ,英文有明显优势。
2. 更 Modern 一些的模型中英文基本打平,因为在分词器上进行了不同语言的平权优化。
3. 只有国产模型,例如 DeepSeek ,QWen ,在分词器上对中文进行了特殊的加强优化,最终可以实现消耗 Token 更少。
4. Claude 的英文对话的结论是其他模型的结论对于语言平权优化的效果过于乐观。依然认为中文要消耗更多的 Token 。

所以不加定语地说:“结论就是中文消耗 token 更少。“明显是错误结论。
Mar 14
Replied to a topic by JYii Claude Code 咨询 skill 使用中文英文区别大吗
@andforce 有没有可能这个 token 其实就是最小信息量的单位呢?同样行文长度下,中文信息量更多,但是中文的 Token 消耗也更多。如果想要节省的是 token 消耗,可能并不一定能不能省。除非要节省的是同样信息量的屏幕显示面积。
如果风控规则被清楚的知道,那么这个规则就会倾向于失效。刑不可知,威不可测。
当然这并不是说研究风控规则是无意义的。而是你想要的那种清晰的边界线不会存在。想要尽可能降低封号概率,那就不要做哪些连你都怀疑有可能被连累的做法。
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5671 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 07:00 · PVG 15:00 · LAX 00:00 · JFK 03:00
♥ Do have faith in what you're doing.