• 请不要在回答技术问题时复制粘贴 AI 生成的内容
defaw
V2EX  ›  程序员

glm code plan lite 疑似启用了量化或者什么手段优化降低算力消耗

  •  
  •   defaw · Feb 13 · 2379 views
    This topic created in 90 days ago, the information mentioned may be changed or developed.

    从昨晚上开始,以前长上下文不会出现没有拼写错误硬说有的情况,但是从昨晚上开始,已经碰上两次了,然后就是速度也变快了。 质谱近期适配了很多国产推理卡,也可能是换了推理环境导致的。

    3 replies    2026-02-14 22:19:31 +08:00
    iorilu
        1
    iorilu  
       Feb 13
    这还要疑似吗

    不会有人真的认为会给你用 700 多 B 的模型把
    defaw
        2
    defaw  
    OP
       Feb 13
    @iorilu 671b 的 deepseek 一直都是输入 2 块输出 3 块走缓存还更便宜啊,和参数量有什么关系呢
    wengjin456123
        3
    wengjin456123  
       Feb 14
    我实际使用量挺大的,目前看还是比 deepseek v3.2 api 更快,质量也大于等于,我觉得挺好的,如果这个是量化后的模型,那我就有点佩服了.....
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5532 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 36ms · UTC 08:24 · PVG 16:24 · LAX 01:24 · JFK 04:24
    ♥ Do have faith in what you're doing.