V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
qdwang

浅试了一下 Qwen3.6-35B-A3B,很强

  •  
  •   qdwang · 19 小时 19 分钟前 · 1109 次点击

    感觉比 3.5 强不少,秒 gemma4 。可以说是 24G 内存 mac 或显卡的目前最佳本地模型,稠密的太慢了。

    有个很困难的只有 GPT5.4 才能找到的代码 bug ,它当然也是找不出来的。

    还是给 openai 充钱吧,开源就只能玩一玩。

    6 条回复    2026-04-17 13:23:34 +08:00
    hanguofu
        1
    hanguofu  
       18 小时 29 分钟前
    谢谢分享,楼主你是在什么硬件上跑的啊?给个参考呗 ~
    C64NRD
        2
    C64NRD  
       17 小时 22 分钟前
    牛,这是刚发布的
    MLawliet
        3
    MLawliet  
       9 小时 35 分钟前 via Android
    24g 内存 mac 跑不了 35b 吧?
    catazshadow
        4
    catazshadow  
       4 小时 45 分钟前
    uncensored 的有了没
    qdwang
        5
    qdwang  
    OP
       4 小时 38 分钟前
    @hanguofu m4pro 24g 内存
    qdwang
        6
    qdwang  
    OP
       4 小时 18 分钟前
    @MLawliet 跑的 iq4_xs 量化,运算时刚刚好吃满 23g 内存,不会写 swap ,128k 上下文。

    做了 100k 上下文里乱序随机位置插 26 个关联计算题测试,能做对。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4981 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 38ms · UTC 09:41 · PVG 17:41 · LAX 02:41 · JFK 05:41
    ♥ Do have faith in what you're doing.