V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
mqb666
V2EX  ›  硬件

想用笔记本跑 AI 模型,有什么推荐的吗

  •  
  •   mqb666 · 1 天前 via Android · 1188 次点击

    rt ,目前预算 1w 左右,想买台笔记本跑 AI ,目前主要跑 SD

    13 条回复    2024-12-27 11:36:54 +08:00
    YJi
        1
    YJi  
       1 天前
    买点算力,云上部署一套,随用随开,多划算。 (狗头
    MacsedProtoss
        2
    MacsedProtoss  
       1 天前 via iPhone
    这个价格 再加上笔记本显存不大 hmmm…
    感觉笔记本 AI 还是 Mac 的显存划算啊(狗头)

    正经来说 笔记本好像低 U 高显的也很少 反正你就花钱买里面性能释放最佳 且 GPU 最好的即可
    mumbler
        3
    mumbler  
       1 天前
    显存越大越好,1W 预算可以上个 4070 16G
    如果跑大语言模型可以用 flashai.com.cn 的一键整合包,能流畅跑 gemma2 9B
    Seanfuck
        4
    Seanfuck  
       1 天前
    @mumbler 笔记本的 GPU 都是残血的,尤其是显存,4090 也才 16G
    mumbler
        5
    mumbler  
       1 天前
    @Seanfuck #4 笔记本功耗做不到 200W 以上,但笔记本有笔记本的场景,不需要追求极致性能
    qingtian3343
        6
    qingtian3343  
       1 天前
    好多云上部署了,想用就用
    h130666
        7
    h130666  
       1 天前
    拯救者
    hbdh5
        8
    hbdh5  
       1 天前
    推荐就是老老实实的调 api ,别想本地跑啥模型,新发布的 deepseek v3 看了吧,这玩意主流的笔记本就是量化到 1bit 都加载不进内存。
    mumbler
        9
    mumbler  
       1 天前
    @hbdh5 本地有本地的用途,跟云端是不同赛道,有些私密资料只能在本地处理,比如医疗数据
    hbdh5
        10
    hbdh5  
       22 小时 55 分钟前
    @mumbler 可题主问的是笔记本跑,那我就默认是个人用了。医疗数据应该是有业务用途的怎么也得买个 8 卡集群吧?
    cbythe434
        11
    cbythe434  
       17 小时 57 分钟前
    预算不够,否则就 mac pro max ,内存拉满
    jifengg
        12
    jifengg  
       17 小时 37 分钟前
    楼主是要跑 生图 模型,不是 LLM 。
    我现在是笔记本 4080 ,12G 。跑 SD 还可以。跑 SDXL ,1024 左右分辨率,文生图我记得应该是 10 几秒?
    1w 目前买不到 4080latop ,4070 的话显存又略小( 8g )
    KimGuo
        13
    KimGuo  
       15 小时 58 分钟前
    考虑到笔记本 10GB 显存还挺难搞……其实不如考虑 macbook pro ,m4 款丐版国补完大概刚好 1w 多
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   999 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 19:35 · PVG 03:35 · LAX 11:35 · JFK 14:35
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.