V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
vtea
V2EX  ›  Local LLM

想问问大家有没有搭建本地的 LLM,我对应用场景挺困惑的

  •  
  •   vtea · 11 天前 · 1319 次点击

    现在大语言模型挺火,我平时用的都是在线的 chatgpt 、deepseek 之类。

    最近看到 AMD AIMAX 395 什么的,我在想是否自己组一个,本地搭建一个蒸馏模型。

    但除了隐私数据安全相关问题,像我这样普通人,也想不出本地应用场景的优势。

    9 条回复    2025-12-30 12:49:14 +08:00
    donaldturinglee
        1
    donaldturinglee  
       11 天前   ❤️ 1
    本地跑小模型玩一玩,学习一下原理,真要在生产环境用肯定是组卡或者买 API 。
    crocoBaby
        2
    crocoBaby  
       11 天前 via iPhone   ❤️ 1
    本地部署只玩到推理,但是 ai 含金量高的技术是预训练,所以本地部署使用场景有点鸡肋
    vtea
        3
    vtea  
    OP
       11 天前
    @donaldturinglee 也是,平时使用,我看买会员那种也还行
    @crocoBaby 预训练对我来说太难了,我只想过用 llm 来推荐买基金的时间点
    xiaket
        4
    xiaket  
       11 天前   ❤️ 1
    ^用正常模型来给一个程式化的判据, 而不是每次需要依赖不那么可靠的本地模型来预测
    volvo007
        5
    volvo007  
       11 天前 via iPhone   ❤️ 1
    我们这行有很多测试标准,所以准备给公司搭一个知识库用。但设备是专门的 4 卡 A100 ,还有一台 8 卡 4090 的准备放点别的小玩意。就算推理也是需要一点算力和显存才可用
    crocoBaby
        6
    crocoBaby  
       10 天前   ❤️ 1
    @vtea 那线上免费的对话已经足够你使用了,你需要的只是调教 prompt
    wnzhyee
        7
    wnzhyee  
       10 天前   ❤️ 1
    参数量为王,再怎么蒸馏,家用 pc 的那点性能能搭起来的 LLM 和闭源那些主流模型比差距太大了,不是一个世界的
    Daybyedream
        8
    Daybyedream  
       10 天前   ❤️ 1
    自己弄个 然后弄个 dify
    coefu
        9
    coefu  
       9 天前   ❤️ 1
    本地起码要 2*nvidia dgx spark 起步,或者一个 mac studio ultra m4 512G ,不然都是玩具。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   959 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 21:08 · PVG 05:08 · LAX 13:08 · JFK 16:08
    ♥ Do have faith in what you're doing.