V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
archxm
V2EX  ›  Local LLM

大伙有想过二次训练吗?

  •  
  •   archxm · 1 天前 · 1099 次点击
    • 比如我下载了一个模型。
    • 然后再把我所有文档交给它,二次训练。
    • 那么,是不是就没必要 RAG 了。
    • 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。
    9 条回复    2026-04-25 18:40:30 +08:00
    raycool
        1
    raycool  
       1 天前   ❤️ 1
    理论上是
    只是微调的效果不可控,并且算力的需求比 RAG 大太多了。
    HHHans
        2
    HHHans  
       1 天前
    gpt3.5 刚出来的时候微调还很火热,现在已经没人提了。。
    owt5008137
        3
    owt5008137  
       1 天前
    正常模型本就是分初始预训练和继续预训练的,你说的二次训练怕不就是继续预训练。然后后面才是微调和对齐训练。
    gorvey
        4
    gorvey  
       1 天前
    cursor 的自研模型就是这么干的,底模是 kimi-k2.5 ,注入 cursor 中高质量的对话训练的
    XenoGear
        5
    XenoGear  
       1 天前
    你有卡当然可以,普通人压根没有足够的资源来训练大模型
    archxm
        6
    archxm  
    OP
       1 天前 via Android
    @XenoGear 话说,既然 ai 真这么火热,云服务商,或者其他公司,应该可以提供这种租借服务吧。但要签协议,保证不摄取用户数据,帮用户训练二次模型。
    我感觉这个需求还是停常见的。
    kennylam777
        7
    kennylam777  
       22 小时 36 分钟前   ❤️ 1
    @archxm 早就有了, vast.ai 很多人在用

    問題是你所謂的二次訓練, 其實還有分 CPT 及 SFT 的, 一般用 SFT 已經足夠應付任務, CPT 效果不佳而且你之後還是要補回一次 SFT
    archxm
        8
    archxm  
    OP
       21 小时 3 分钟前 via Android
    @kennylam777 好的,又学到新术语
    mingtdlb
        9
    mingtdlb  
       17 小时 33 分钟前
    @HHHans #2 说明一直在发展,这种方案不合适,淘汰了呗
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2651 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 39ms · UTC 04:14 · PVG 12:14 · LAX 21:14 · JFK 00:14
    ♥ Do have faith in what you're doing.