现在自己部署使用 SD 的比较多。
但是部署 LLM 的有没有?
开源的 LLM 大模型,一个比一个能吹牛,实际使用体验怎么样?
1
skyqqcc581 293 天前 1
自行部署的性价比太低了 一个机器的成本 几千 上万 大点的模型 可能得几万才行!
还需要维护 并且现阶段的开源模型,可能连 Gemini Pro 和 GPT3.5 都打不赢 个人部署实在没必要 除非是要实现某些商业目的 训练出某些专用得 |
2
Azure99 293 天前
开源大模型比较不错的有 qwen baichuan yi ,也有领域特化的,像 deepseek coder 这种。
具体看你是什么任务,如果是比较简单的问答 文本生成,或者传统 nlp 任务,又或者你希望在下游微调一些特定任务,那么开源模型是能不错的完成的,但是代码和数学与 gpt 3.5 有明显差距。 另外推荐一下自己微调的 LLM ,主旨是提供一套公开的 SFT 数据(因为目前大部分中文开源模型只公开了权重,但是训练数据,尤其是指令对齐的数据并不公开,导致从 Base 到 Chat 的复现有一定难度) https://github.com/Azure99/BlossomLM 在线 Demo https://blossom-chat.com/ |
3
czfy 293 天前
有请 @ShadowPower
|
5
yuyue001 OP |
6
Azure99 293 天前 via Android 2
@yuyue001 可以选择租卡,训练的话,4090 24G 显存用 lora 就足够微调 7b 甚至 13b 的模型了,一小时不到两块钱,a100 40G 也就 4 块钱,还是可以接受的
|
7
lstz 293 天前 via Android
性价比太低,不如直接调阿里云的 api ,限时免费
|
8
Yuhyeong 293 天前
chatglm
|
9
Azure99 293 天前
@skyqqcc581 @lstz 具体还是要看场景的,举个极端的例子,假设是离线跑批量预测的场景(例如生成文章),那么你用 vllm/tgi 一张 4090 推理 7b 的模型,是几乎能达到千 token/s 的,那么一小时能生成 3600k token ,成本只有两块钱,而阿里云上 7b 的模型跑这么多 token 需要花 0.006 * 3600 = 21.6 元。
另外,假设你需要微调模型的生成风格,直接用 API 也是无法做到的。 |
10
L13 293 天前
自己部署几乎都是为了个性化微调或者突破 API 的限制,就像推动 SD 发展的很大一股力量是为了搞瑟图,自己玩玩的话一块 4090 推理开源的 LLM 几乎都够了
|
14
ShadowPower 293 天前
|
15
Giftina 293 天前 1
本地部署 llm 可使用 ollama https://ollama.ai/ ,有一众 llm 可用 https://ollama.ai/library ,可搭配 ollama-webui 使用 https://github.com/ollama-webui/ollama-webui ,
|
16
ktyang 293 天前
同样有需求,领导让给行政他们搞个,怕泄露信息还得是内网用的,插个眼回头来抄作业~
|
17
shm7 293 天前 1
|
18
Giftina 293 天前 1
,我实测在 MacBook Air M1 16G 环境中使用了一些 7b 、10b 、13b 模型,出字效率从高到低,都可以接受,极限基本上是 13b-q6 ,再大一些的模型会出现 oom 无法使用的情况
|
20
Giftina 293 天前
@QlanQ ollama 本质上和常规软件没有区别,放在后台没有什么感知,跑 llm 模型的时候别的事情也正常能干。除了 13b 的内存占用比较大,除此之外,我个人觉得没有电脑可感知的卡顿。
|
21
BQsummer 293 天前
如果要达到 ChatGPT 3.5 的水平, 参数至少要 70B 以上, 哪怕是 4bit 量化, 也需要 40G 以上的显存, 家用 GPU 带不起来; 7B 的模型用起来感觉就是玩具.
|
22
june4 292 天前
我用来跑文本分类,7b 5bit 足够了,但没 gpu 确实慢,我在老机上 10 多秒才分类一个文章标题和简介,比别的方案慢太多
|
23
siriussilen 292 天前
@Azure99 基于 yi sft 的吗? 这个微调 llm 有足够 solid 的评估吗?
|
24
yplam 292 天前 via Android
基本上所有中文大模型都测了个遍,主观上最好的是 baichuan2 13b ,其次 chatglm ,yi 评分虽然高,但感觉应该是过拟合或者训练数据不行
|
25
kaichen 292 天前
本地跑个 mixtral 替代 chatgpt-3.5 问题不大,可以拿来替代 Immersive Translate 的翻译引擎,用 LM Studio 启动假扮 openai 接口
还有对一些无规则文本的处理,可以用 7b mistral 给 prompt 处理得到结果,比如分类,提取关键信息 |
27
swulling 292 天前 via iPhone 1
目前中文开源大参数模型里,效果最好的是 Qwen-72B 和 Deepseek-67B 。
可惜哪怕是 int4 量化,也需要 50GB 显存才能部署。 |
28
Azure99 292 天前 via Android
@siriussilen demo 是 yi 34b base 做 sft ,推理 demo 4bit 量化过。未量化版本 mtbench 7.30 ,alignbench 5.93 ,至于评估的严谨度,这种 llm as judger 只能做个参考 更多的反应的是是否符合裁判员模型的偏好。
像那些 ceval mmlu 之类的选择题任务,已经没有评估的意义了,很多"高分"的模型(或者说绝大多数国产模型)都是通过预训练阶段加评估集实现的,然后公关说是无意的语料泄露,懂得都懂。 |
29
levn 292 天前
使用 Mac Studio 192GB 统一内存甚至能运行 180B 模型
|
30
cwcc 292 天前
有人测试过需要大显存的模型直接使用超大内存可以跑吗(买不了显卡我还买不了内存?)
|
31
Azure99 292 天前 via Android 1
@yplam yi 的 base 模型还是不错的,但是对齐的时候可能用了大量 cot 数据,导致做一些需要直接输出的任务很差,比如抽取?也会给你先分析一通,基本不可用
|
32
siriussilen 292 天前
@Azure99 为什么用大量 cot 数据会导致直接输出的任务很差啊? 如何定义“直接输出任务”吗? QA 问答么?
|
33
Azure99 292 天前 1
@siriussilen 举一个例子
SFT 标注数据 inst:泰山和嵩山哪个高? output1:泰山的海拔高度为 1545 米,而嵩山的海拔高度为 1491.71 米。因此,泰山比嵩山高。 output2:泰山高。 在这种需要多步推理的任务中,output1 实际上是更易于模型推理的,然而,如果训练数据中都是这种 target ,甚至在指令中明确要求了不要输出无关内容,但依旧标注了推理链路,就会造成下面这种不遵循指令的情况。(本质还是数据样本不够均衡) 推理 inst:请判断下面的评论是好评还是差评,好评输出 true ,差评输出 false 。评论:真难看,不推荐购买 output1:"真难看,不推荐购买"有明显的消极观点,因此是差评,所以,输出 false 。 output2:false 假设我们的业务只需要 true 或 false ,那么 output1 实际上不可用。 |
34
YsHaNg 292 天前
我在树莓派上跑了羊驼 7b
|
35
eternitym31 292 天前
qwen-14B ,4bit 量化之后损失不大,有块 16GB 显存的卡就可以部署了。
|
36
siriussilen 292 天前
@Azure99 我不认为是 cot 有问题,我认为是 sft 的数据配比及多样性有问题,导致在下面 case 中
“inst:请判断下面的评论是好评还是差评,好评输出 true ,差评输出 false 。评论:真难看,不推荐购买 output1:"真难看,不推荐购买"有明显的消极观点,因此是差评,所以,输出 false 。 output2:false” 模型丧失了指令遵循的能力 |
37
vToExer 292 天前 2
TL;DR
1. Qwen, baichuan, yi, deepseek coder:这些被认为是比较优秀的开源大模型。其中,baichuan 和 yi 被多次提及,且 baichuan2 13b 被认为是表现最好的。Qwen-72B 和 Deepseek-67B 被认为是目前中文开源大参数模型里,效果最好的。 2. BlossomLM:这是一个 v 友自己微调的 LLM ,主要提供一套公开的 SFT 数据。 3. ChatGLM, ChatGLM3:被提及并推荐。 4. Ollama:一个可以本地部署 LLM 的平台,包括 Llama 2, Code Llama 等模型。 5. Mixtral:可以本地运行,替代 ChatGPT-3.5 ,用于替代 Immersive Translate 的翻译引擎。 6. Llama 7b 和 13b:一些 v 友认为这两个模型的效果不太好。 7. Yi-34B:有 v 友认为其 SFT 数据有问题,推荐使用衍生版本,如 SUS-Chat-34B 。 |
38
Azure99 292 天前 via Android
@siriussilen 是的,我已经强调了本质还是数据样本不够均衡。怀疑他们的数据是蒸馏 chatgpt 搞出来的,蒸馏的时候无脑加了 think step by step ,又没有仔细的人工审查
|
40
Azure99 292 天前 via Android
@lyping 能不能跑起来基本只跟显存有关,34b 的模型 4bit 量化后,24G 显存勉强能跑起来,但量化毕竟是有精度损失的。消费级硬件 3090 性价比最高,一张不够就两张,两张不够就四张。
|
42
hGaHLRyC 292 天前
除非你能微调,不然完全不值得自己部署在本地,规模差距太大,本地的效果比大厂提供的要差得多。
|
46
shuimugan 292 天前 3
@cwcc 也就 ultra 系列的 mac 带宽是比得上显卡的,你买我不推荐,我买我真买……上个月买了个官翻的 192GB 的 m2 ultra ,就是为了本地跑大模型用的,价格也就 4.5w 还能 24 期免息,我还忘记叠加内部员工优惠不然还能再少几千,这样一轮下来还真的比 2 个显卡+其它硬件拼凑一台整机便宜而且省心。
你买 2 个 4090 也就 48GB 显存,一旦显存不够把模型层一部分卸载到内存就速度骤降,而且双卡通讯损耗也大,现阶段跑个 70B 规格 4bit 量化到头了,除非等 PowerInfer 支持多卡了看看效果。 4 个 3090 的话机箱大功耗高,更别说噪音了,而且也不知道显卡经历了几个哥布林窟,家用还是不太现实。 9 楼的举的极端场景就是我的真实案例,我就是拿来给上亿条文本做分类的,算完租卡费用和调用云 api 后发现,还是买个 mac 性价比最高,你要是没这种需求还是租卡好。 |
47
siriussilen 292 天前
说到 step by step ,有一个 Orca2 的工作,他们对任务的划分不仅仅是 step by step, 还有 direct answer ,recall then generate 等等
|
48
Azure99 292 天前 via Android
@siriussilen orca 是基于 flan 构建的,虽然数据(input)的多样性不错,但任务(instruct)的多样性还是不够强 我记得只有一千多种,所以一般得混合上其他数据集,不然对于输入的鲁棒性太差了,我搞了一个中文的 orca 数据集,有兴趣可以在仓库里看下
|
49
siriussilen 292 天前
@Azure99 1850 种不算少了吧,中文 orca 数据怎么做的?开源的吗? 还是自己复现了 orca1 的工作?
|
50
siriussilen 292 天前
@Azure99 而且 orca1 的工作在论文上做精调效果也不差,在指令遵循等方面都有不错的提升,orca2 放出了精调的模型,也可以瞅瞅看看它的能力边界,我认为不算差,是一个开源社区中通用精调相当不错的工作。
|
51
siriussilen 292 天前
@Azure99 看到介绍了,基于 OpenOrca 处理的
|
53
Azure99 292 天前
@siriussilen 1800 种多么?基本都是改写、翻译、推理、抽取这类比较传统的任务,最常用的 coding 和 role playing 是缺失的。
此外,在真实的 c 端场景里,用户往往不会那么精心的编写 prompt ,比如"请详细的为我介绍一下大型语言模型是什么",用户的 prompt 可能是"啥是大语言模型",甚至语义、标点都不明确。如果只用这种 input 非常工整的数据训练,那么对于真实人类的输入的鲁棒性就会很差。当然,这不是贬低 orca 的工作,而是说在混合数据的时候,应该特别关注任务的多样性和输入的多样性,不能仅仅依赖单一数据集。 实际上,orca 的"良好"表现基本只存在于论文精心编写的 prompt 中,换成随意的输入就歇菜了。 举例 prompt: whats large lm blossom: "LM" typically stands for "language model." In the context of artificial intelligence and natural language processing, a large LM refers to a language model that has been trained on a large amount of data and has a high number of parameters. These models are designed to understand and generate human-like text based on the input they receive. xxx 后面还有一些内容,省略。 orca2: I'm sorry, I don't understand your question. Could you please rephrase it or provide more context? 再举一个 case ,带有逻辑陷阱的推理任务,一样无法完成。 prompt: Joe has 10 apples. He washed 3 apples. How many apples does he have now? blossom: Joe initially had 10 apples, and after washing 3 apples, he still has 10 apples. Washing the apples does not reduce their quantity. orca2: Given: Joe has 10 apples He washed 3 apples Goal: How many apples does he have now? Steps: To find the number of apples Joe has now, we need to subtract the number of washed apples from the number of original apples. We can use the subtraction algorithm to do this. 10 - 3 ---- 7 此处省略一些内容 ### Final answer: Joe has 7 apples now. |
54
Azure99 292 天前
@zhlenmao 对于没有标注团队的个人来说,最简单的方法还是蒸馏 chatgpt ,你可以先找一些需要抽取的文本( 1k 条足够),然后让 chatgpt 来完成这个任务,并把数据收集起来(最好人工核对一下正确性),然后在开源模型上微调,虽然违反了 openai 的 tos ,但目前社区基本都是这么做的。
|
56
siriussilen 291 天前
是这样,我们都知道 sft 的时候需要保证样本的多样性以及使用高质量的样本是吧,以及你在上面也提到了现有的大部分 sft 工作就是把 chatgpt 或者人类编写的高质量回复作为一个 teacher 模型来指导相对小模型的学习。Orca 的意义在于给你了一种看似还不错的数据加工方法,让你能够在某一批通用数据的基础上使用这种方式组织样本后能够最大限度发挥 teacher 的能力,通过 sft 的方式迁移到小模型上还能取得一个不错的效果。Orca 也只是在 Flan 工作的基础上证明这条技术路线的有效性而已。
我刚刚看了一下您的数据精调模型( blossom-v4-qwen-14b )和其他通用精调模型( qwen-14b-chat )的对比 我看在你的 github 里 AlignBench 评估中,blossom-v4-qwen-14b 是 5.66 分,qwen-14b-chat 是 5.41 分。 但是我在 Align Bench 的 github ( https://github.com/THUDM/AlignBench )中看到的评测信息,qwen-14b-chat 是 5.98 分,这个怎么理解啊? |
57
siriussilen 291 天前
@Azure99 求解释下上面的信息👆
|
58
siriussilen 291 天前
@Azure99 看错了,5.98 是某个单项的。不是总分,如果只看这两个评测结果来看的话,确实感觉这批数据的效果还不错,不过我感觉还是说不清这个收益的提升是因为你的数据多样性、高质量带来的,还是因为引入中文语料的所带来提升,感觉再补充更多的评测证明工作的有效性会更好一点,已 star
|
59
Azure99 291 天前 via Android
@siriussilen 首先得澄清一下,我并没有任何贬低 orca 工作的意思,只是说由于 flan 的局限性,数据集的指令多样性并不丰富,所以才需要引入其他的数据来弥补这一块。
训练模型主要用到了 orca wizard math chat 四种数据,wizard 基本就是靠不断的 self instruct 来变异指令。orca(flan)的指令不够多样,但数据多样(上下文),而 wizard 的指令多样但数据不够多样(self instruct 的弊端),他们两个刚好互补。 个人的实验中发现,在不断增加 wizard 的比重时,常规任务表现更好,但阅读理解 抽取 文档问答这种带上下文的任务更差。如果增加 orca 的比重,结果相反。 math 数据集没什么特殊的。 只用 orca wizard 和 math 的话,还有两个很欠缺的点,一个是人类输入的鲁棒性,另一个是多轮对话,chat 数据集是基于 share gpt 重新构建的,这批数据的输入完全由人类产生且由用户主动分享,先天的就过滤了很多简单问答。(实际上只用 chat 数据,就能达到目前指标的 90%,但是阅读理解这类任务稍弱)。 由于 chat 数据量远少于其他数据,最终训练的时候用了多阶段训练,这个可以搜一下 有不少人这么搞。 还有一个就是输出风格的一致性,最早的版本我尝试直接用 sharegpt 的数据来训练(vicuna 的做法),但是原始 sharegpt 的 output 是来自多个不同 chatgpt 版本的,效果并不太好,于是我做了另一个实验,一批用 3.5 0301 0613 和 davinci 多种模型的蒸馏结果混合,一批只用 0613 ,发现只用 0613 的效果明显好于混合来源的,这也是为什么我的所有数据都要重新用同一个模型蒸馏的原因。 这个问题其实很好理解,像那个泰山和嵩山哪个高的问题,0613 倾向于列举高度然后推理谁高,而 davinci 倾向于直接输出谁高,如果把他们混到一起训练,推理的一致性自然会下降,训练时也能很直观的看到 loss 震荡更严重。 关于评估,实际上目前所有的开放评估集的方式都已经不可信了,太多人靠训练阶段加入评估集来作弊。mtbench alignbench 这种基于 llm 裁判的评估,实际上也是在测与裁判员模型的偏好,局限性非常大。 这个项目是个人业余搞着玩的,所有的数据蒸馏,训练都是自费,像训练还是在单卡上用 qlora 跑的,如果跑的起全量 sft ,效果可能还有提升空间。但目前确实是囊中羞涩了,也没有那么多时间和精力去做外围的事情 还请见谅。 |
60
zhlenmao 291 天前
https://cn.v2ex.com/t/999563#reply52 类似的需求,4*4090 还是 4*A100?够用就好,有指点下的?
|
63
sl0000 290 天前
指的是个人 PC 部署吧, 4090 速度都很慢, 长时间开着费电, 用的时候再开嫌麻烦.
|
64
jifengg 290 天前 1
这个帖子得收藏起来以后慢慢看
|
65
7d6a4 290 天前 1
## 本地化大模型简单方案
- gpt4all > 配套工具最完善 > 适配 openai-python sdk - ollama > Go 生态的配套 - llamafile > llamp.cpp + Cosmopolitan Libc 工程化 a file > 适配 openai-python sdk - [llama-cpp-python]( https://github.com/abetlen/llama-cpp-python) > OpenAI-like API > 支持视觉 > 支持 llava1.5 家族多模态模型 图片加文本 > 核心都是 llama.cpp 其作者写了个 ML 的 c 库 ggml > 有高端显卡可以考虑 exllama > [yc 讨论贴]( https://news.ycombinator.com/item?id=36780186) > [redit 大模型本地化指南]( https://www.reddit.com/r/LocalLLaMA/wiki/index/) ## 开源大模型 - 全 https://github.com/Hannibal046/Awesome-LLM - 高效 https://github.com/horseee/Awesome-Efficient-LLM - 商用 https://github.com/eugeneyan/open-llms - 中文 https://github.com/HqWu-HITCS/Awesome-Chinese-LLM |
66
kennylam777 287 天前
Deepseek 34B 用來輔助 programming 也不錯, Exllamav2 處理過後在本地環境 4090 能跑, 起碼短問題比 ChatGPT 快一點也不怕私人代碼外流
|