 
        
        
    |  | llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 coefu • 2 天前 • 最后回复来自 coefu | 6 | 
| 英语文本音频按句自动对齐的有推荐的吗? afkool • 176 天前 • 最后回复来自 barnetime | 8 | 
| 本地 llm client kid1412621 • 196 天前 • 最后回复来自 kid1412621 | 5 | 
|  | 公司要搭建本地大模型,推荐配置。 Woolaman • 196 天前 • 最后回复来自 coefuqin | 10 | 
|  | 有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu • 196 天前 • 最后回复来自 coefuqin | 2 | 
|  | 跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere • 199 天前 • 最后回复来自 egen | 9 | 
|  | 使用 dify 时代码如何管理? frankyzf • 91 天前 • 最后回复来自 ericguo | 8 | 
|  | 想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 • 206 天前 • 最后回复来自 coefuqin | 28 | 
| 本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu • 207 天前 • 最后回复来自 tool3d | 7 | 
|  | 打算用 AI 来做企业知识库,最佳的组合是什么? xubingok • 49 天前 • 最后回复来自 GavinY | 20 | 
|  | 单卡 2080ti 22gb 装机其他怎么配啊 NoahBishop • 211 天前 • 最后回复来自 NoahBishop | 8 | 
|  | 本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意 MHPSY • 212 天前 • 最后回复来自 tomczhen | 1 | 
|  | 本地 AI 工作站装机 fcten • 212 天前 • 最后回复来自 coefuqin | 17 | 
|  | mcp 支持力度探讨 nl101531 • 214 天前 • 最后回复来自 nl101531 | 4 | 
|  | 100+全语种翻译 , 海量翻译数据,并且有速度要求。 有什么经济实惠的本地 LLM 方案么? zzNaLOGIC • 216 天前 • 最后回复来自 paopjian | 11 | 
| 请教模型部署和管理的问题 Legman • 216 天前 • 最后回复来自 Legman | 4 | 
|  | ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教 crac • 213 天前 • 最后回复来自 crac | 6 | 
| 通过 dify 搭建了基于企业内部知识库的问答机器人,但是效果非常差 maoqiucute • 134 天前 • 最后回复来自 cshaptx4869 | 15 | 
|  | 本地部署 LLM 并启用网络搜索,有什么现成的方案吗? villivateur • 220 天前 • 最后回复来自 coefuqin | 5 |