 
        
        
    |  | Intel GPU 的 llama-bench 测试结果 HojiOShi • 239 天前 | 
|  | 求 DeepSeekR1 性价比硬件推荐 klo424 • 238 天前 • 最后回复来自 coala | 59 | 
| 咨询 GPU 服务器方案 Legman • 240 天前 • 最后回复来自 tool2dx | 11 | 
|  | 大模型私有化是怎么集群部署的? mingtdlb • 241 天前 • 最后回复来自 volvo007 | 6 | 
|  | ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? icemanpro • 242 天前 • 最后回复来自 mmdsun | 9 | 
| 8 卡 H100 部署 DeepSeekR1 求助 zhyim • 241 天前 • 最后回复来自 weiming | 15 | 
| 公司一个台式机想作为服务器部署本地大模型,怎么在局域网使用呢 xinhaiw • 234 天前 • 最后回复来自 cander0815 | 21 | 
| 8 路 L40 部署 R1-671B 上限是多少呢 jinja27 • 249 天前 • 最后回复来自 jingzf0214 | 10 | 
|  | LLM local 模型入门和使用 iv8d • 53 天前 • 最后回复来自 miaoxiaomayi | 11 | 
| 有开源的可联网搜索的 ollama UI 项目推荐吗 goashore • 244 天前 • 最后回复来自 coefuqin | 14 | 
|  | DIFY 这类产品会成为主流吗,交互逻辑咋这么复杂,感觉没自己写代码方便 wushenlun • 249 天前 • 最后回复来自 ericguo | 2 | 
|  | 各位大佬, m4mini32g 跑大模型🐂🍺还是 4060ti16g🐂🍺呀? songche • 255 天前 • 最后回复来自 chor02 | 22 | 
| 大佬们有没有基于大模型的推荐系统 demo spitfireuptown • 256 天前 • 最后回复来自 murmur | 9 | 
| ollama 如何手动下载模型? mrleft • 253 天前 • 最后回复来自 h4ckm310n | 15 | 
| 求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090 duanrancosmos • 259 天前 • 最后回复来自 Gnihton | 6 | 
| Deepseek r1 14b 很有自己的想法 lostsquirrelX • 260 天前 • 最后回复来自 lostsquirrelX | 2 | 
|  | 请问如何本地部署 AI 图片或视频清晰化功能? littlemis • 263 天前 • 最后回复来自 tycholiu | 12 | 
|  | Deepseek R1 671B 本地部署计算机硬件配置? lucien94xxx • 258 天前 • 最后回复来自 shuimugan | 9 |