 
        
        
    |  | Deepseek R1 671B 本地部署方案 mcsddjyd • 187 天前 • 最后回复来自 businessch | 15 | 
| 无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流) Daybyedream • 219 天前 • 最后回复来自 Daybyedream | 4 | 
| 跑 AI 模型,显卡的购买咨询 xiniu • 223 天前 • 最后回复来自 Foxii | 23 | 
| 半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3 tool3d • 174 天前 • 最后回复来自 mizuhashi | 51 | 
|  | 一块 4090,怎么来评估部署大模型后(假设为 DeepSeek-R1-Distill-Qwen-7B)的并发数?、、 bushnerd • 225 天前 • 最后回复来自 jroger | 1 | 
|  | 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢 littlemis • 227 天前 • 最后回复来自 littlemis | 4 | 
| MacMin M4 +国补很香,想买一个内存大一点的跑 pytorch 训练是否可行 python35 • 217 天前 • 最后回复来自 hefish | 3 | 
|  | 如何估算一个大模型需要用到什么性能配置的硬件? zcm3579 • 226 天前 • 最后回复来自 ChristopherY | 16 | 
|  | A30 显卡-24G 显存,推荐部署什么大模型呢 ZimaBlueee • 217 天前 • 最后回复来自 hefish | 8 | 
|  | 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源 xkeyC • 228 天前 • 最后回复来自 xkeyC | 2 | 
|  | ollama 支持的一些模型测试结果 feelapi • 232 天前 • 最后回复来自 coefuqin | 6 | 
|  | ollama 新手,求问哥哥们 2 个问题,找了好多资料还是没弄明白 ZimaBlueee • 234 天前 • 最后回复来自 hefish | 19 | 
|  | 请问 ollama 等 AI 的第三方客户端,除了 ChatBox 和 CherryStudio,还有更好的选择吗? BearCookie • 149 天前 • 最后回复来自 aero99 | 11 | 
| 100 多号人的企业,想自己部署 deepseek,硬件要哪些? libasten • 234 天前 • 最后回复来自 tamshy | 5 | 
|  | 大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果 cander0815 • 234 天前 • 最后回复来自 coefuqin | 4 | 
|  | 本地部署的小模型(小于 16G 显存)适合轻任务,哪一个模型比较好用? Kinnikuman • 236 天前 • 最后回复来自 tool2dx | 13 | 
|  | 帮忙看看这个 DIY 装机配置大模型入门怎样 song135711 • 231 天前 • 最后回复来自 coefuqin | 19 | 
| 30min 搭建本地运行的 General AI agent, 多模态,自扩展,还支持语音! stevenlu137 • 238 天前 • 最后回复来自 stevenlu137 | 1 | 
| 为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 mili100 • 233 天前 • 最后回复来自 musi | 6 | 
| q4 量化的大模型能比原版全精度的差多少? jhytxy • 238 天前 • 最后回复来自 mili100 | 2 |