|  |      1knva      255 天前 不是哥们,这两是一个价位的吗 | 
|  |      2leonme      255 天前 via iPhone 32g ,显存越大越好,能跑最重要 | 
|  |      5luoyide2010      255 天前 显存能把模型装下的话,4060ti 速度更快些 | 
|  |      6songche OP @luoyide2010 速度差异很大不 | 
|  |      7jamesxu      255 天前 | 
|  |      9clemente      255 天前 前面能跑更大的模型 但是速度慢 后面能跑小模型 但是比前面跑的快 | 
|  |      10xzg1993      255 天前 m4mini32g 不是 32g 内存吗,4060ti16g 是 16g 显存  这俩咋对比呢 | 
|  |      11skydcnmana      255 天前 @xzg1993 mac 的统一内存速度比普通内存快不少,可以凑合当显存用。 | 
|  |      12xzg1993      255 天前 @skydcnmana 学习了~ | 
|      13moyt      255 天前 单机跑这些缩水版的大模型,意义是啥,纯粹折腾着玩还是有什么可以落地的东西吗? | 
|  |      14zqqian      255 天前 不爆显存的情况下,速度肯定还是显卡最快。 要是爆显存,那就不一定了 | 
|  |      15cubecube      255 天前 @skydcnmana 双通道 D5 高频也有 100G 的带宽了,4060ti 其实也可以扩展用内存的 | 
|  |      16qping      255 天前 via iPhone  1 看了下 mac mini4 是 273/G 还是快不少的,我测试过 deepseek 32b 的版本,16G 显示和内存混合,只有 4t/s @cubecube | 
|  |      17hafuhafu      255 天前 M4 24g 大战 3070 应该可以约等于 4060TI https://www.reddit.com/r/LocalLLaMA/comments/1hrkend/m4_24gb_ollama_performance_with_llama32/ 不考虑显存的问题还是显卡速度快,不过显存确实是个大问题。 | 
|      18mumbler      255 天前 都不要,2080ti 魔改 22G 最香,淘宝卖 2500 ,能流畅跑 32B deepseek | 
|  |      19iyaozhen      255 天前 个人经验 我 m3 pro 跑 phi-4 吐字比较慢,但 4070 ti super 飞快 | 
|  |      20skydcnmana      255 天前 @mumbler 32b 模型文件 20G ,实际需要的显存是 24 到 30G ,不可能全用显存跑啊 | 
|  |      21skydcnmana      255 天前 | 
|      22chor02      255 天前 m4 24g 能跑 10 多 b 的,但是很慢 |