V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sworld233  ›  全部回复第 2 页 / 共 6 页
回复总数  107
1  2  3  4  5  6  
122 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
本地我体验过来,效果最好的两个模型:谷歌的 Gemma2 和阿里的 Qwen2.5 ,huggingface 上面还有微调版本,可以加强某方面的能力。
7B 以下的模型几乎都不可用,Gemma2 9B 是我能接受的效果下限,Qwen 2.5 32B 或 72B 或许是一个大显存不错的选择
https://github.com/mcthesw
star 还没过千,不过有的项目也维护两年多了
看着不错啊
用中文时效果很差,可能训练集中没什么中文,但是比原版本就不太好的效果还差
178 天前
回复了 worker201 创建的主题 NAS 自建云相册你们用的都是什么服务?
mtphoto
容量 50GB 的话,直接用 backrest 加密备份到 Backblaze +国内缤纷云,前者每月花费不超过 1 元,后者利用免费空间(需要实名认证)
选 N 卡,游戏里可以开 DLSS
八位堂猎户座 X Pro ,我直接关闭 steam 输入,体验差不多
无效注释,大部分都在重复代码的含义
// 配置信息
// Configuration information
config *Config

// 缓冲读取器
// Buffered reader
br *bufio.Reader

// 持续帧
// Continuation frame
continuationFrame continuationFrame

// 帧头
// Frame header
fh frameHeader
这种有啥可以注释的
212 天前
回复了 gosky 创建的主题 程序员 怎么给免费的编程助手 Codeium 加速??
试过 Qwen 、Fitten Code 、Codeium 和两个月的 Github Copilot ,前面三个我感觉速度其实都还行,不过质量只有 Copilot 比较好。可能是楼主网络有一定延迟?或者现在用的人多了压力太大了
我自己现在找了个折中的方案,用 Continue.dev 搭配自己买 API ,用的是国内 Deepseek 的 API ,速度很快,一天花费大概 1 元
你仓库搞这样看起来就像是自用的……我想用也不知道怎么用啊
豆包确实太蠢了,指令遵循差到了几乎不可用的地步。我用的是 ChatGPTBox ,接入模型 Qwen-Max 和 Deepseek-chat
217 天前
回复了 kaxiu 创建的主题 奇思妙想 基于这个痛点,想做一个笔记软件
做一个笔记软件太难了,先做一个笔记软件的插件试试,logseq 、思源、ob 这类随便挑一个
deepseek ,不想充钱让他们自己注册个账号用网页版。豆包真不好用
1  2  3  4  5  6  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2760 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 43ms · UTC 14:51 · PVG 22:51 · LAX 06:51 · JFK 09:51
Developed with CodeLauncher
♥ Do have faith in what you're doing.