V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  mumbler  ›  全部回复第 23 页 / 共 107 页
回复总数  2140
1 ... 19  20  21  22  23  24  25  26  27  28 ... 107  
@walkingmoonwell 知识库已经很成熟了,可以用 flashai 免费体验一下,硬件有个 gpu 体验更好
@jeffwcx
llama2 有 7b 13b 33b 70b,qwen1.5 有 7b,14b,34b,72b
llama3 有 8b 70b,qwen2 有 7b ,72b
是不是一样的
@gzlock ollama 只是一个命令行,要用图形界面需要安装 webui ,要用知识库需要安装 anything ,对普通人太麻烦,flashai 底层也是 ollama ,集成了图形界面,知识库,不用一个个去安装了,更方便不是吗
@B4a1n 官方没有说正式支持中文,可能中文语料训练得少,国产模型大都基于 llama3 训练的,很快会出来一堆。10B 以下模型里中文能力目前最好的是 gemma2 9B ,英翻中特别厉害
清空 app 缓存就行了,屡试不爽
@SWALLOWW #8 不知道怎么选择,无脑选 gemma2 9B 就行了,中文能力,逻辑能力都一流,特别翻译能力超过 qwen2 ,各种模型排行榜可以看 https://chat.lmsys.org/?leaderboard
@tailaqumos #5 可以全部提供,包括 AI ,知识库,向量索引的 api ,我们正在做一个框架,方便启动 api 开发的应用
云端 AI 翻译长文档都比较贵,要几十到几百不等
可以用本地大模型翻译,gemma2 9B 翻译效果非常好,下载一个 flashai 就可以了,自带本地大模型和文档翻译功能,开箱即用
flashai.com.cn
@iorilu #2 一个包一个模型,需要哪个启动哪个,这个设计是为了做到开箱即用,否则还涉及到下载模型操作,其实 r 软件不大,模型大小占包 90%以上
@creazyrabbit #1 gamme2 9B 翻译超强,比 qwen2,llama3 都强得多,跟 deepl 没有肉眼区别
159 天前
回复了 aolifu 创建的主题 奇思妙想 想搞一个共享卫生间,一起聊聊?
抄袭滴滴拉屎的创意
用大模型写代码,可以在只懂 PHP 基础的情况下快速写出来,小项目一下午就能搞定
162 天前
回复了 SlanWyf 创建的主题 VMware 13500H 可以流畅使用 vmware 中的 win10 吗
看看宿主机空闲内存是否足够,如果动用了虚拟内存就会慢,一般 16G 机器,空闲内存就 5G 左右,如果开了很多浏览器页面,那就更少了
@shinsekai #46 可能是象形文字读取是图像思维,不走发音系统,弹幕就只有中日可以
只能是中文小说,可以一目十行,英文就算母语者也做不到,所以弹幕只能在象形文字母语者里流行
166 天前
回复了 libasten 创建的主题 问与答 现在新组装的机器,是无脑装 win11 了吗?
win10 2025 年就要退役了,win11 早就成熟了
做小工具最适合的是 delphi ,能编译一个几 M 的独立.exe 或者.app ,不依赖环境运行
166 天前
回复了 Nostalghia 创建的主题 OpenAI 有人试过用大模型翻译长篇英文书吗?
可以用 Flash AI 一键部署本地大模型,提供专门的长文档翻译功能,支持无限长度,专用工作流一段段的翻,稳定可靠,推荐 gemma2 9B 模型(需 6G 显存或内存),最好用 GPU ,如果用 CPU 也可用,但可能会比较慢

https://flashai.com.cn/t
1 ... 19  20  21  22  23  24  25  26  27  28 ... 107  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1128 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 31ms · UTC 17:58 · PVG 01:58 · LAX 09:58 · JFK 12:58
Developed with CodeLauncher
♥ Do have faith in what you're doing.