V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  yanyuechuixue  ›  全部回复第 3 页 / 共 29 页
回复总数  567
1  2  3  4  5  6  7  8  9  10 ... 29  
@yanyuechuixue 例如刚才这个, 用户就没必要翻译成 user 了,因为一般人都知道,如果有这个功能,麻烦 @我一下谢谢您!
能否添加一个功能,只允许六级或以上词汇?或者用户自己选择多高难度的词汇,要不然有种留子味
参加一下
2024 年 12 月 12 日
回复了 maclanelf134 创建的主题 程序员 刚刚取淘宝想买个 cursor 的账号
发推广链接的兄弟,就没想过他们为什么要让你们推广么……
推广了对他们有什么好处……他们靠什么盈利……
2024 年 12 月 1 日
回复了 dynasty 创建的主题 Apple 布丁扫描收费,这 198 元终身版值得买吗
iOS 自带的不好用么?
加密上传百度云软件

cloudsync 可以实现,但仅群晖有.
2024 年 11 月 25 日
回复了 yanyuechuixue 创建的主题 Python 各位大佬,求救一个 Python 问题,关于 Enum 的使用
@ma46 谢谢!学到了,原来如此!

十分感谢大佬!!

问题解决!
2024 年 11 月 25 日
回复了 yanyuechuixue 创建的主题 Python 各位大佬,求救一个 Python 问题,关于 Enum 的使用
@laonger 还是不行。。

``` python
58 @property
59 def ell_max(self) -> int:
---> 60 return self._ell_max_values[self.name]

TypeError: 'Detector' object is not subscriptable
```

我想通过类继承的办法定义一个新的类,结果也不好使,说 Enum 的不允许再次继承。。。
2024 年 11 月 18 日
回复了 yanyuechuixue 创建的主题 Apple mac os, 用 loon ,如何绕过 docker 中的 container?
@thet 大哥您说的这里的 source ip 是指本地(也就是 container )还是指远端( peers )啊?
2024 年 11 月 17 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@kennylam777 非常感谢!

我还得多加学习。
那我用 exl2 就好了,我也正是有一个 4090 和 4060ti , 也只是用来做对话,足够了。

感谢大哥!
2024 年 11 月 14 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@kennylam777 不好意思,我是个新手,能否请教您一下,不同的量化有什么不同呀?

例如 exl2 量化,W4A16 量化 , GPTQ 量化,他们的性能会有比较大的不同么?

我现在简单起见,直接用了 ollama 给出的 Int4 ,想去挑一个好的
2024 年 11 月 14 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@yanyuechuixue ok 找到了,谢谢!
2024 年 11 月 14 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@kennylam777
能给一个 coder 的链接不?
我只找到了 instruct 的链接
2024 年 11 月 13 日
回复了 ClA0ClA0 创建的主题 Apple 京东耍猴, mac mini 压根抢不到
你才知道啊哈哈哈哈哈
2024 年 11 月 13 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@F1Justin 纯 CPU 么?
2024 年 11 月 13 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
@liulicaixiao cursor 怎么白嫖呀?
2024 年 11 月 13 日
回复了 ShadowPower 创建的主题 Local LLM 体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了
看了一下,如果用 INT4 的模型,4090 没问题了。精度损失也很少。
但问题是不可能将一块 4090 用在这上面。成本太高了,不考虑保护隐私的情况下,还不如订阅 ChatGPT.

4060Ti 16G 的价格比较低,我买了一块,这个可以用来“全职”部署 LLM, 但目前即便是 INT4 也无法跑在 16G 上。

也许 Windows 的共享显存会有用,但不知道速度会降低到多少。
2024 年 11 月 7 日
回复了 caojunjie2024 创建的主题 iPhone iPhone 时间旁边的火箭是什么意思哦
@cat 而且是 OP ??
1  2  3  4  5  6  7  8  9  10 ... 29  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1912 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 04:15 · PVG 12:15 · LAX 20:15 · JFK 23:15
♥ Do have faith in what you're doing.