V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  kaichen  ›  全部回复第 3 页 / 共 21 页
回复总数  407
1  2  3  4  5  6  7  8  9  10 ... 21  
150 天前
回复了 ttgo 创建的主题 机械键盘 再一次买 hhkb 失败
推荐 keychron q60 max ,hhkb 键位布局,可以自己换轴

https://www.keychron.com/products/keychron-q60-max-qmk-via-wireless-custom-mechanical-keyboard
你说的是 API 还是可以直接用的 Chatbot UI ?
166 天前
回复了 boboliu 创建的主题 分享发现 震惊!知名 AI 大公司竟做出这种事……
他这里有 5-shot 的标注耶,应该是没公开 prompt 的情况吧
180 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
@hui9000

官网拉到底部,点击“翻新产品”

https://www.apple.com.cn/shop/refurbished/mac
180 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
咸鱼员工 85 折再分期去买官翻,折上折+分期

M3 对比 M2 进化不多,现在买 M2 炒鸡实惠
184 天前
回复了 dzdh 创建的主题 Docker OrbStack 是不是也 G 了
跟 orbstack 本身没有关系,你可以打开选项,设置 proxy ,或者在 docker 选项里把 hub mirror 或者 proxy 给配置上
204 天前
回复了 coderpwh 创建的主题 Twitter 推特上面的撸空投是假的吗
不需要你花钱的,大概率是假的

这和当初 o2o 一样,他找 vc 要钱,然后给终端用户发钱发优惠,把数据做起来,再去拉更多投资

在 galxe 或者 layer3 上去做交互任务的,大概率是有空投预期
uncle block 数量上肯定比正常的要少一个量级,另外以太坊早就已经不是 pow ,而是 pos ,没有 uncle 这一说

最后的一个叔块已经是一年多前 https://etherscan.io/uncles
@Rrrrrr #6

https://lmstudio.ai/ 下载个客户端,搜索对应大小的模型( apple silicon 是内存的 3/4 可以作为显存),可以先搜索 qwen gguf 找个合适大小的玩玩看

然后可以直接对话,或者启动一个与 openai api 兼容的 api server
291 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
在 reddit 的 local llama 上,比较推崇的是买两块 3090 组 nvlink ,这样有 48G ,可以刚刚好跑个 70b 的 q5 量化版
291 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
那你可以对比 96G 的价格,从推理来说,能效方面 apple silicon 比较高,并且买回来就能用,买个 A100 还要组个主机

但是推理速度会被吊打,基本上差一个量级

- https://towardsdatascience.com/how-fast-is-mlx-a-comprehensive-benchmark-on-8-apple-silicon-chips-and-4-cuda-gpus-378a0ae356a0
- https://owehrens.com/whisper-nvidia-rtx-4090-vs-m1pro-with-mlx/
307 天前
回复了 cmonkey 创建的主题 Local LLM 运行 LM Studio 的电脑硬件配置
@kaichen #2

上面 70b 写错了,4bit 在 ~ 40G 占用左右
307 天前
回复了 cmonkey 创建的主题 Local LLM 运行 LM Studio 的电脑硬件配置
推理最重要的是有足够的显存可以把模型权重加载进来。

要么是搞个内存高一些的 mac ,要么是选个实惠一些的大显存显卡(去咸鱼淘二手)

7b 的 4bit 量化在 ~4G ,13b 的 4bit 在 ~8G ,34b 的 4bit 在 ~25GB ,70b 的 4bit 在 ~23GB
319 天前
回复了 jintaoxx 创建的主题 MacBook Pro MBA15 寸和 MBP14 寸如何选择?
air 和 pro 实际续航差距蛮大,air 基本上一天不充电不是问题,但 pro 消耗蛮大用一段时间后可能会只有半天(比如视频会议,和协同办公工具)

如果只是屏幕大小影响,真的建议,在工作的地方自己买个红米 4k 显示器,比起笔记本屏幕多一两寸提升更大更明显,花费也更少
本地跑个 mixtral 替代 chatgpt-3.5 问题不大,可以拿来替代 Immersive Translate 的翻译引擎,用 LM Studio 启动假扮 openai 接口

还有对一些无规则文本的处理,可以用 7b mistral 给 prompt 处理得到结果,比如分类,提取关键信息
330 天前
回复了 jackey115 创建的主题 Bitcoin 比特币、闪电网络智能合约 rust 开发
这是招聘去直接做 RGB 协议本身的开发?还是 RGB 其上的应用开发?
2023-06-25 09:58:29 +08:00
回复了 SillyGod 创建的主题 问与答 gpt-4-32k 模型 api 的上文 tokens 应该设多少
你如果用的 langchain 来做,可以直接用他的 memory 类,想简单限制数量就用 ConversationTokenBufferMemory ,想做总结再来回交互用 ConversationSummaryBufferMemory

记录的持久化也能处理

https://api.python.langchain.com/en/latest/modules/memory.html
2023-03-07 18:01:24 +08:00
回复了 Livid 创建的主题 以太坊 viem
这是新兴流行的 wagmi 制作的开发套件 on TypeScript ,现在全家桶有三件套

- wagmi.sh 便利的 ethereum react hooks
- viem.sh 替代 ethers 做网络连接
- abitype.dev 提供一套类型框架用于定义 abi ,方便提供校验和 TypeScript 智能补全
2022-07-15 23:10:54 +08:00
回复了 jiangwei2222 创建的主题 Web3 关于 web3 的思考
👍研究热情很高,可以在局部继续仔细调研

- 除了少数隐私链,排名靠前大部分公链数据没有加密,任何人都可以得到没有加密的内容,你可以去追查中本聪每一笔交易,可以看 vitalik 每一笔交易做什么(如捐出 shib ),区块链其中一个核心是可验证,并不是加密所有内容
- 区块生产速度都不是固定,比特币是有网络难度自动调整机制,而以太坊是难度最大( Difficulty ),确实并发很低
- 节点虽然脱离 boot node 无法互相发现,但你可以想办法问到一个 p2p 网络中的节点并连接上它;或者可以启动时连接社区商讨的 boot node server (理论上任何人都可以 host )
- web3js 几乎已经被淘汰,并且它只是一个以太坊的库,不能代表整个 web3
1  2  3  4  5  6  7  8  9  10 ... 21  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   859 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 85ms · UTC 21:18 · PVG 05:18 · LAX 13:18 · JFK 16:18
Developed with CodeLauncher
♥ Do have faith in what you're doing.