V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  defaw  ›  全部回复第 1 页 / 共 19 页
回复总数  379
1  2  3  4  5  6  7  8  9  10 ... 19  
cursor 缺算力,我认为不是用户问题,就算换个网变好了也可能只是换了个网导致重新排队。
glm 疑似对不同账号给了不同级别的配额,我这边用起来飞快白天体感 50t 晚上 100t ,但是我看网上都说卡。同样的网上都说 minimax 的 plan 很快,但是我实际体验是速度大概是 glm4.7 的三分之一速度。
5 天前
回复了 seamonster 创建的主题 智能家电 我这样设计全屋智能灯光可以吗?
我是直接在灯背面塞了个普通通断器,然后保持物理灯开关常开,好处是不需要任何额外的装修操作,但是灯也接入了智能控制。
6 天前
回复了 aikilan 创建的主题 程序员 速度,国产厂家官方模型致命的问题
现在的 glm 甚至能和 cursor composer 一个速度,限购之后变得很快了。
@stanley0black 不开本地代理是可以的,但是开了本地代理会把 ANTHROPIC_BASE_URL 设置成 localhost ,apikey 也会变成 cc switch 的,所以会寄
有个小问题,不兼容 cc switch 的代理模式,不过从原理上来说也确实没法兼容,因为拿不到 api key
3 月 28 日
回复了 onedge 创建的主题 程序员 GLM 5.1 有实际测试过的吗
glm lite 套餐,巨慢无比,感觉智能程度提高了不少。
你写程序不调试一次写完?
3 月 20 日
回复了 ownSun 创建的主题 优惠信息 MiniMax 免费领 30 美元 API 额度
+30
说实话,m2.7 还不错,用两天了,可以看得出来至少在用心蒸馏别家模型,思考愣是一条中文没有,和 glm 这这点上有显著不同,glm 思考过程有大量的中文。
然后从好用程度来说,m2.7 远大于 m2.5,可能强于 glm4.7,minimax 说的无监督长时间运行确实做到了。
3 月 19 日
回复了 hrzlvn 创建的主题 ☕Vibe Coding🤖 国产模型你们试下来谁更强
昨晚上开了个 minimax m2.7,比之前的 m2.5 强多了,m2.5 的时候工具调用成功率也就 50%。
感觉 m2.7 比 glm4.7 强一些,达到 composer1.5 的水平了
3 月 18 日
回复了 mayday1997 创建的主题 生活 在中国你讲法律我都觉得好笑
何意味,现场发生了啥一句话不说就攻击上了,你怎么撞得她怎么滑的怎么不展开说说,把 V2EX 当小红书用呢
宕机就等于断电,当然是选择等来电了
何意味,PCB 爆拉两天了,AI 硬件已经超跌开始反弹了,但 ai 应用一点看不到头
3 月 16 日
回复了 lerry 创建的主题 分享发现 AI 立大功、闯大祸?记一次 ESP32 开发调试
多打日志,ai 写出来的时候都没意识到这是个问题找是让他自己找是找不出来的
3 月 13 日
回复了 Kinnikuman 创建的主题 程序员 Anthropic 家的模型训练与其他家差别大吗?
@clow 两个场景,minecraft 的 3d 渲染,espidf 的嵌入式冷门库
3 月 13 日
回复了 Kinnikuman 创建的主题 程序员 Anthropic 家的模型训练与其他家差别大吗?
从来没觉得 opus 强,用了几次都是蠢的要死故作深沉的在那进行一些可笑的推理,知识水平极差,没有知识就没有能力,知识这块 gpt 一直是最全面的,用 opus 推理 200k 上下文不如 gpt 直接给答案。
3 月 12 日
回复了 tina2998 创建的主题 程序员 话说我用中转站的话会泄露 api 吗?
中转站一定会卖你对话数据的,白赚的钱不赚是傻子
ID:370
1  2  3  4  5  6  7  8  9  10 ... 19  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5295 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 42ms · UTC 03:50 · PVG 11:50 · LAX 20:50 · JFK 23:50
♥ Do have faith in what you're doing.