V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  locoz  ›  全部回复第 6 页 / 共 310 页
回复总数  6198
1 ... 2  3  4  5  6  7  8  9  10  11 ... 310  
@matrix1010 #19 小公司没有任何 [自己训练一个能跟 GPT4 之类头部级别的模型 PK 的模型] 的可能性,所以为了效果好只能是基于 GPT4 或者 Claude2/3 这种头部的大模型来实现,否则模型的基础能力差会导致很多问题完全解决不了。

另外,新智元 介绍 Devin 的文章最后有提到:“CEO Wu 并没有详细说明他们的智能体背后使用的 AI 技术,只是笼统地解释说,团队找到了将大语言模型(例如 OpenAI 的 GPT-4 )与强化学习技术相结合的独特方法。”,很显然也只能是行业头部的大模型了。

效果方面我觉得没什么好对比的,根据官方的说法和演示视频中的效果来看,大概率是加了个提取关键信息的模型,代替了人提取关键信息给 AI 的步骤,做到在使用尽可能压缩上下文的情况下丰富信息量,自动化地让 AI 在输入信息密度极高的情况下输出东西,这效果当然会比上下文长度受限、可输入信息不全的情况下只能直接丢问题给 AI 的情况要好。

但其实随着像 Claude 3 这种支持更长上下文的模型进一步发展,未来完全可以在不需要那么精细地提取关键信息的情况下让 AI 得到所需的所有信息,哪些文件相关那就直接把文件都丢给 AI 就行了。在这个前提下,Devin 做的这种优化其实优势是会越来越小的。
@pixelbook #11 在决策层被 AI 取代之前,底下干活的早就被取代完了。决策层最核心的能力之一就是想法要具有前瞻性、能看透一个甚至多个行业找到最合适的路线,指望靠着以大众发布的内容为主的数据去训练出一个能站在更高的角度看问题的 AI ,在当下属于是做梦。当下这种训练方式能做到的 AI 仅限于把客观的信息概括出来,在没有人去引导的情况下是完全做不到跨多行业“思考”出能称得上是“决策”的东西的。
@matrix1010 #8 不至于的,都是依赖别人的模型实现的效果,在用的模型一致的情况下做不到多大的能力差距。
有些类型的问题,当下的语言模型搞不定就是搞不定,哪怕是人专门去精选输入内容和调整 prompt 都很难搞定,这是模型基本能力的问题,再优化也解决不了。
决策能力方面看起来是模型的问题,可以试试在用 Claude 3 的情况下能达到什么程度,我现在让 AI 改代码、加功能都是几个文件直接丢过去了,可工作的上下文长度长带来的效果极其明显。
飞书也有搞这些,还请人做了好多软广。但说到底这种功能实现起来都很简单,核心问题还是数据安全和隐私问题,解决不了这个问题就永远没法推广起来,这不是说不考虑就能不考虑的…
40 天前
回复了 nullo 创建的主题 宽带症候群 代理服务器
@nullo #9 那你可以选择用 v2ray 之类的解决问题
40 天前
回复了 yz346287786 创建的主题 分享发现 关于 XR 设备,你怎么看?
Apple Vision Pro 主要贵在更好的屏幕、更好的透镜、更好的芯片、更多的传感器,以及没多大实用意义的铝合金外壳、前屏幕模块这种东西。

市场目前主要是没有办法让人愿意日常使用,所以起不来。但后面一段时间会出来的比如 Immersed 搞的眼镜式头显,说是跟 Apple Vision Pro 一样的屏幕,如果它体验做得可以,那拿来日常办公还是很好的,外观好看、轻便、不强依赖电脑、该有的主要功能都有,完全能满足日常使用的需求。
@siweipancc #10 AI:我好委屈,你又没跟我说要这样,我怎么知道你要什么。
@mandex #7 语言模型对数字和一些抽象的东西没概念不代表它不能借助其他东西完成需求,像你这个需求只要允许它用代码先计算再把结果输出,它就能输出绝对正确的值。这种问题你就算给人做,人也得借助工具去计算一下才能确保结果没问题...

让语言模型写代码,完全可以只是把需求讲清楚,它写完程序自己再写测试,确保代码层面没问题、能满足需求之后直接把成品给人验证就行了,人是可以不需要去看代码的。当下无非就是成本问题不适合这么做而已,真要做的话还是可以做的。
@kingmo888 #29 主播不好看其实是普遍现象,尤其是这种搞户外直播的。不同的人看的东西不同,这种年轻人看会觉得很 low 、人不好看,但是中老年人很喜欢看,甚至人家还可以做到挺赚钱。
40 天前
回复了 nullo 创建的主题 宽带症候群 代理服务器
简单的代理用 tinyproxy 、squid 之类的都可以,简单配置一下就能用。复杂情况可以用常见用于翻墙那些东西,shadowsocks 、v2ray 之类的。
@hhhsuan #22 直接手机直播一般也要加个云台、散热器、充电宝的,要不然画面抖动严重、手机推流发热导致画面卡顿、充电发热进一步加重卡顿,如果不充电的话芯片持续高负载加上无线通信需要持续工作,续航又顶不住。
@bbmmwan886 #9 也有可能,不过这种大块头、有一堆 USB 口的一般也都会做 USB 通信功能,手机群控场景用得挺多的,可能他是既用来充电又用来接了啥设备。
@Beeium #7 DCI MEAG M8 你搜一下图片就能看到有淘宝的封面图,是个声卡,做调音、混音用的,你这图里的应该是个户外唱歌主播的设备?不是唱歌的感觉没太大必要整这么夸张。

设备我不清楚用什么合适,我只是知道有这么些东西。配置原理就是前面说的那些,具体配置方法得要看设备本身是啥样的,像相机、摄影机的接口和协议好像都好多种。
@tom8 #18 巧了,刚好都在说这个 hhh
@pxw2002 #8
@zaq #17
多卡聚合就是流量分散到每个卡上传出,都到聚合服务器上聚合,再由聚合服务器发出去。对于抖音的直播服务器而言,它只会看到来自于聚合服务器的流量,类似于中间做了个代理;对于推流的笔记本电脑而言,它也只是在正常上网,它看到的也只是聚合出来的效果。都是无感知的。

相关技术/软件可以看看 http://www.openmptcprouter.com/ 的说明,这是个基于 MultiPath TCP (MPTCP)搞的魔改版 OpenWRT ,我估计有些多卡聚合路由器就是直接拿这个做的。

@pxw2002 #8 多卡聚合对于专门做户外直播的人而言很常规,即使不做聚合也得是推到自己服务器上做中转,延迟一段时间当缓冲,然后再推给平台。如果不做点这种操作,直播出来的效果就是要么时不时卡一下,要么码率波动,没那么稳定的。
他们这个从电脑上的画面来看应该是在户外直接用抖音的直播伴侣现场推流了,要是玩得花点还要有户外主播和室内主播来回切换的,还得再加一层 SRS 之类的工具做视频流转发,视频流集中到导播那统一给平台推流。
摄影机画面接线输出到无线图传,图传接收机把画面走 HDMI 输出到采集卡,采集卡把画面变成摄像头输入到电脑,电脑通过多卡聚合路由器的网络走到服务器中转,然后再连接直播服务器推视频流。摄影师背上靠下面那个应该是一坨 18650 电池搞的大号充电宝,专门给摄影机和图传供电,看着估计是专门为户外直播设计的设备。

图一中右上方屏幕是给主播看话术、线上情况和互动用的,如果是专用设备带摄像头的话可能还会作为一个固定机位用。电脑右上方那个 USB HUB 挺离谱的,还插了啥东西?看着一堆口都插满了。

多卡聚合路由器就是通过叠加多个 SIM 卡的带宽实现更高的上行带宽(单个 SIM 卡有上限),同时多运营商做多路冗余,避免因为网络覆盖问题导致直播卡顿。非专业户外主播在没有这东西的情况下搞户外直播,画面一定是会一抽一抽的,但专业户外主播在城市内用了这种东西是几乎不会出现这种情况的,有跟没有的差距很大。

图中画框的 B ,从外观上看是那种工控路由器,一般是 x86 架构、装的 OpenWRT ,就是常见的软路由圈子会搞的那些设备。
A 从外观上看不出是不是多卡聚合路由器,有两种可能性:
假设 A 是多卡聚合路由器,B 是做二次多链路聚合,那目的可能是为了聚合更多卡的带宽,每个多卡聚合路由器都插好几张卡。
假设 A 不是多卡聚合路由器,只是个普通的插单张卡的路由器,那 B 才是实际的做多链路聚合的,实际就等同于在 B 上插了几个 USB 的蜂窝网络网卡。

第一种假设情况的优势在于最终可以叠加出来的带宽很高,而且冗余空间更大,但是成本会高很多,毕竟多卡聚合路由器算小众的定制设备。
第二种假设情况的优势在于普通的可以插单张卡支持蜂窝网络上网的路由器极其廉价,并且工控路由器也极其廉价,加起来就是个低成本但效果同样可以满足需求的方案。
@ice45571 #2
@zoharSoul #3
还可以搜一下去年“智能体”关键词相关的市场分析文章,去年我记得有看到过三四篇讲得很好的,像其中有一篇我记得是在一个产品经理社区里发的,剖析了星野的各种设计细节、思路和竞品的情况,看完会学到很多东西。
1 ... 2  3  4  5  6  7  8  9  10  11 ... 310  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2501 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 51ms · UTC 16:06 · PVG 00:06 · LAX 09:06 · JFK 12:06
Developed with CodeLauncher
♥ Do have faith in what you're doing.