V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
404www
V2EX  ›  程序员

当问 gpt 不太熟悉得领域时,如何不被误导或者如何将错误降到最低?

  •  
  •   404www · 2023-04-29 17:04:05 +08:00 · 3044 次点击
    这是一个创建于 597 天前的主题,其中的信息可能已经有所发展或是发生改变。

    总所周知,gpt 类问答机器人都存在可能牛头不对马嘴甚至睁眼说瞎话的情况存在,那么各位有什么方法或者技巧能不被误导或者如何将错误降到最低?

    22 条回复    2023-05-01 07:39:24 +08:00
    SenLief
        1
    SenLief  
       2023-04-29 17:16:32 +08:00
    除了编程的其他的都认为不准确。
    coderluan
        2
    coderluan  
       2023-04-29 17:26:05 +08:00
    再拿 google 搜一遍喽
    wooyuntest
        3
    wooyuntest  
       2023-04-29 17:28:57 +08:00
    他是语言模型,不是思维模型。
    pirredelu
        4
    pirredelu  
       2023-04-29 17:36:02 +08:00
    拿他输出的结果,问问他这个结论有什么问题
    rorschachyoung
        5
    rorschachyoung  
       2023-04-29 17:44:47 +08:00
    实践是检验认知真理性的唯一标准
    Lightbright
        6
    Lightbright  
       2023-04-29 17:45:50 +08:00 via Android
    用 gpt4🥰
    Alias4ck
        7
    Alias4ck  
       2023-04-29 18:01:18 +08:00
    只能做参考, 具体得实践
    NoOneNoBody
        8
    NoOneNoBody  
       2023-04-29 18:11:21 +08:00   ❤️ 1
    你把它看成这里某个成员就是了,你在这讨论、辩论的时候,有人说你不知道的“新事物”,你不去求证一下就信么?
    me221
        9
    me221  
       2023-04-29 18:24:55 +08:00
    一个月就 20 刀你还要它怎样

    它有思维了第一个干掉你 :dog
    icyalala
        10
    icyalala  
       2023-04-29 18:35:57 +08:00   ❤️ 9
    https://m.weibo.cn/status/4892506347014260
    可以参考陶哲轩的思路。你知道你自己去搜内容也会出错,那当然也要明白 GPT 也会出错,所以你可以把它当作一个思维发散模式来用。就像福尔摩斯会和华生聊天,华生的话不一定是正确的,但能启发福尔摩斯发现真相。
    benwwchen
        11
    benwwchen  
       2023-04-29 19:44:40 +08:00   ❤️ 1
    确实有时候事实差很远的时候还是会说得头头是道,就算查了告诉他还是会认错但继续瞎编。感觉跟训练时候的 loss 有关,导致就算事实错了也会尽量说得很像一回事,所以问它自己可能也不知道它对自己的回答有多自信。有时候编程问偏门领域的时候遇到这种情况还是挺烦的,要是之后有改进模型可以输出对事实部分的置信度就好了,不过 LLM 的优势就是无标签用大量数据训练,所以也不是个容易的改进。
    yankebupt
        12
    yankebupt  
       2023-04-29 19:54:19 +08:00
    有 RLHF 加 RLHF ,没条件的话,尽量 Prompt 说死一点,让他犯错误的时候撞上 openai 自己的 RLHF ,借用一下
    犯错误没办法,毕竟 transformer 置信度才 0.1 ,就不是个严格 AI
    ChefIsAwesome
        13
    ChefIsAwesome  
       2023-04-29 20:04:19 +08:00
    yuanix
        14
    yuanix  
       2023-04-29 20:09:44 +08:00 via Android
    让它给出信息源,自己再根据信息源判断。如果是它编的,在这一步有几率认识到它自己的错误。当然,它给的所谓信息源链接可能也是编的,点进去确认一下参考资料是否真实存在,存在的话是否权威。
    xylxAdai
        15
    xylxAdai  
       2023-04-29 20:11:46 +08:00
    给信息源嘛。对于未知的领域,你自己 google 一样没法识别真假。
    hahastudio
        16
    hahastudio  
       2023-04-29 20:32:33 +08:00
    不问,因为我觉得以现在的出错率,不管问什么最后还得我自己去查一查,那我为什么要多道工序
    拿来开拓一下思路还可以
    cy18
        17
    cy18  
       2023-04-29 22:27:15 +08:00
    @SenLief 编程也不靠谱。
    问 GPT xxx 库有没有提供 xxxx 功能的函数、接口,然后就给我胡诌一个以假乱真的。
    SenLief
        18
    SenLief  
       2023-04-29 22:28:56 +08:00 via iPhone
    @cy18 你多回复几次不对,就会告诉你没有这功能,再回复几次就没有这个库了。
    akira
        19
    akira  
       2023-04-30 00:24:01 +08:00
    让他自己重新检查回答的内容, 如果是明显错误是可以自己发现的
    vishun
        20
    vishun  
       2023-04-30 13:51:33 +08:00
    @icyalala #10 还是有些不一样的,华生如果不知道就会说不知道,而不是编造一个完美的假的答案。
    alex8
        21
    alex8  
       2023-04-30 21:52:29 +08:00
    https://www.v2ex.com/t/936634

    目前 GPT4 相对靠谱点; GPT3.5 告诉你它验证过了没问题,实际并没有验证过。
    最好能对其给的回答能自行验证其可行性、正确性。
    mushuanl
        22
    mushuanl  
       2023-05-01 07:39:24 +08:00 via iPhone
    “解释你的回答背后的原因。” 让 ChatGPT 解释其思考过程可以帮助您更好地理解它是如何得出结论或解决方案的,还可以提供可能对您有用的额外上下文。 可以试试看
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1168 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 42ms · UTC 23:43 · PVG 07:43 · LAX 15:43 · JFK 18:43
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.