很聪明,推理能力很强,这没得说。
但是有一个现象非常奇怪,就是本应该做得非常好的,一些机械记忆的简单问题,我发现 ai ,尤其是 Gemini ,做得非常差。
比如:
好像是幻想出来的内容一样。这些难道不是在传统搜索里面就已经不是问题了么,但是为什么到了今天,却这么严重?
![]() |
1
TimePPT PRO LLM 自身的幻觉是不可避免的,查资料想精准就让 LLM 联网
|
![]() |
3
snylonue 44 天前
就是幻想出来的内容,换个精确点的说法是不断预测当前文本的下一个 token
|