[AI写作]AI 老是说谎怎么办?不用网络查证,靠模型自己的脑子来判断真假
你有没有遇到过这样的情况:问 ChatGPT 一个问题,它回答得信心满满,但其实是编的。这个问题叫「幻觉」,是所有大语言模型的通病。我们之前都是靠网络搜索来验证 AI 的回答,但最近的一项研究提出了另一个思路:与其向外求证,不如让模型检查自己内部的「知识库」。这篇文章讲的就是这个有趣的突破——如何让 AI 不靠外部资源,只靠参数里存储的知识来判断自己说的话对不对。听起来有点像让人对自己进行诚实反思,效果好不好呢?我们一起来看。

