当前位置:»资讯 AI圈子 AI职业圈子

[自媒体] AI大模型“胡说八道”?别慌!3招教你解决AI的“幻觉”问题。

本帖最后由 小哪吒 于 6-23 23:07 编辑

转自公众号【赛博大表姐】
上一篇我讲到了为什么很多人反感AI写的东西,引起很多朋友的共鸣~AI写的东西乍一看辞藻华丽,逻辑清晰,仔细读下来就觉得哪儿不对劲。

除了有些“空心感”以外,写的东西也似是而非的,感觉说了,又感觉没说,妥妥的“一本正经地胡说八道”。

这种大模型的“幻觉”问题,的确很影响我们对信息的判断,它能把不确定的、甚至虚构的信息当成事实输出。用AI是为了提效,结果还要去溯源和求证,这也是为什么很多人说用AI写东西还不如自己写快。

前两天刚在群里讨论过这个内容。
640.webp

那我们怎么去把这个“猪队友”变成“神队友”,让它在我们能力之上加持,而不是添乱?今天分享3个压箱底的方法,保证有用。

一、为什么AI会“胡说八道”?

我们先来大致了解一下,AI的“幻觉”并不是故意撒谎,而是其基于概率的生成机制导致的信息不准确或虚构。

深层原因:
1、训练数据:数据中可能包含数据错误、过时信息,或存在一定的偏见。
2、生成逻辑:AI追求语言流畅和结构完整,有时会牺牲事实准确性来“补齐”内容。
3、提问技巧:用户提问模糊、信息不足也容易诱发AI幻觉。

这三个都是可能造成大模型“幻觉”的原因,前1、2个不是用户的问题,只能靠大模型不停更新迭代数据去解决,将信息补齐和修正。

二、三招,告别胡说八道

第一招:指定信息源,限定生成范围

像老板一样下指令,圈定的范围小一点。提问的时候直接附上参考资料(如权威链接、文本段落),或者明确要求AI只在限定范围内生成内容。
这样做会缩小AI的信息检索和生成空间,使其不得不依赖你提供的信息,减少“自由发挥”的空间。

第二招:多轮追问,交叉验证

小时候最怕被老师提问,因为问1个还行,再往后问就答不上来了。我们可以把AI当学生反复盘问,对可疑的、模糊的信息层层追问,从不同角度、用不同措辞重复提问。

还有种交叉方式就是用其他的大模型交叉验证,比如你在豆包问的,感觉不靠谱,去Kimi问一遍,去智谱问一遍。去ChatGPT问一遍,去G emini问一遍。

这样做的好处是:促使AI进行更深层次的推理和细节补充,通过对比发现差异。同时也培养了用户的批判性思维和求证的习惯,不把AI出来的内容奉为圭臬,始终保持清醒的头脑和独立思考。

第三招:人是主宰,AI只是工具

AI出来的内容绝不可直接拿来使用,一定要经过把关,它只是一个高效辅助的工具,要有“人机协作”的概念。

AI生成框架和初稿,再通过人工去润色、事实核查、情感注入,使写出来的内容更有“人味儿”和可信度。

在这儿PS一下:人的核心价值是不可替代的,要始终保持核心竞争力,人和AI的协同工作才是未来最强大的力量,而不是单靠AI。

AI的“幻觉”有好有坏,坏的地方说太多了,在此不再赘述,好的地方也有,那就是这是我们认识AI局限性的机会,也促使我们提升自身能力,去适应即将到来的全面化智能时代。

好啦,今天就到这儿吧,散会!

声明: 本站所有内容来源于用户上传,用来分享交流。如有资料或者图片不小心侵权,请发邮件(41835170@qq.com)告知!
分享到:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

豫ICP备2024052610号-1 ©AI闹海