本帖最后由 小哪吒 于 6-23 23:07 编辑
转自公众号【赛博大表姐】
上一篇我讲到了为什么很多人反感AI写的东西,引起很多朋友的共鸣~AI写的东西乍一看辞藻华丽,逻辑清晰,仔细读下来就觉得哪儿不对劲。
除了有些“空心感”以外,写的东西也似是而非的,感觉说了,又感觉没说,妥妥的“一本正经地胡说八道”。
这种大模型的“幻觉”问题,的确很影响我们对信息的判断,它能把不确定的、甚至虚构的信息当成事实输出。用AI是为了提效,结果还要去溯源和求证,这也是为什么很多人说用AI写东西还不如自己写快。
前两天刚在群里讨论过这个内容。
那我们怎么去把这个“猪队友”变成“神队友”,让它在我们能力之上加持,而不是添乱?今天分享3个压箱底的方法,保证有用。
一、为什么AI会“胡说八道”?
我们先来大致了解一下,AI的“幻觉”并不是故意撒谎,而是其基于概率的生成机制导致的信息不准确或虚构。
深层原因: 1、训练数据:数据中可能包含数据错误、过时信息,或存在一定的偏见。 2、生成逻辑:AI追求语言流畅和结构完整,有时会牺牲事实准确性来“补齐”内容。 3、提问技巧:用户提问模糊、信息不足也容易诱发AI幻觉。
这三个都是可能造成大模型“幻觉”的原因,前1、2个不是用户的问题,只能靠大模型不停更新迭代数据去解决,将信息补齐和修正。
二、三招,告别胡说八道
第一招:指定信息源,限定生成范围
像老板一样下指令,圈定的范围小一点。提问的时候直接附上参考资料(如权威链接、文本段落),或者明确要求AI只在限定范围内生成内容。 这样做会缩小AI的信息检索和生成空间,使其不得不依赖你提供的信息,减少“自由发挥”的空间。
第二招:多轮追问,交叉验证
小时候最怕被老师提问,因为问1个还行,再往后问就答不上来了。我们可以把AI当学生反复盘问,对可疑的、模糊的信息层层追问,从不同角度、用不同措辞重复提问。
还有种交叉方式就是用其他的大模型交叉验证,比如你在豆包问的,感觉不靠谱,去Kimi问一遍,去智谱问一遍。去ChatGPT问一遍,去G emini问一遍。
这样做的好处是:促使AI进行更深层次的推理和细节补充,通过对比发现差异。同时也培养了用户的批判性思维和求证的习惯,不把AI出来的内容奉为圭臬,始终保持清醒的头脑和独立思考。
第三招:人是主宰,AI只是工具
AI出来的内容绝不可直接拿来使用,一定要经过把关,它只是一个高效辅助的工具,要有“人机协作”的概念。
AI生成框架和初稿,再通过人工去润色、事实核查、情感注入,使写出来的内容更有“人味儿”和可信度。
在这儿PS一下:人的核心价值是不可替代的,要始终保持核心竞争力,人和AI的协同工作才是未来最强大的力量,而不是单靠AI。
AI的“幻觉”有好有坏,坏的地方说太多了,在此不再赘述,好的地方也有,那就是这是我们认识AI局限性的机会,也促使我们提升自身能力,去适应即将到来的全面化智能时代。
好啦,今天就到这儿吧,散会!
|