AI是一辆时代快车,一旦踏上,你就不会再想回头!
——————————————
很多人都在用AI帮自己整点材料、写点文字。不过,AI的输出总是会有胡编乱造的成份——也就是大模型存在“幻觉”问题。
有没有办法克服“幻觉”呢?
答案是:没有!
这是由大模型的工作原理决定的。
相信听过王珏老师AI课程的老师,都对如下结论留下深刻印象:
大模型是一套数学模型,它的本质是针对用户的输入,计算后续字符的“语言概率”:
大模型既不存储答案(人类的知识),也不知道什么叫“正确”——它只是一台“计算器”而已。
也就是说,“幻觉”对大模型来说,是不可避免的!
不过,我们确实可以通过一些方法,降低大模型的“幻觉率”,提高输出的准确性。
第一,喂资料
在提问时,向大模型上传附件资料。
这样,大模型在回答你的问题时,就会先检索-->再根据检索结果进行组织、提炼、整合,形成一个回复。
——这套流程就是很多人听说过的RAG:
RAG最大的好处,是解决了大模型因为“不知道”而造成的“幻觉”问题。
但是,由于大模型“生成式”的工作方式,即便是RAG(提供资料),也不能杜绝“幻觉”现象,只能“减少幻觉”。
(本文只讨论基于我们上传资料提高准确性的情况)
第二,提示词
提示词,首先是要表述清晰、详细。
有很多时候,我们自己没有把问题想清楚、只有一个朦胧的方向,或者提问时偷懒,比较简短、语焉不详、很多细节没交待清楚,会导致大模型的输出似是而非、空洞无物。
如何“问清楚”,可参考以下提示词框架:
这里只说一个我看到的研究数据:使用大模型的高手,平均每个问题提示词字数为70~80字。
据我所知,大多数老师、在大多数场景下,提示词的数量连一半都到不了!
因此,以前你绞尽脑汁的是:文章该怎么写,现在则需要在“该怎么写提示词”上多下功夫了!
——事实上,学习写好“提示词”,是用好大模型最重要的工作(没有之一)!
也许有人觉得写提示词没什么技术含量,其实不然!提示词的水深得很,真正想写好,是很不容易的——不仅需要态度上重视(需要花精力琢磨)、需要一定的文字表达能力、更需要有较高的认知能力(这才是提高大模型应用能力的真正难点)。
不过,即便提问质量高了、资料也喂够了,能不能保证大模型输出准确呢?
——仍然不能!前面说的那条结论,仍然成立!
不过,王珏老师在长期摸索的过程中,却发现了一个提示词的写法,“似乎”能极大地提高准确性!
我至少尝试过两次,对于上万字的原始资料、输出2000~3000字的文档,经人工逐个核对,每一个事实、观点、数据,都能做到准确无误。





京公网安备 11011402013531号