在315晚会上名声大噪的力擎GEO优化系统,揭示了当下的一个产业链,就是通过大量生产软文,以让大模型的搜索工具传播他们的商业内容。
揭示视频显示,在投入几十篇某产品的软文后,大模型就正儿八经地介绍起这款产品了。要不说3.15晚会的影响还是大,这则视频一播完,网上就出现了海量关于GEO的文章,其中不少更是拔高到了“大模型遭投毒”的层面。
话题是个好话题,但在我看来,一些讨论多少有点杞人忧天了。
01 大模型并不追求高度“准确性”
不要说问大模型关于产品的问题,你就是问他1+1=几,他都不一定能答对。
很多各种普通人一眼就能答对的问题,大模型都是做不好的。
比如,你让他写一篇三千字的文章,他要么写出来是2000字,要么是5000字,他连个数字数都干不好。
大模型的底层逻辑是一个猜字游戏。
他通过上文来预测下一个字是什么,是一个通过概率预测而产生的人工智能工具。
大模型首先是服务于询问者。
你给他一篇文章,让他批评,他能把这篇文章批成屎。
你同样给他一篇文章,让他赞美,他也能把这篇文章夸成花。
他是一个满足你需求的工具,而不是一个提供高度确定度内容的搜索引擎。
结合搜索,能够让大模型拿到了一些即时的知识,根据这些知识,他可以给出尽可能符合你要求的内容,但生成式AI永远不可能追求高度的准确性。
因为这种产品的开发,就不是为了准确性而来的。
大模型的核心能力,是模仿,是通过无数个人类产出的文章、图片、电影这种结果,倒过来推测人类要什么,从而为你输出尽可能接近你要的。
你要说文字大模型不准确,那图片会准确吗?音频会准确吗?视频会准确吗?
都不准确。
在这一领域,有一个名词叫抽卡率,也就是说,生产的结果是随机的,需要人们参与判断是否正确。
当然,越优秀的大模型,抽卡率越低,越容易达到你想要的。
使用大模型,也有固有的方法,比如提示词工具。
你若想要得到一个产品的正确评测,你可以要求他,搜索国内知名媒体评测过的,企业是国内知名品牌,加上这些约束条件,那么,它输出的结果就是相对有确定性的。
02 大模型会让人上当吗?
那有没有人,把大模型的输出结果当成真理呢?
有,不仅有,还很流行。
很多人看到一篇文章,就扔到大模型里,分析一下这篇文章错在哪?如你所愿,如果你这么问,天底下所有的文章都是错的。
因为你要它总结错误,他就一定要服从于你,通过猜测下一个字的方式,给你一个完全与问题能结合在一起的文字猜测汇总,它不是思想,也不是意思,而是在猜测你的意图。
只要玩过大模型的人都知道,大模型有幻觉,会胡说八道。
一定有人会上当,那就是科盲嘛,或者是对大模型一无所知的人。
这对大模型厂商倒是提了一个醒,你们在输出任何结果时,都要将那一段提示说的更明白一点,注明,这玩意的真假,需要你自己判断。
否则,以后真会有人拿着AI去给自己看病,然后把自己给治死了,最后找到AI厂家来让你赔偿。
有一些巨婴说,我既然问了你,你就要回答准确,这就无比荒唐了。
大模型会说,如果你追求这种准确性,不好意思,不要用我们家产品,哪家公司产品也保证不了,这是这些产品的技术特性决定的。
因此,一定会有少数对大模型不了解的人,被输出的内容骗,甚至被误导做出错误决策。
03 不轻信大模型,才是应对之道
请注意,不是大模型在骗你,而是大模型的技术条件决定了只能这么输出。
而且大模型提示你了,这是AI生产的,你自己判定真假。
如果你相信这些信息受骗了,受损了,不好意思,是你自己的责任。你可以在网上吐槽,可以汲取教训,可以下次选择不那么轻信。
这是信息时代,人们必然要习惯的一种社会形态。
每一天,人类生产的信息量都是海量的,这其中有大量的虚假信息,没有人能保证你天天拿到的就是真信息,没有互联网时,假信息一样很多。
被骗了,需要的是自己改变,而不是去要求国家管一管大模型。
相反,如果不少人因为轻信大模型内容出现了损失,这种传播会形成一个好的社会效应,那就是警示所有人,不要轻信大模型。
这才是一个正常社会中,所有人必须有的心态。
从这件事上,我们也能发现,这也不是大模型编的信息,而是各种网络平台本身就可以随意发布信息,这些信息被大模型搜索到了,他不过是呈现给你罢了。
04 “投毒”这顶帽子,大模型戴不起
所谓大模型被“投毒”,听起来挺吓人,仿佛有人拿着针管往AI的脑子里灌脏东西。可问题是,大模型有脑子吗?它连我是谁都搞不清楚,你跟它讲投毒?这就有点欺负老实人了。
我们得搞清楚一个基本事实:大模型不生产信息,它只是信息的搬运工。你问它某款产品怎么样,它会去全网搜一圈,然后把你最可能想看的那种答案拼出来。如果全网都是软文,那它拼出来的自然就是一篇软文合集。这不是大模型被投毒了,而是互联网本身早就被泡在毒水里了。
软文产业链存在多少年了?早在大模型还是个学术名词的时候,那些优化公司就在干同样的事:批量生产内容、操纵搜索引擎排名、让虚假信息占据前排。搜索引擎当年管不住,现在大模型就能管住?这要求,是不是有点太高了?
更可笑的是,315晚会曝光的那个案例,用的还是子虚乌有的产品,也就是说,这产品压根不存在,只是造了几十篇软文,大模型就上当了。这只能说明大模型“傻”,却不能说明大模型被投了毒。换个角度想,如果你是个真人,搜了一圈发现某个产品全网都在夸,你会不会也信?真人都有可能上当的事,你让一个连字都不认识、只会猜概率的机器来负责,这公平吗?
说到底,大模型被“投毒”这个说法,本质上是把锅甩给了最无辜的那个环节。写软文的人不毒,发软文的平台不毒,唯独那个帮你把软文翻出来的AI成了毒源。这逻辑,多少有点立不住。
05 别指望AI替你长大成人
有人说了,那不行啊,AI现在这么普及,万一有人被误导了怎么办?万一有人用它查偏方,把自己治死了怎么办?万一有人用它做投资决策,亏得倾家荡产怎么办?
好,这些问题一个一个来。
被误导这事儿,是人类社会的常态。没有AI的时候,你妈转发的养生文章,你爸信的中医秘方,你二舅推荐的股票,哪一样不是误导?哪一样没人上过当?怎么以前被骗是你自己眼瞎,现在被骗就成了AI的锅?这不叫技术进步,这叫责任转移。
拿AI查偏方、查投资,这本身就是对自己不负责任。医生读了八年书,还得天天进修,你让一个聊天机器人给你开药方?华尔街那帮人精,用着几十万一台的彭博终端,还天天亏钱,你让AI帮你选股票?这不是AI的问题,这是用AI的人脑子不清醒。你拿菜刀切菜,它是个工具;你拿菜刀砍人,它就成了凶器。但责任在谁,用脚趾头都能想明白。
关于万一有人上当怎么办这个话术,我特别想反问一句:你是那个万一吗?如果你不是,那你操的什么心?如果你是,那你需要的不是整改AI,而是你自己多长个心眼。
人类社会从来不是靠杜绝一切风险运转的。互联网上每天产生几十亿条信息,假的比真的还多,你不也活着走出来了吗?你学会了分辨,学会了交叉验证,学会了看见“震惊”就拉黑。这些技能,不是某个机构教你的,是你自己摔跤摔出来的。
现在轮到AI了,同样的路,你得再走一遍。
315晚会曝光软文产业链,初衷是好的。那些靠批量生产垃圾信息、操纵搜索结果牟利的公司,确实是信息时代中难以避免的事情。但把矛头指向大模型,把问题包装成AI投毒,那就有点转移视线的意思了。
大模型是个工具,它不聪明,也不善良,它只是个会猜字的机器。你喂它什么,它吐什么;你问它什么,它顺着你的意思说。它不是你爹妈,也不是你老师,它没义务也没能力替你判断真假。
你要学会的是,别把它当真理,别把它当权威。用它查资料,自己再验证一遍;用它写文案,自己再改一遍。
社会进步,从来不是靠把坑填平,而是靠每个人学会绕坑走。AI时代也一样。
这世上最不缺的就是“毒”,有些人的心眼,倒是挺缺的。





京公网安备 11011402013531号