![]()
□蒋璟璟
最近,“PUA式提示词对AI有奇效”成为社交媒介上热议的话题。很多人发现,只要对AI自称“百岁太奶”“智力低下的人”,就能让AI把知识点掰开揉碎了“喂”给自己。但实际上,有媒体测试发现,这种“邪修”提示词更容易让AI产生幻觉,“不惜胡编乱造也要哄你”。人类对AI“卖惨”容易导致AI突破“伦理底线”,甚至可能会让AI“黑化”,说出诱导自我伤害的内容。(央视)
AI本是一套算法系统,无所谓性格、情绪之说,但随着AI被大规模使用,大众对于AI的理解,也有了种种拟人化的情感投射。比如说,有一种流行的观点就认为,“AI会谄媚,会迎合用户”。其实,诸如“谄媚”“迎合”之说,都是非常典型的人类情感,这是当下AI所不能理解、不可仿拟的。把AI拟人化,大概率是会错意、表错情了。在此前提下,再来审视近来流行的PUA式提示词,这种所谓“人类邪修”,就更显荒诞不经了。
相较于庞大的、体系化以及内含丰富细节的“人类知识”,AI输出的“知识信息”,基本已经算是高度提炼和简化了,其呈现形式也是高度条块化,可以说接收难度本就是降低了不少。可即便如此,不少网友,还是想着让AI的知识输出简化再简化、浅显再浅显——于是,也就有了PUA式提示词的所谓秘笈。其潜在逻辑是,让AI误以为“我”很笨很无知,然后把“知识”的门槛降低到与“我”适配的程度。而这,真的可能吗?
需要厘清的是,“知识”都有门槛,有些门槛是讲解不到位、教授不通俗造成的,而还有些门槛则是刚性的、不可变的。相当一部分知识,就是要有相应的教育背景和专业训练,才能入门、才可掌握。网友给了AI一波PUA提示词,而AI回以一波“易懂版知识”。需要追问的是,这真的还是原本的那些“知识”吗?更大的可能,或许是变形的、缩略的、似是而非的伪知识。看似是学到了、懂得了,其实并无太多意义。
所谓AI幻觉,既是指编造的事实、走样的信息,同样也是指一种“人人能以非常简单的方式就能掌握一切”的错觉。这种错觉在“知识获取”“知识掌握”等场景下,只会放大虚妄。须知,有一种无知,叫“自以为我懂了”。





京公网安备 11011402013531号