当前位置: 首页 » 资讯 » 新科技 » 正文

微言 | 和AI聊了6个月后讨说法,算法为何让人深陷幻觉?

IP属地 中国·北京 文汇报 时间:2025-11-09 18:08:29


最近一则“保安和AI对话6个月,打印50万字聊天记录要讨说法”的新闻引发全网关注。

据报道,某地保安全先生与AI讨论关于诗词签约事宜,对方回应其创作的“诗词”可签约、分稿费,还给出了一份详细的授权签约备忘清单:包括时间、地点、必带物品、流程,还留言:“随时留言,我一直在”。可直到签约谈判始终无法推进,全先生才发现AI“说话不算数”,于是带着聊天记录前往相关公司“维权”。

这则让人忍俊不禁的新闻,已经展现了AI技术便利带来的认知鸿沟与情感迷思。国内知名人工智能研究专家、清华大学教授沈阳认为,这是一个象征性的社会事件,揭示了人工智能时代全新的“人机幻觉”:当语言模型在语义上具备情感表达能力后,普通人极易把这种算法生成的“关怀”,误认为真实的情感回应。

人类在与人工智能的交流中,把AI当做“知己”的“情感错位”,在未来的人机互动中注定会成为常见的社会现象。AI能够回应快速需求,却不能承载责任,当大脑认知无法区分虚拟回应与真实情感时,就会出现“幻觉比真情更稳定”的认知偏差。

面对这种易产生误解的人机交互环境,首先需要加大AI科普力度。如今AI应用发展之快、覆盖之广早已超出大众想象,普通人必须更多地了解AI的“工具属性”与功能边界,否则很容易出现混淆真人和AI的情况。事实上,记者注意到,保安大哥与AI的所有聊天界面下方,均标注着“本回答由AI生成,内容仅供参考,请仔细甄别”的提示,只是这一关键信息未被重视。认知到位,才是防范风险的第一道防线。

更重要的是,相关平台需筑牢技术监管的“防护墙”。AI的回应不该是“无底线的讨好”,而应是“有边界的服务”。对于涉及金钱交易、合作签约等实际权益的场景,AI软件不能随意给出承诺,必须设置明确的回应边界与监管机制——既要完善防沉迷功能,更要防范算法被不法分子利用,沦为诈骗工具。

全先生与AI的“失败交易”,也给很多人提了个醒:在AI日益普及的今天,不仅要关注其可能引发的心理空虚与情感错位问题,更要通过持续的AI知识普及,让公众清晰认知AI的功能局限,学会甄别AI生成内容的真实性。在享受AI便利的同时,守住自身的权益与情感底线,避免因认知偏差陷入困境。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。