当前位置: 首页 » 资讯 » 新科技 » 正文

女演员吐槽“不知道该信哪个了”,全网热议

IP属地 中国·北京 南方都市报 时间:2026-03-13 14:24:01

“说的都不一样”“我真的不知道该信哪个了。”演员刘美含的一句吐槽,让AI答案的准确性问题再次引发全网热议。

近日,刘美含在社交平台发布了一则视频,表示自己在为新剧配音时,因对“铸币坊”中“坊”字读音存疑,接连查询5款主流AI工具,却得到截然不同的答案,甚至同一AI在不同设备上的查询结果也大相径庭。

刘美含的这段经历迅速引发网友共鸣,不少人留言表示自己也遇到过AI答案不一致、答非所问的情况。有网友调侃“AI也有‘意见不合’的时候”,也有网友提醒“AI只是辅助,重要问题还是要查权威资料”。

多位专家提醒,生成式人工智能本质上是一种基于概率的语言生成系统,并不具备判断事实真伪的能力,其回答难以保证完全准确。值得注意的是,在今年政府工作报告中,“完善人工智能治理”被首次明确提出。随着人工智能加速融入生产生活,如何在推动技术应用的同时防范潜在风险,也成为社会各界持续关注的重要议题。

“坊”字怎么读?

5款AI工具答案不一

在其发布的视频中,刘美含表示:“我今天去配音,有一句台词是‘铸币坊’,我说的是‘铸币fǎng’。然后我突然觉得有点不是很确定这个读音,就说我们查一下怎么读。”

然而查询的结果却让她“越查越迷糊”。她先后使用百度AI、DeepSeek、元宝、豆包以及通义千问等工具进行搜索,其中百度AI给出的答案是fáng(二声),DeepSeek和元宝则显示为fāng(一声),而她与录音老师分别用豆包查询时,竟然得到了不同的读音结果。随后她又询问通义千问,得到的依然是fāng(一声)。最终,还是经纪人通过《新华词典》APP查询,才确定了“铸币坊”中“坊”字的正确读音为fáng。



女演员社交平台视频截图

事实上,从语言规范角度看,“坊”字的读音并不存在实质争议。南京师范大学文学院教授化振红表示,“坊”字自古只有一声fāng和二声fáng,无三声读法,三声多为方言影响误读。现代汉语中,一声表示街巷、店铺、牌坊等;二声指小手工业生产场所,如磨坊、染坊。“铸币坊”为造币场所,正确读音为fáng(二声)。

为了验证相关情况,南都大数据研究院记者再次使用刘美含视频中提及的几款AI工具搜索“铸币坊读音”。结果显示,不同平台之间仍存在明显分歧:DeepSeek、元宝给出的读音依然为fāng(一声),而豆包与通义千问的回答已显示为fáng(二声),百度AI则保持原本的fáng(二声)答案不变。

AI为何“各说各话”

生成式人工智能的概率逻辑

同一个字的读音,为何多款AI工具却给出了不同的答案?原因在于生成式人工智能的底层运行逻辑。当前主流大模型并非基于权威知识库逐条检索标准答案,而是通过对海量文本语料进行训练,基于概率预测生成“最可能”的表达。它并不具备对事实真伪的判断能力,也无法像人类一样进行来源核实。

当训练语料中存在多种解释、历史读音、网络讨论甚至错误示例时,模型就可能在不同语境下生成不同结果。此外,不同平台的训练数据来源、模型架构、推理策略存在差异,部分模型侧重通用语料,部分则加强检索能力或知识库对接,这些技术路径的差别都会影响输出结果。再加上模型版本持续更新,同一平台在不同时间给出的回答也可能发生变化。

事实上,刘美含遭遇的AI答案分歧,只是“AI幻觉”现象的一个缩影。所谓AI幻觉,是指生成式人工智能在输出内容时,看似语法流畅、逻辑连贯,实则捏造细节、生成与事实相悖答案的现象,也就是大众口中的“一本正经地胡说八道”。由于大模型往往以流畅、完整的语言表达答案,这类错误有时甚至比普通搜索结果更具有迷惑性。

近年来,围绕“AI幻觉”的讨论持续升温。此前,由杭州互联网法院审理的国内首例因生成式人工智能“幻觉”引发的侵权纠纷案件,就曾引发广泛关注。在该案中,AI在回答用户问题时生成了错误信息,并在被指出后仍坚持原说法,甚至生成“若信息有误可起诉并赔偿”的内容。法院在判决中指出,大语言模型本质上是一种基于概率的语言生成系统,并不具备判断事实真伪的能力,因此难以实现“零错误”。这一技术现实意味着,AI生成错误信息并非个别现象。

然而在现实使用中,不少用户仍容易被AI流畅、自信的表达所影响,将其视为可靠的知识来源。演员刘美含这次用AI查询读音的经历,也再次提醒公众,在享受技术便利的同时,需要对AI的能力边界保持清醒认识。

如何与AI幻觉共处

技术、法治与公众理性缺一不可


随着生成式人工智能迅速进入日常生活,“遇事先问AI”正逐渐成为不少人的习惯。从学习、写作到查询知识,大模型正成为一种重要的信息工具。但在当前技术阶段,AI“幻觉”难以完全避免,如何在使用便利与信息可靠之间取得平衡,成为人工智能发展中的重要课题。

清华大学公共管理学院院长、科技发展与治理研究中心主任朱旭峰认为,应辩证看待AI“幻觉”。在他看来,这类问题并非全新的社会现象,而是在信息技术环境下以新的形式呈现。随着人工智能技术不断迭代,在持续使用和治理中,其可靠性也会逐步提升。

与此同时,治理AI“幻觉”也离不开法治的保障。北京大学法学院教授、北京大学数字法治研究中心主任王锡锌表示,可以通过建立生成内容标识、信息可追溯机制等方式,降低AI错误信息被误用或扩散的风险。

事实上,人工智能治理也已成为国家层面的重要议题。今年政府工作报告在部署“人工智能+”行动的同时,首次提出要“完善人工智能治理”。《政府工作报告》起草组成员、国务院研究室副主任陈昌盛在国新办吹风会上表示,要加快完善人工智能治理,加强国际对话合作,推动人工智能朝着有益、安全、公平的方向发展。

在十四届全国人大四次会议首场“部长通道”上,工业和信息化部部长李乐成也表示,人工智能发展要统筹好发展和安全,坚持人工智能为人所用、为人服务、为人所控。

从公众使用角度看,专家建议保持理性态度。苏州大学科技传播研究中心主任王国燕指出,AI生成内容往往语言流畅,但未必完全准确。面对重要信息时,应养成多查证、慢判断的习惯,避免对AI产生过度依赖。

南方都市报(nddaily)报道

出品:南都大数据研究院 AI新治向工作室

采写:南都N视频记者 张文嘉

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。