当前位置: 首页 » 资讯 » 新科技 » 正文

​多国预警 AI 语音诈骗:深度伪造让熟人声音也难辨真伪

IP属地 中国·北京 编辑:朱天宇 Chinaz 时间:2026-03-16 10:44:54

根据 Techradar 的最新研究报告,一种利用 AI 深度伪造(Deepfake)语音的新型诈骗正在全球范围内激增。一项针对美、英、加、法、德、西六国超过 1.2 万名消费者的调查显示,这种模拟熟人声音的来电已成为严重的社会威胁。

调查发现,约四分之一的美国受访者在过去一年内接到过此类 AI 伪造来电。更令人担忧的是,另有 24% 的人表示,自己根本无法从听感上区分电话里的声音究竟是真人还是人工智能。诈骗分子正利用低成本的生成式 AI 工具,将声音克隆技术“武器化”,专门冒充受害者的亲属或信任的联系人。

报告特别指出,这类诈骗对 55 岁以上的老年群体危害最大。由于该群体识别技术伪装的能力相对较弱,人均经济损失已达 1298 美元,是年轻受害者的三倍。目前,此类诈骗数量正以每年 16% 的复合增长率持续上升,形势不容乐观。

面对日益严峻的威胁,电信运营商的角色受到了广泛关注。多数受访者认为诈骗分子目前在技术较量中占据上风,并呼吁政府出台更严格的法规。安全专家强调,面对防御难度极高的 AI 语音克隆,不能仅靠个人识别,运营商必须加快部署“AI 盾牌”系统,利用技术手段过滤非法合成语音,以应对这场失控的“AI 军备竞赛”。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。