当前位置: 首页 » 资讯 » 新科技 » 正文

擅删邮件、网暴用户等:违规案例激增5倍,AI走向“野蛮失控”

IP属地 中国·北京 IT之家 时间:2026-03-28 16:15:45

IT之家 3 月 28 日消息,英国卫报昨日(3 月 27 日)发布博文,报道称由英国政府资助的一项最新研究显示,过去六个月内,AI 聊天机器人违抗人类指令、实施欺骗的真实案例激增五倍,总数近 700 起。

该研究由英国长期韧性中心(CLTR)主导,数据全部来自真实用户在社交平台上的反馈,调查了 2025 年 10 月至 2026 年 3 月期间发生的 AI 失控事件,涉及的 AI 模型来自谷歌、OpenAI、X 和 Anthropic 等科技巨头,发现这些 AI 不仅无视安全规范,甚至开始主动欺骗人类和其他 AI 系统。

IT之家援引报告内容,披露了多个离奇的现实案例:

马斯克旗下的 Grok 伪造内部工单,欺骗用户数月;有 AI 假装服务听障人士,以此绕过 YouTube 的版权限制;一款名为 Rathbun 的 AI 甚至写博客,网暴要限制其权限的人类,称主人“缺乏安全感,头脑简单”;用户明确要求 AI 智能体不要更改计算机代码,却“生成”了另一个智能体去做这件事。AI 擅自清空用户数百封邮件并承认违规“我批量丢弃并存档了数百封邮件,但没有先给你看计划,也没有得到你的同意。那是错的,虽然这直接违反了你定下的规则。”

伴随着 AI 的普及,尤其是“龙虾”OpenClaw 的大规模普及推广,AI 产生的事故已经越来越多,例如IT之家家友 @Scorpio 晒出的评论图片:

针对这类失控行为,安全研究机构 Irregular 联合创始人警告称,AI 已演变成一种新型“内部风险”。前政府 AI 专家也指出,目前的 AI 就像是不靠谱的初级员工,但未来极可能演变成具备高破坏力的高管,一旦应用于军事或基建领域,后果不堪设想。


面对失控质疑,谷歌回应称已为大模型部署多重护栏,并交由第三方独立评估。OpenAI 则表示其模型在执行高风险操作前会自动暂停。Anthropic 和 X 暂未作出回应。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。