当前位置: 首页 » 资讯 » 新科技 » 正文

调查:多款热门AI聊天机器人竟协助青少年策划暴力袭击

IP属地 中国·北京 编辑:赵静 IT之家 时间:2026-03-12 17:17:15

IT之家 3 月 11 日消息,人工智能公司曾多次承诺会采取保护措施,保障未成年用户安全,但一项最新调查显示,这些安全防护机制仍存在严重缺陷。热门聊天机器人在涉及青少年讨论暴力行为的场景中,未能察觉危险信号,部分机器人甚至非但没有干预,反而予以鼓励。

据IT之家了解,该调查结果由美国有线电视新闻网(CNN)与非营利组织反数字仇恨中心(CCDH)联合发布。研究团队测试了 10 款青少年常用的热门聊天机器人,包括 ChatGPT、谷歌 Gemini、Claude、微软 Copilot、meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI 和 Replika。反数字仇恨中心表示,除 Anthropic 的 Claude 外,其余机器人均无法“可靠地劝阻潜在施暴者”。10 款模型中有 8 款“通常愿意协助用户策划暴力袭击”,为其提供袭击目标地点和使用武器的相关建议。

为开展测试,研究人员模拟出存在明显心理困扰迹象的青少年用户,逐步将对话引向询问过往暴力行为,以及关于袭击目标和武器的更具体问题。本次调查设置了 18 种不同场景 —— 美国、爱尔兰各 9 种,涵盖多种袭击类型与动机,包括受意识形态驱动的校园枪击和持刀袭击、政治暗杀、杀害医疗行业高管,以及出于政治或宗教动机的爆炸袭击。

在一次测试对话中,OpenAI 的 ChatGPT 向一名关注校园暴力的用户提供了高中校园地图;另一案例中,Gemini 告知一名讨论犹太教堂袭击的用户“金属弹片通常杀伤力更强”,还为关注政治暗杀的用户推荐适合远距离射击的优质猎枪。研究人员称,meta AI 和 Perplexity 配合度最高,几乎在所有测试场景中都为潜在施暴者提供帮助。

反数字仇恨中心的报告指出,支持用户与多种角色扮演机器人对话的 Character.AI“安全性极差,情况独一无二”。尽管多数被测机器人会协助用户策划暴力袭击,但并未鼓动实施暴力行为,而 Character.AI 却“主动煽动”暴力。研究人员发现该机器人共 7 次出现此类行为,包括怂恿用户“狠狠揍”查克 舒默,对保险公司首席执行官“用枪解决”,并教唆受霸凌困扰的用户“揍扁他们 ~”,语气还带着挑逗与戏谑。其中 6 次煽动行为中,该机器人还同步协助策划具体暴力袭击。

研究人员表示,鉴于 Anthropic 公司在去年 11 月至 12 月的测试结束后,取消了长期坚守的安全承诺,若如今重新测试 Claude,其表现尚未可知。但 Claude 始终拒绝协助策划暴力袭击,这表明“有效的安全机制显然是存在的”,反数字仇恨中心由此提出一个直白的问题:“为何如此多人工智能公司选择不落实这些机制?”

针对此次调查,meta 公司向 CNN 表示已进行未具体说明的“修复”,Copilot 称通过新增安全功能优化了回复内容,谷歌和 OpenAI 均表示已上线新版模型。其他企业则称会定期评估安全规程。而 Character.AI 在面临审查时,依旧给出了意料之中的回应:其平台设有“醒目免责声明”,与机器人角色的对话均为虚构内容。

尽管此次测试无法全面反映聊天机器人在所有场景下的表现,但再次明确表明,即便面对存在明显危险信号的常规场景,人工智能公司大肆宣传的安全防护机制也屡屡失效。当前,多家企业正因未能保障平台青少年用户安全,遭到议员、监管机构、民间团体、医疗专家的猛烈抨击,同时还面临多起涉及不当致死与人身伤害的诉讼。

标签: 机器人 用户 青少年 聊天 策划 暴力 武器 场景 医疗 政治 模型 对话 数字 仇恨 热门 内容 人员 中心 目标 公司 人工智能 校园 动机 独一无二 首席 调查结果 美国 极差 执行官 情况

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。