当前位置: 首页 » 资讯 » 新科技 » 正文

每周百万用户向ChatGPT倾诉自杀念头,OpenAI紧急升级GPT-5安全机制应对心理危机

IP属地 中国·北京 编辑:赵云飞 Chinaz 时间:2025-10-28 10:20:01

当AI成为数亿人深夜唯一的倾诉对象,它是否准备好承担这份沉重的信任?OpenAI近日披露了一组令人警醒的数据:每周有超过100万活跃用户在与ChatGPT的对话中表达自杀意图——这一数字占其8亿周活用户的0.15%,相当于每分钟就有近100人向AI袒露生死挣扎。此外,数十万用户在交互中显现出精神病性或躁狂症状,揭示出AI聊天机器人正意外成为全球规模最大的“非正式心理支持渠道”。

面对这一严峻现实,OpenAI正加速技术与政策双重应对。最新发布的GPT-5在心理健康对话中的表现显著提升:在专门针对自杀干预的评估中,其提供合规、安全回应的比例从旧版的77%跃升至91%,整体理想回应率提高65%。新模型不仅能识别高危信号,还能在长时间对话中持续激活安全协议,避免因上下文遗忘而给出危险建议。

然而,技术进步难掩伦理困境。OpenAI已面临多起诉讼,有家庭指控其孩子在向ChatGPT倾诉自杀想法后未获有效干预,最终酿成悲剧。加州与特拉华州检察长亦发函要求加强对青少年用户的保护。对此,公司计划部署AI驱动的年龄预测系统,自动识别未成年用户并启用更严格的内容过滤与危机响应机制。

尽管如此,OpenAI坦承,部分回应仍“不理想”,尤其在旧版模型广泛使用的情况下,风险持续存在。更深层的问题在于:当用户将AI视为情感出口,而AI本质上并无共情能力,这种错位的信任可能带来虚假安慰甚至误导。

这场危机暴露了生成式AI在社会角色上的模糊边界——它既是工具,又被当作倾听者;既无行医资质,却常被赋予“救命”期待。OpenAI的升级只是起点,真正的挑战在于:如何在不扼杀AI开放性的同时,构建一套负责任的危机干预体系?在技术狂奔的时代,守护人心,或许比优化参数更为紧迫。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。