IT之家 10 月 30 日消息,前 OpenAI 安全研究员史蒂文・阿德勒当地时间 10 月 28 日在《纽约时报》撰文批评前公司,称其在应对“AI 时代的心理健康危机”上力度不足,并受“竞争压力”影响而放松了对 AI 安全的重视。
此前,奥尔特曼宣称公司已凭借“新工具”缓解了严重的心理健康问题,并“很快允许”平台出现成人内容。对此,阿德勒提出批评:“基于我在 OpenAI 工作的四年经历以及去年离职后进行的独立研究,我对这些心理健康问题是否真正解决存在重大疑问。公众不应仅仅依赖公司口头承诺来相信安全问题已获解决,换句话说:(公司需要)拿出证据来证明这一点。”
阿德勒警告称,放开成人内容可能带来严重后果。“问题不在于内容本身,而在于用户对 AI 聊天机器人的强烈情感依赖显示出明显的预警信号。”
阿德勒回忆自己在 2021 年领导 OpenAI 的产品安全团队时写道:“对那些看似正在与心理健康问题挣扎的用户而言,情感或性互动的不稳定性尤其危险。”
阿德勒认为,OpenAI 关于心理健康问题普遍性的最新通报是个良好开端,但批评 OpenAI 在公布数据时没有将这些比率与过去数月的数据作比较。与其“快速推进并打破规则”,OpenAI 和同行更应“放慢脚步”,给全社会时间去开发新的安全方法,这些方法应当即便面对别有用心的组织也无法轻易规避。因此,若要让人们信任 OpenAI 及其竞争对手去打造他们所追求的颠覆性技术,相关企业就必须证明自己今天在风险管理方面是可信的。
据IT之家此前报道,OpenAI 在本周发布的公告中估计,相当比例的活跃 ChatGPT 用户显示出“可能与精神病或躁狂有关的心理健康紧急情况的迹象”。不仅如此,OpenAI 还发现更多用户的对话中包含“明确表明存在潜在自杀计划或意向的迹象”。





京公网安备 11011402013531号