环球网
11月3日消息,据《卫报》报道,OpenAI近日发布声明称,该公司已优化 ChatGPT,以更好地帮助有心理健康问题的用户,但专家表示,OpenAI需要做更多的工作才能真正确保这些用户得到保护。
![]()
OpenAI称,其与拥有丰富临床经验的心理健康专家合作,改进了ChatGPT,使其能够更好地识别困境,并在适当的时候引导人们寻求专业帮助。新模型将有关用户在自杀和自残话题下的违规回复减少了65%。
但《卫报》表示,尽管所谓的更新已经发布,但在与聊天机器人的多次互动中,有专家发现,模型有时未能识别出有问题的提示语。
专家强调,“没有任何保障措施可以取代人工监督。AI模型需要更强有力的、基于证据的安全保障,以及在用户存在自杀倾向时必须进行人工监督。”
此外,美国心理学会医疗保健创新办公室高级主管、持证心理学家 Vaile Wright 表示,“人们要记住 ChatGPT 等聊天机器人的局限性。他们知识渊博,这意味着他们可以处理大量数据和信息,并得出相对准确的答案,但他们做不到的是理解。”(思瀚)





京公网安备 11011402013531号