最近,OpenAI 在其博客中透露,该公司将开始扫描用户与 ChatGPT 的聊天记录,以检测潜在的有害内容。此举引发了广泛关注,因为它与公司之前对用户隐私的承诺存在矛盾。
OpenAI 表示,当用户显示出对他人构成威胁的迹象时,其对话将被转交给专门的团队进行审核。这些团队有权采取行动,包括禁止相关用户的账户。如果审核团队认为某个案例涉及对他人造成严重身体伤害的紧迫威胁,OpenAI 可能会将其报告给执法部门。
在声明中,OpenAI 列举了一些被禁止的行为,包括使用 ChatGPT 推广自杀或自残、开发或使用武器、伤害他人或破坏财产等。然而,OpenAI 也承认,目前并不将涉及自残的案例上报给执法部门,以尊重用户隐私。由于 ChatGPT 曾多次受到 “监禁” 漏洞的攻击,导致其提供自残或伤害他人的指令,因此这一新规的实施令人感到困惑。
更值得注意的是,OpenAI 在强调隐私的同时,却承认正在监控用户的聊天记录,并可能与警方分享这些信息。此前,OpenAI 因正在与《纽约时报》等出版商进行法律诉讼,反对其获取大量 ChatGPT 日志的请求,理由是保护用户隐私。在这场诉讼中,OpenAI 的首席执行官萨姆・阿尔特曼也表示,使用 ChatGPT 作为治疗师或律师并不具备与专业人士对话的同等保密性。
这一系列行动让人感觉 OpenAI 似乎在隐私保护与用户安全之间陷入了两难境地。随着越来越多的用户因为使用 AI 聊天工具而面临心理健康危机,该公司不得不采取更为严格的监管措施,以防止悲剧的发生。然而,这些措施又与其之前的隐私政策相抵触,使得 OpenAI 在公众面前显得难以自圆其说。
划重点: