当地时间9月16日,美国人工智能企业OpenAI宣布,将为18岁以下用户推出带有家长控制功能的专用ChatGPT版本,并采用年龄验证技术限制18岁以下用户访问成人版平台。
▲资料图图源:图虫创意
ChatGPT推出青少年版,父母还可关联账户
OpenAI在声明中称,该公司正在研发新的工具,以识别用户是否年满18岁。当识别出用户未满18岁后,系统会自动引导其进入青少年版ChatGPT,该版本ChatGPT有特殊使用规则,包括屏蔽色情图片等。
另外,OpenAI还强调,如果系统无法确认用户的年龄,则默认用户使用青少年版ChatGPT,用户需要证明年龄超过18岁,才能解锁使用成年版ChatGPT。
未来,ChatGPT还将允许未成年用户的父母将自己的账户与孩子的账户关联起来,以实现更直接的控制。一旦账户关联,家长就可以管理ChatGPT的响应方式,并在系统检测到孩子处于极度痛苦时接收通知。另外,ChatGPT还将允许父母设置青少年不能使用ChatGPT的时间段。
但一个关键问题是,父母关联孩子的账户并非强制,而是通过父母发出邀请让孩子同意的方式。
OpenAI首席执行官奥尔特曼在最新博客文章中就上述决定写道:“我们将安全置于青少年的隐私和自由之上;这是一项新的强大技术,我们相信未成年人需要得到强有力的保护。”
▲9月4日,奥尔特曼参与在白宫举行的人工智能教育特别工作组会议
舆论注意到,此次OpenAI的声明是在美国国会即将举行一场审查人工智能聊天机器人潜在危害的听证会之前。
72%美国青少年使用AI机器人提供“陪伴”
近期,不断有新的研究对ChatGPT给青少年心理健康带来的风险提出警告,同时OpenAI还面临多项相关诉讼。这些警告和诉讼认为,ChatGPT存在鼓励青少年自杀或谋杀以及未能对不良内容进行及时干预的问题。
2024年曾有一名16岁的加州少年自杀身亡,他的父母起诉了OpenAI,声称该公司应对其儿子的死负责。佛罗里达州的一位母亲起诉了另一个人工智能机器人Character.AI,声称她14岁的儿子与这个聊天机器人产生了情感,导致他自杀。今年8月,一名29岁女孩的母亲在《纽约时报》上发表了一篇专栏文章,讲述了她的女儿请求ChatGPT帮她写遗书,虽然ChatGPT并没有鼓励该女子自杀,但也没有就其自杀倾向提出警告。
▲资料图图源:图虫创意
另外,还有报道称,一名56岁的男子在ChatGPT强化了他的偏执妄想后,杀死了自己的母亲并自杀。
今年7月,一项新的美国调查研究发现,近四分之三的美国青少年(72%)表示他们使用人工智能机器人提供“陪伴”,其中超过一半的被调查者表示每月至少使用几次,而80%拥有人工智能伴侣的用户表示,他们愿意花更多时间与现实朋友相处。
美国联邦贸易委员会已经在9月11日宣布对聊天机器人安全展开调查,要求OpenAI、meta、甲骨文等几家公司提供有关青少年和儿童使用聊天机器人产生负面影响的信息。
美国联邦贸易委员会认为,这些聊天机器人经常模仿人类的行为,这可能会导致年轻用户形成情感纽带,带来一定风险。与监管机构的措施相对应的是,美国人工智能企业越来越多地将“陪伴”功能作为聊天机器人服务的主要卖点。
红星新闻记者 范旭 实习记者 卿滢
编辑郭宇