据美联社报道,当地时间9月11日,美国联邦贸易委员会(FTC)宣布已对多家社交媒体和人工智能公司展开调查,关注其AI聊天机器人可能对儿童和青少年造成的负面影响。
FTC表示,已向谷歌母公司 Alphabet、Facebook 及 Instagram 母公司 meta Platforms、Snap、Character Technologies Inc.(Character.Al的开发商)、ChatGPT 制造商 OpenAI 以及 xAI 发出函件。希望了解这些公司是否已采取措施评估其聊天机器人作为伴侣时的安全性,以限制儿童和青少年的使用这些产品及其潜在的负面影响,并向用户和家长通报与聊天机器人相关的风险。
FTC宣布展开调查行动后,meta 拒绝对调查发表评论,Alphabet、Snap、OpenAI 和 xAI 也尚未立即回应置评请求。
Character.AI 表示,期待与 FTC 就此次调查展开合作,并为消费者人工智能行业及其快速发展的技术领域提供专业见解。公司强调:“作为初创企业,我们在信任与安全领域投入了大量资源。过去一年间,我们推出了多项实质性安全功能,包括全新的未成年人专属体验模式和家长洞察功能。所有聊天界面均设有醒目标注,提醒用户:虚拟角色并非真实人物,其所有言论均应视为虚构内容。”
本月初,OpenAI 和 meta 宣布已对其聊天机器人在青少年提出自杀问题或表现出精神和情绪痛苦迹象时的反应方式进行了调整。
OpenAI 表示,正在推出新的控制措施,使父母能够将他们的账户与青少年的账户连接起来。根据该公司的一篇博客文章,父母可以选择禁用一些功能,并在系统检测到他们的孩子处于极度痛苦时收到通知。相关调整预计将在今年秋季生效。
meta指出,当前正在阻止其聊天机器人与青少年谈论自残、自杀、饮食失调和不恰当的恋爱对话,并引导他们访问专业资源,也已经在青少年账户上提供了家长控制功能。