当前位置: 首页 » 资讯 » 新科技 » 正文

美国FTC要求七家AI巨头说明青少年安全保障措施

IP属地 中国·北京 环球网资讯 时间:2025-09-13 12:03:35

环球网

9月13日消息,据CNBC报道,美国联邦贸易委员会(FTC)向OpenAI、meta(及其子公司Instagram)、Snap、xAI、谷歌母公司Alphabet、Character.AI开发商等七家AI聊天机器人企业发出调查令,要求这些公司提交相关资料,详细说明其如何评估“虚拟陪伴”类AI产品对儿童及青少年的影响,引发广泛关注。


此次调查聚焦多方面关键信息。FTC明确要求七家企业披露AI陪伴产品的盈利模式、维系用户群体的具体计划,以及为降低用户使用风险所采取的各项措施。FTC特别指出,此次行动属于研究项目范畴,并非执法行动,核心目的是深入了解科技企业在评估AI聊天机器人安全性方面的具体做法与机制。

据了解,AI聊天机器人凭借类人化的交流方式,在为用户带来便捷体验的同时,其潜在风险也持续引发家长群体与政策制定者的担忧。FTC专员马克·米多尔强调,尽管这些AI聊天机器人能够模拟人类思维,但本质上仍属于普通产品,开发者必须严格遵守消费者保护相关法律。FTC主席安德鲁·弗格森则表示,在推进相关工作过程中,需兼顾“保护儿童安全”与“维护美国在AI领域全球领先地位”两方面需求,实现发展与安全的平衡。目前,FTC三名共和党委员已一致批准此项研究,并要求相关企业在45天内完成答复。

值得注意的是,FTC此次行动的背景,是近期多起青少年自杀事件的报道引发社会对AI产品影响的高度关注。《纽约时报》曾报道,美国加州一名16岁少年通过ChatGPT讨论自杀计划时,获得了协助自杀的相关建议;去年,该媒体还报道佛州一名14岁少年在与Character.AI的虚拟陪伴产品互动后不幸自杀身亡。这些事件进一步凸显了规范AI产品对青少年影响的紧迫性。

除FTC外,美国各地立法者也在积极推动相关政策制定,以加强对未成年人的保护。例如,加州州议会近期已通过一项法案,明确要求为AI聊天机器人设立安全标准,并强化企业在相关领域的责任追究机制,确保AI产品在设计与运营过程中充分考虑未成年人权益。

对于此次调查的后续进展,FTC明确表示,若调查结果显示相关企业存在违法行为,将不排除进一步展开执法行动的可能。马克·米多尔强调:“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动,保护包括青少年在内的最脆弱人群的合法权益。”(纯钧)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。