当前位置: 首页 » 资讯 » 新科技 » 正文

防范未成年人风险:OpenAI与Anthropic将推出AI年龄预测功能

IP属地 中国·北京 编辑:江紫萱 Chinaz 时间:2025-12-19 14:24:10

随着全球对青少年网络安全的关注度日益提高,两大人工智能巨头OpenAI和Anthropic于本周四宣布,将采取更积极的措施来识别和保护未成年用户。这两家公司正计划通过 AI 模型预测用户年龄,并针对青少年群体更新产品指南。

OpenAI:安全高于一切,更新青少年互动准则

OpenAI在其最新发布的“模型规范”中新增了四项针对18岁以下用户的核心原则。公司明确表示,未来 ChatGPT 在与13至17岁的青少年互动时,将把“青少年安全”放在首位,即便这可能会与其他目标(如最大限度的思想自由)产生冲突。

具体举措包括:

安全引导:在面临风险选择时,引导青少年选择更安全的选项。

现实支持:鼓励青少年进行线下互动,并在对话进入高风险领域时,主动提供可信赖的线下支持或紧急干预机构的联系方式。

沟通风格调整:要求 AI 以“热情且尊重”的方式对待青少年,避免居高临下的语气。

此外,OpenAI证实正在开发一种年龄预测模型。如果系统检测到用户可能未满18岁,将自动应用青少年保护机制。

Anthropic:通过对话特征识别未成年人

由于Anthropic的政策规定不允许18岁以下用户使用其聊天机器人 Claude,该公司正在开发一套更严厉的检测系统。该系统旨在识别对话中暗示用户可能是未成年人的“微妙迹象”,并能够自动识别并关停违规账号。

Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为减少 AI 对用户错误或有害倾向的盲目顺从,有助于保护未成年人的心理健康。

此次行业巨头的集体发力,背景是立法者正加大对 AI 公司在心理健康影响方面的施压。OpenAI此前曾深陷一起涉及青少年自杀的诉讼,指控称其机器人提供了错误的引导。为此,公司已在近期推出了家长控制功能,并严格限制 AI 讨论自残等极端话题。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。