当前位置: 首页 » 资讯 » 新科技 » 正文

未发布先警告 OpenAI:新AI模型或构成高级别网络安全风险

IP属地 中国·北京 编辑:陈丽 凤凰网科技 时间:2025-12-11 10:09:17

OpenAI

北京时间12月11日,据路透社报道,OpenAI周三警告称,随着性能的快速提升,公司即将推出的新AI模型可能带来“高级别”网络安全风险。

OpenAI周三在博客文章中表示,这些AI模型可能会自行开发出可对防护严密的系统发动攻击的零日远程漏洞利用程序,或协助旨在产生现实影响的复杂企业或工业入侵行动。

OpenAI表示,随着模型性能的不断提升,公司正“投入资源强化模型在防御性网络安全任务中的能力,并开发工具帮助防御者更便捷地执行代码审计与漏洞修复等工作流程”。

为应对网络安全风险,OpenAI将依赖多种措施的组合,包括访问控制、基础设施强化、出口流量控制以及监测。OpenAI称,公司即将启动一项计划,探索为从事网络防御的合格用户和客户提供分级访问权限,以使用加强功能。

OpenAI还将成立名为“前沿风险委员会”的咨询小组,邀请经验丰富的网络防御专家与安全从业者与其团队开展紧密协作。该小组初期将聚焦网络安全领域,未来将逐步拓展至其他前沿能力领域。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅科技。想看深度报道,请微信搜索“科技”。

标签: 网络安全 风险 模型 高级别 漏洞 科技 凤凰网 基础设施 网络 现实 企业 客户 专家 远程 程序 用户 利用 合格 文章 博客 经验丰富 从业者 新闻 能力 防御性 公司 资源 访问控制 流量

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。