当前位置: 首页 » 资讯 » 新科技 » 正文

研究称OpenAI、xAI等主要AI公司安全措施不及格,远不及全球标准

IP属地 中国·北京 IT之家 时间:2025-12-03 20:15:23

IT之家 12 月 3 日消息,据路透社报道,“未来生命研究所”今天发布了最新 AI 安全指数,指向 Anthropic、OpenAI、xAI 和 meta 等主要 AI 公司的安全措施“远未达到新兴的全球标准”。

机构指出,独立专家的评估显示,各企业一心追逐超级智能,却没有建立能真正管控这一类高阶系统的可靠方案。


在多起自杀和自残事件被追溯到 AI 聊天机器人后,社会对具备推理与逻辑能力且可能超越人类的系统带来的冲击愈发担忧,这项研究正是在这样的背景下公布。

Future of Life Institute 主席、MIT 教授 Max Tegmark 说,外界对 AI 协助黑客入侵、以及把人推向心理失控和自残的事件议论不断,美国的 AI 企业却依然比餐馆还少受监管,并持续游说抵制强制性的安全规范。

与此同时,AI 竞赛持续升温,主要科技企业正为机器学习技术的扩展和升级投入数千亿美元。

IT之家从报道中获悉,“未来生命研究所”是一家非营利机构,长期呼吁关注智能机器对人类潜在的威胁,机构成立于 2014 年,早期曾获得特斯拉 CEO 马斯克的支持。

今年 10 月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能的研发,直至公众提出明确诉求且科研界找到确保安全的路径。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新