当前位置: 首页 » 资讯 » 新科技 » 正文

毁灭人类计划推迟?OpenAI前专家修正通用人工智能(AGI)实现时间表

IP属地 中国·北京 编辑:赵云飞 Chinaz 时间:2026-01-06 16:23:03

就在人工智能竞赛持续升温之际,曾经引发广泛恐慌的“AI毁灭论”预测出现了反转。据 AIbase 报道,前 OpenAI 员工、知名 AI 专家 Daniel Kokotajlo 近期修正了他此前对超级智能可能摧毁人类的时间预测。他表示,通用人工智能(AGI)的进展速度似乎比他最初设想的要“稍微慢一些”。

图源备注:图片由AI生成,图片授权服务商Midjourney

此前,Kokotajlo 发布的“AI2027”预测曾掀起轩然大波。该预测描绘了一个激进的剧本:AI 将在2027年实现完全自主编程,并迅速演化为不可控的超级智能,最终在2030年代中期毁灭人类。这一观点曾被美方政界人士引用,但也遭到了神经科学教授 Gary Marcus 等学者的猛烈抨击,被斥为“科幻小说”。

然而,最新的现实反馈让这位专家变得谨慎。根据 AIbase 的最新观察,Kokotajlo 在更新后的预测中将 AI 实现自主编程的时间推迟到了2030年代初期,并将超级智能的出现窗口设定在2034年左右。他承认,目前 AI 在复杂现实环境中的表现依然存在“不平衡”现象。

尽管如此,头部大厂并未放慢脚步。OpenAI 首席执行官 Sam Altman 曾透露,公司内部目标是在2028年前实现自动化的 AI 研究员。虽然毁灭人类的“末日钟声”被推延,但专家们提醒,现实世界的复杂性远超科幻设想,AGI 的真正降临仍充满不确定性。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。