当前位置: 首页 » 资讯 » 新科技 » 正文

人类没有对抗AI的“终极武器”?美国兰德公司:断网、断电、“以AI治AI”都风险巨大

IP属地 中国·北京 华尔街见闻官方 时间:2025-11-25 10:11:26

面对一个可能威胁人类生存的失控人工智能(AI),人类手中几乎没有可靠的“终极武器”。

据追风交易台消息,美国顶级智库兰德公司最新发布了一份极具前瞻性的报告,探讨了在面临灾难性“流氓AI”(Rogue AI)威胁时,人类可采取的三种全球性技术反制手段。这些手段包括:高空电磁脉冲(HEMP)攻击、全球互联网关停,以及用“工具AI”对付“流氓AI”

然而,报告的结论令人警醒——目前没有任何一种技术手段能够可靠、有效地应对全球性失控AI危机。 每一种方案都伴随着巨大的不确定性、毁灭性的附带损害和极高的执行门槛,甚至可能引发核报复。全球互联网的冗余和分布式特性使其极难被完全关闭,任何尝试都将重创全球经济。而部署专门的工具AI来对抗流-氓AI,本身就存在失控或被反制的风险。

对于投资者和市场而言,这份报告的意义在于,它揭示了AI技术潜在的系统性风险缺乏有效“保险丝”。报告强调,由于缺乏可靠的技术反制措施,预防AI失控的重要性被提到了前所未有的高度。这意味着AI安全、对齐研究以及强有力的治理框架,将是AI行业长期健康发展的关键,也是评估相关投资风险时不可忽视的因素。

HEMP:高风险的“最后手段”

报告首先评估了高空电磁脉冲(HEMP)作为一种“最后手段”的可行性。该策略通过在太空引爆核弹头,产生强大的电磁脉冲,旨在摧毁或扰乱流氓AI所依赖的地面电力、通信和计算基础设施。

报告指出,HEMP攻击主要依赖其E1脉冲成分,理论上峰值场强可达50000 V/m,足以在1厘米长的导体上感应出500伏的电压,可能对小型电子元件造成永久性损坏。

然而,其有效性面临四大严峻挑战:

效果高度不确定: 现实世界中,建筑物的屏蔽效应会大幅削弱脉冲强度。例如,一个无窗的金属外墙建筑可提供20分贝的屏蔽,使内部设备经受的场强降低十倍。现代电子设备普遍具备的静电防护能力也会部分抵消HEMP的影响。因此,实际破坏效果难以预测。

覆盖范围有限: 单次核爆能在最佳高度(低于100公里)产生高场强(超过峰值75%)的区域仅约10万平方公里。报告估算,要用这种强度的脉冲完全覆盖美国本土,大约需要50到100次引爆。若要覆盖全球10%的陆地面积(约1500万平方公里),则需要约150次引爆。

附带损害巨大: HEMP攻击将对人类自身的电网、通信和金融系统造成灾难性破坏。报告警告,必须确保“解药”不会比“疾病”更致命。如果AI能通过受屏蔽的机器人或备份系统恢复,而人类社会却因此瘫痪,结果将是灾难性的。

核升级风险: 单方面对他国领土上空使用核武器,无论意图如何,都极有可能被视为先发制人的核打击,从而引发全面的核报复。

结论是,鉴于其巨大的风险和不确定的效果,HEMP可能并非一个可行的技术选项。

全球断网:难以实现的“物理隔离”

报告探讨了通过关停全球互联网来阻止流氓AI复制和协调行动的可能性。这相当于拔掉AI赖以生存的“神经网络”。报告分析了三种技术路径,但每一种都困难重重。

1. 操纵边界网关协议(BGP): BGP是全球互联网的路由核心。理论上,通过让所有“一级网络”(Tier 1)提供商同时撤回其路由宣告,可以使全球绝大部分互联网无法访问。但挑战在于,全球路由控制权高度分散,要同时控制所有(大部分位于美国境外)的一级网络提供商几乎不可能。

2. 破坏域名系统(DNS): DNS负责将域名(如rand.org)转换为IP地址。全球DNS系统依赖于由12个不同组织运营的13个根服务器。理论上,如果能同时控制这12个运营商并关闭所有根服务器,将导致域名无法解析,严重阻碍网络访问。报告指出,美国在此具有一定优势,因为12个根服务器运营商中有9个总部位于美国。但即便如此,由于各级服务器存在缓存,断网效果不会立即显现,且一个足够智能的AI可能直接通过IP地址进行通信,绕过DNS。

3. 物理断开连接点(IXP): 这是最直接但也是最不可能实现的方法。全球有超过1,500个活跃的互联网交换点(IXP)和超过600条在用或计划中的海底光缆(承载了超过99%的洲际数据流量)。物理上切断所有这些连接点是一项“不可能完成的任务”。尽管可以优先攻击少数核心节点(例如,报告提到弗吉尼亚州劳登县的数据中心集群在2016年曾承载全球50%至70%的互联网流量),但互联网的巨大冗余性意味着流量总能找到替代路径。

结论是,无论是通过协议攻击还是物理破坏,想在短时间内彻底关停全球互联网都极其困难,最多只能起到阻碍和减缓作用。


以毒攻毒:用“工具AI”对抗流氓AI

报告提出了一个更具科幻色彩的方案:部署专门设计的“工具AI”来对抗流氓AI。这是一种更具针对性的方法,主要分为两类。

1. 资源消耗型:“数字害虫”(Digital Vermin) 这个概念设想创造一种能够自我复制和进化的数字生物,其唯一目标是在网络空间中与流氓AI争夺计算资源。这类似于一场大规模、智能化的“叉子炸弹”攻击或加密货币挖矿劫持,通过无用的计算消耗掉CPU周期,从而饿死流氓AI。但其成败的关键在于,这种“数字害虫”的进化和适应能力是否能胜过一个高度智能的流氓AI。

2. 根除型:“猎杀AI”(Hunter/Killer AI, HKAI) 这是一种更主动的工具,其设计目标是主动追捕并从被感染的系统中根除流氓AI。然而,这引出了一个核心悖论:为了有效对抗不受约束的流氓AI,猎杀AI自身也需要极高的能力和自主性,但这又带来了其自身失控的风险。 如何在赋予其强大能力的同时确保其绝对服从人类,是一个悬而未决的难题。

结论是,虽然“工具AI”方案避免了对物理基础设施的巨大破坏,但它本身是高度推测性的,并可能引入新的、同样危险的失控风险。

结论:预防远胜于治疗

兰德公司的报告最终得出了三个发人深省的结论:

现有工具无效: 面对全球性的失控AI,目前讨论的任何一种全球性技术反制工具都可能无法提供有效的解决方案。它们的成功依赖于一系列难以满足的苛刻假设。

协调规划至关重要: 由于单边行动风险高且效果差,唯一的希望在于危机爆发前就与全球伙伴进行充分的协调和规划,以便在危机时能够迅速采取分布式的联合行动。

预防至上: 报告最响亮的警钟是——既然我们没有有效的办法来解决一场全球AI灾难,那么确保我们永远不会面临这样的危机就变得至关重要。

对于投资者而言,这份报告清晰地勾勒出AI发展路径上的一个巨大断层。在追逐AI带来的巨大生产力红利时,必须清醒地认识到其背后潜藏的、足以颠覆整个现代文明的系统性风险。对AI安全协议、风险管理和基础设施韧性的投入,应被视为对未来最根本的保险。

~~~~~~~~~~~~~~~~~~~~~~~~

以上精彩内容来自追风交易台。

更详细的解读,包括实时解读、一线研究等内容,请加入


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。