![]()
![]()
当地时间3月9日,AI初创公司Anthropic一纸诉状将美国国防部告上加州联邦法院。不为别的,正是因为五角大楼给它贴了一个标签——“供应链风险”。
这个标签有多讽刺?在美国的政治语境里,这顶针对外国对手的“大帽子”,如今却扣在了一家美国本土AI公司头上。
根据这一认定,所有与五角大楼合作的国防承包商和供应商,必须证明其系统未使用Anthropic的AI模型。换句话说,这家公司被官方“封杀”了。
就在几个月前,Anthropic还是五角大楼的座上宾。去年夏天,双方签下了一份价值2亿美元的合同,使得Anthropic的Claude模型风光无限,成为唯一被批准接入国防部机密系统的AI“宠儿”。
然而,“热恋期”结束得比翻书还快。
上月底,五角大楼要求获得对Claude模型的“无限制访问权限”,用于所谓的“所有合法用途”,即包括开发自主武器系统或进行大规模监控。
而Anthropic声称有两条红线不可碰——不准用于完全自主武器、不准用于美国国内的大规模监控。
2月27日,双方谈判破裂。几小时后,美国总统特朗普直接下令所有联邦机构“立即停止”使用Anthropic的产品。五角大楼随即跟进,将这家初创公司打上“供应链风险”的标签。
具有讽刺意味的是,在禁令下达的次日,美国就对伊朗发动军事打击。据媒体透露,在这场行动中,美方使用的AI工具正是刚被“封杀”的Claude,该大模型在处理情报、模拟战况等环节发挥了关键作用。此前,针对委内瑞拉总统马杜罗官邸的突袭行动中,这位“AI参谋”也未曾缺席。
一边,白宫高调宣布“停用”;另一边,五角大楼在战场上却用得风生水起,言行颇显割裂。
回头看这次谈判破裂的症结,五角大楼的逻辑简单粗暴:你一个拿钱的供应商,有什么资格对美军的作战方式指手画脚?国防部官员放出狠话,称这家公司的CEO有“上帝情结”,想指挥美军。白宫发言人莉兹·休斯顿表态直接:总统绝不会允许一家“激进左翼、觉醒主义公司”来左右军队的运作方式。
更具戏剧性的是,Anthropic前脚刚被踢出局,OpenAI后脚就补了上来,爽快地接受了五角大楼的条款。这一“机会主义”的举动立刻引发外界强烈抵触,ChatGPT卸载量一夜暴增。
站在Anthropic的角度,这不仅是钱的事。比起官司输赢,外界更关注的是,当权力可以随意定义什么是“合法用途”、什么是“国家安全风险”时,所谓的科技伦理究竟能有多硬气?
这场诉讼,还至少撕开了三块遮羞布。
第一块是“企业底线”的遮羞布。Anthropic被踢出局,OpenAI火速补位,暴露了资本面对利益的现实逻辑。
第二块是“技术中立”的遮羞布。美国政府动用国家权力,将这些AI工具纳入自己的战略安排。这揭露了一个现实,当技术深度嵌入国家安全领域时,很难逃出被利用的圈套。
最后一块则指向规则的缺乏和紊乱。美国政府的做法,或使得AI军事化应用以肉眼可见的速度失控,并刺激全球AI军备竞赛进一步升级。
(编辑邮箱:ylq@jfdaily.com)
原标题:《快观察|一边封杀一边用,五角大楼被AI公司起诉,揭开了谁的遮羞布?》
栏目主编:杨立群 文字编辑:杨立群
作者:解放日报 徐晓语





京公网安备 11011402013531号