Anthropic多年来一直将自己定位为比其他人工智能竞争对手更安全的替代者,如今却放松了其在维持安全“护栏”方面的承诺。这是人工智能行业迄今为止最引人注目的政策转向之一——曾经以“造福人类”为使命的初创公司,正将重心转向盈利和成功。
Anthropic在2023年的《负责任扩展政策》中曾表示,如果人工智能的发展可能带来危险,它将推迟相关研发。但在本周二的一篇博客文章中,Anthropic表示更新规则:如果它认为自己在技术上并未对竞争对手保持显著领先优势,将不再因此推迟开发。Anthropic在声明中称:
“政策环境已经转向优先考虑人工智能竞争力和经济增长,而以安全为导向的讨论在联邦层面尚未获得实质性进展。”
Anthropic一位发言人表示:“从一开始我们就说过,人工智能的发展速度以及该领域的不确定性,将要求我们快速迭代并改进政策。”
分析称,Anthropic这一举动凸显出,早期引导人工智能初创企业的崇高理想,正越来越多地与盈利压力和竞争需求发生冲突。Anthropic正在与一系列强劲对手争夺这一革命性技术的主导地位,包括OpenAI、谷歌、马斯克的xAI公司等。
Anthropic首席执行官Dario Amodei曾在OpenAI工作,并于2020年离职,部分原因是他担心该公司在商业化和发展速度上优先于安全问题。
OpenAI最初是一家非营利组织,并在去年转型为更传统的营利性企业。它还在2024年更新了使命声明,删除了“安全地(safely)”一词,而此前其目标是“确保通用人工智能安全地造福人类”。
OpenAI和Anthropic这两家公司如今都在推动最快于今年进行IPO,希望抓住投资者对人工智能的兴趣。Anthropic最近的估值为3800亿美元,OpenAI正以超过8500亿美元的估值筹集资金。
Anthropic此次政策更新恰逢其与美国国防部之间的争端不断升级。争议焦点在于Anthropic坚持为其Claude人工智能工具的使用设置安全护栏。五角大楼周二威胁称,如果Anthropic未能在周五前接受政府条款,将援引冷战时期的一项法律,强制要求公司允许美军使用其技术。
据媒体报道,在周二Amodei与美国国防部长Pete Hegseth的会谈中,美国官员提出了一系列可能后果,包括威胁将Anthropic认定为供应链风险,并援引《国防生产法》,即使公司不同意,也将强制使用其人工智能软件。
本月早些时候,Anthropic资深安全研究员Mrinank Sharma表示将离职。他在发布于X平台的一封致同事信中写道:“我不断在反思我们所处的处境。世界正处于危险之中。而不仅仅是来自人工智能或生物武器,还有一系列在此刻同时展开的相互关联的危机。”
不仅是Anthropic和OpenAI在人工智能安全措施问题上挣扎。本月早些时候,媒体报道称,马斯克旗下的SpaceX及其子公司xAI正在参与一项秘密的新五角大楼竞标项目,开发语音控制的自主无人机集群技术。这被视为一个颇具争议的转变。此前马斯克曾反对制造“新的杀人工具”。他甚至起诉了OpenAI,因为他原本期望该组织保持非营利性质,并致力于为公众利益打造安全的人工智能。
据此前报道,OpenAI也支持Applied Intuition在无人机竞标项目中的方案,但其参与将仅限于“任务控制”部分,即将战场指挥官的语音及其他指令转化为数字化指令。
Amodei与OpenAI首席执行官Sam Altman之间的冲突,有时也公开化。上周在新德里举行的一场人工智能峰会上,两人与印度总理莫迪并肩站在一起时,其他人都在台上手拉手排成一排,而他们两人则拒绝牵手。





京公网安备 11011402013531号