文 | 超前实验室,作者|青苹吹果,编辑|无心插柳柳橙汁
2026开年,Anthropic的处境堪称冰火两重天,一半是海水,一半是火焰:
一边,是被“公开处刑”:川普在怒斥它“想要不受约束的权力”,美国战争部长亲自下场,给它贴上了“供应链风险”的标签。另一边,却是真香现场:才被“点名”几小时后,他家工具就悄咪咪出现在了美军指挥部的机密系统里。
同一周,App Store免费榜榜首轻松拿下,Anthropic可以说拿到了爽文剧本。
这家由OpenAI前核心成员创立的公司,刚刚完成了一轮300亿美元的融资,估值飙升至3800亿美元,成为全球估值第二高的AI独角兽,仅次于OpenAI的5000亿美元。
更令人震惊的是,其年化收入已达到140亿美元,过去三年每年增长超过10倍,被《华尔街日报》称为“史上增长最快的企业软件公司”。
在OpenAI统治消费者市场、谷歌凭借全栈能力重回牌桌的背景下,Anthropic凭什么杀出一条血路?它的崛起又揭示了AI产业怎样的未来图景?
和OpenAI割席,道不同不相为谋
要了解Anthropic的崛起,必须先了解其创始人Dario Amodei。
这位1983年出生的物理学天才,2000年入选美国物理奥林匹克国家队,在加州理工、斯坦福和普林斯顿完成学业后,于2014年加入百度,在吴恩达麾下从事大模型规模定律的早期研究。横跨物理学、生物学和计算方法的学术训练,使他对复杂系统的量化分析产生浓厚兴趣,也为他日后在AI安全领域的研究奠定了基础。

2016年,Amodei加入OpenAI并主管AI安全工作。接下来的五年里,他主导开发了GPT-2和GPT-3,并与团队共同发明了“基于人类反馈的强化学习”(RLHF)技术——这项技术后来被所有主流大语言模型采用,成为确保AI系统与人类价值观对齐的关键突破。
然而裂痕也在同期埋下。
2020年底,Dario Amodei带着包括妹妹Daniela在内的14名核心研究员集体出走。2021年2月,Anthropic创立。
出走的原因,Amodei在今年2月的一次播客访谈中坦言:他主张更审慎的发布节奏和更严格的安全测试,而OpenAI在微软投资后加速商业化。“我们早在2022年就有一个早期版本的Claude 1,早于ChatGPT的发布,但我们选择当时不公开发布,因为担心会引发军备竞赛,没有足够时间安全地构建这些系统。”
这种对安全的执着,深深烙印在Anthropic的基因里。
成立之初,Anthropic就设计了一套安全优先的治理结构:
注册为公共利益公司(PBC),必须同时平衡股东经济利益和明确的公共利益;设立长期利益信托,由独立受托人监督公司决策,确保不因短期商业压力而牺牲AI安全。《时代》杂志2024年曾点评称,OpenAI 2023年的治理危机恰恰验证了Anthropic对新型治理结构必要性的判断。
用产品力说话,Anthropic在市场“开挂”
如果说安全理念是Anthropic的“道”,那么产品策略就是他的“术”。
与OpenAI一开始就面向全球公众发布ChatGPT不同,2023年3月Claude 1发布时仅面向经审核的企业用户。这一策略在当时看似保守,实则精准——Anthropic选择了一条与OpenAI截然不同的道路:专注企业级市场,用产品力构建护城河。
Anthropic押注的是市场的几个核心痛点:
首先是长上下文能力。 2023年5月,Claude将上下文支持能力从9K扩展到100K tokens,而同期GPT-4最高只有32K。2024年3月,Claude 3发布又全线支持200K,重新拉开与OpenAI的差距。

如今,二者的上下文能力都已达到1M tokens,但在2023年到2024年,长上下文能力是Anthropic在企业市场的核心卖点。正如Anthropic官方所言:“企业客户有高达50%的知识库以PDF、流程图、演示文稿等形式存在,长上下文让Claude可以一次性处理整个代码库、数百页法律文档或销售记录。”
其次是编程能力的突破。 2025年2月推出的Claude Code成为Anthropic最具杀伤力的产品。这是一款可直接在终端运行的AI编程工具,能够读取企业现有代码库、自主规划并执行任务,实现了从“代码补全”到“AI委托完整任务”的进化。
截至2026年2月,Claude Code的年化收入已超过25亿美元,自年初以来增长了一倍多,企业订阅量增长了四倍。根据费用管理初创公司Ramp的数据,Anthropic在今年1月的AI模型API支出市场中已占据主导地位,份额接近80%。
在AI开发者中,Anthropic在代码市场的份额达到42%,而OpenAI为21%。就连微软也在2025年9月表示,将把Claude模型整合到Copilot软件套件中。

第三是产品矩阵的深化。 2024年推出的Artifacts和Projects,将Claude从“对话工具”转变为“协作工作区”,解决了“如何让AI无缝融入现有工作流”的核心挑战。
今年2月,Anthropic又发布了10款全新AI插件,覆盖投行、财富管理、人力资源、私募股权、工程设计等多个垂直场景。
同日,公司宣布收购Vercept,一家脱胎于艾伦人工智能研究所的AI初创公司,主打“像人一样看屏幕、操控电脑”的无API自动化,进一步补足自身视觉能力短板。
这一系列动作的效果已经开始显现。目前,Anthropic服务的企业客户已超过30万家。过去一年,年消费超过10万美元的客户数量增长了7倍,年消费超100万美元的客户已超过500家。
高盛近期宣布与Anthropic合作开发自动化银行业务AI代理,进一步印证了其企业化路径的有效性。
被卷入复杂博弈,Anthropic安全理想两难
然而,Anthropic近期最引人注目的,不是它的增长,而是它在安全立场上的重大转向以及与华盛顿的复杂博弈。
首先是安全承诺的软化。 今年2月,Anthropic对2023年推出的《负责任扩展政策》做出大幅度修改。这份政策最核心的条款是:当模型迭代速度超过自身安全防护能力时,“暂停模型规模扩张或推迟新模型的发布”。而在新版本中,Anthropic不再承诺单边暂停有风险的模型。
Anthropic首席科学家Jared Kaplan在接受《时代》采访时坦言:“如果竞争对手都在全速前进,我们再做出单边承诺,其实并不合理。停止训练人工智能模型,实际上对任何人都没有好处。”
这番话道出了AI行业的残酷现实。根据最新财务预测,Anthropic预计2026年营收将达180亿美元,2027年达550亿美元。但与此同时,训练成本也在飙升:2026年训练支出预计超过120亿美元,2027年接近230亿美元。在业务结构上,Anthropic约80%的收入来自企业客户,而OpenAI也在这个赛道飞速进步,积极推广其AI编程工具并发布新版模型。拆除“安全护栏”,或许只是Anthropic开启贴身肉搏的第一步。
其次是与美国政府的对峙。 就在软化安全承诺的同时,五角大楼要求Anthropic移除Claude模型上的安全护栏,以便在“所有合法用途”中使用。Amodei明确拒绝,称无法在良心上同意他们的要求,警告这将迫使公司跨越两条红线:大规模国内监控和完全自主武器。
“Anthropic是首个将模型部署到美国政府机密网络、首个在国家级实验室部署模型,以及首个为国家安全客户提供定制模型的人工智能公司。”但Amodei强调,国防部提出的“任何合法使用”的要求将迫使公司突破底线。
2月27日,特朗普在社交媒体上发文,指责Anthropic试图用服务条款勒索五角大楼,下令所有联邦机构立即停止使用Anthropic的技术。随后,国防部长将其正式指定为“国家安全供应链风险”,这意味着任何与美军有业务的承包商不得与Anthropic开展商业活动。

几小时后,Sam Altman宣布OpenAI与国防部达成协议,允许其模型部署在军方机密网络中。Altman称协议包含了“技术保障措施”和“红线”限制,如不用于国内大规模监控和完全自主武器。
两相比较,能看到两家公司在AI安全上的不同策略:Anthropic主张在技术层面嵌入限制,而OpenAI更倾向于通过合同条款和政策框架来约束。这种态度差异呼应了Anthropic从OpenAI出走的原因——对安全及商业利益的不同排序,最终与两家公司所服务的市场形成了相互强化的闭环:OpenAI更重视toC,追求增长,而Anthropic追求安全和稳定,最终走了toB路线。
资本市场疯狂押注,Anthropic能否“不忘初心”?
与舆论场的争议形成鲜明对比的,是资本市场对Anthropic的疯狂追捧。
2月12日,Anthropic宣布完成G轮融资,金额300亿美元,投后估值3800亿美元。这一数字意味着什么?去年9月,公司刚以1830亿美元的估值完成130亿美元融资,短短半年内估值翻倍。
从融资结构来看,本轮由新加坡政府投资公司(GIC)和Coatue领投,联合领投方包括D. E. Shaw Ventures、Founders Fund、ICONIQ等。重要投资者名单上还列着黑石集团、高盛、摩根大通、红杉资本、淡马锡等一众顶级机构。其中包含此前已披露的战略投资:微软计划投入最高50亿美元,英伟达则承诺最高100亿美元。
在业务结构上,Anthropic约80%的营收来自企业客户,这与OpenAI约30%的企业营收占比形成鲜明对比。投资者正押注其工具能够系统性改造白领工作流程,目标并非传统IT预算,而是规模更大的劳动力支出。Foundation for American Innovation高级研究员Dean Ball指出:“Anthropic模型的迅速普及,是自ChatGPT推出以来AI领域最具影响力的事件。”
为什么投资者如此疯狂?
首先是创始团队的硬核背景。Anthropic的七位联合创始人全部来自OpenAI核心团队,且至今仍在公司任职。相比之下,OpenAI自2015年成立以来,11位创始成员中已有8位离职。其次是强劲的业绩表现:年化收入140亿美元,过去三年每年增长超10倍。
值得一提的是,本轮融资的资方名单中,出现了不少OpenAI股东的身影。至少12家曾直接投资OpenAI的机构,也出现在Anthropic的支持者名单中,如Founders Fund、ICONIQ和红杉资本等。对于这些机构而言,双重押注意味着锁定了AI赛道最核心的两张门票:
无论最终是OpenAI还是Anthropic胜出,它们都已稳坐牌桌。
在接受CBS采访时,Amodei表示,Anthropic反对将其AI模型用于大规模国内监控和全自动武器,但对于美国政府提出的其他使用场景均表示认可。
“这些都是对美国人来说最根本的权益:拥有人不被政府监控的权益,让我们的军官亲自做出战争决策的权益,而不是完全交由机器处理。”
这套说辞,听起来依然理想主义。但在激烈的市场竞争和巨大的盈利压力下,这份理想主义还能坚持多久?在最近的一次播客访谈中,Amodei谈到,哪怕收入预测只偏差20%即从1万亿降到8000亿,即使AI能力最终实现,但只要晚一年,公司可能就会破产。这段话,或许比任何安全宣言都更能揭示Anthropic的真实处境。
如果连“最有良心的AI企业”都不得不向市场妥协,那么AI安全的底线将由谁来守护?这场博弈的最终结局,不仅关乎一家公司的命运,也关乎整个AI产业的未来走向。
毕竟,当理想主义遭遇现实,当安全承诺让位于生存压力,Anthropic的困境或许正是整个行业面临的共同考题。





京公网安备 11011402013531号