今天咱们来聊一个非常有意思的“反超”故事。就在前几天,美国AI公司Anthropic公布了一个特别夸张的数据:它的年化收入达到了300亿美元。这个数字可能大家没概念,那让我们来对比一下:OpenAI只有250亿美元。要知道,就在一年前,OpenAI还是一骑绝尘的王者。ChatGPT就是AI的代名词,估值高得吓人,感觉其他公司都是陪跑。怎么短短时间,这个叫Anthropic的“后起之秀”就实现了“弯道超车”?它是怎么做到的?今天咱就来盘一盘。
这个故事,得先从Anthropic的创始人说起,达里奥·阿莫迪和他的妹妹丹妮拉。这俩人之前是OpenAI的“元老级”人物。达里奥是主管算法的副总裁,技术大牛;丹妮拉负责AI安全。时间回到2019年,微软要投10亿美元给OpenAI,改制其为有限盈利公司。按理说,公司要起飞了,这是好事啊,但阿莫迪兄妹俩却非常不安。为啥呢?他们俩是典型的“AI安全”信徒,坚信强大的AI必须以安全为先。他们甚至提到了一个现在看来有点“天真”的章程:如果别的公司在安全上超过了OpenAI,那OpenAI就别竞争了,直接把自己的资源合并过去。
结果呢,微软进来后,有权对这个“合并条款”一票否决。而且据达里奥的笔记,OpenAI的CEO山姆·奥特曼在跟他们沟通时也闪烁其辞。磨合了一年多,兄妹俩就觉得:道不同不相为谋。与其在这儿拧巴,不如自己出去干。于是,2021年,他们选择离开,创立了Anthropic。公司名字Anthropic,来源于希腊语的“人性的”,他们的目标很明确,就是做一个以人为本、安全可控的AI。
那问题来了,怎么才能让AI“安全可控”呢?那时,整个行业的主流训练方法是“人类反馈强化学习”,就是让人给AI的回答打分排序,让AI更符合人类的偏好。这个方法效果不错,但有个大问题:它是个“黑箱”。你不知道它为什么这么选,内部逻辑是什么。企业用户一看,这玩意儿我不敢用啊,万一它在董事会决策上给我来一出“黑箱操作”,谁负责?
于是,Anthropic就琢磨:能不能搞一套更透明、更讲规矩的方法?啥意思呢?就是给AI内置一本“行为准则”,像法律条文一样,里面有几千条原则。训练的时候,AI自己拿生成的内容跟“行为准则”比对,自我批判、自我修正。这样一来,模型的决策过程就变得可追溯、可审计。
这种策略,在2023年7月Claude正式亮相后,立刻赢得了企业用户的芳心。尤其在企业最关心的“编码”领域,Claude的表现非常能打。一份2025年的调研报告显示,在企业应用接口的支出份额上,Anthropic从2023年的12%飙升至40%,而OpenAI则从50%跌到了27%。在编码领域,Anthropic更是占据了54%的市场,把只有21%的OpenAI远远甩在身后。
不久前,Anthropic迎来了它的“破圈时刻”。本来有一笔两亿美元的大单,结果因为相关安全要求,Anthropic居然拒绝了。坚守原则的代价是被美国相关政府机构列为“供应链风险”并停用。而竞争对手OpenAI迅速补位,结果引发了全球用户的强烈反弹,掀起了一场“QuitGPT”的抵制运动,70万人取消订阅,反而把Anthropic的Claude送上了下载榜首。
所以,Anthropic超越OpenAI的秘密到底是什么?它抓住了一个更核心的痛点:AI竞赛的焦点正在转移,可靠、可审计、权责清晰的AI,比一个强大却不可预测的黑箱,具有更高的商业价值。这个故事对我们中国的AI产业也挺有启发的。我们现在是AI模型调用最多的国家,如何让企业安心使用、愿意为之支付“信任溢价”,也是国内用户非常关心的问题。也许,Anthropic的这条路,值得好好琢磨琢磨。
好了,今天的内容就到这里。你对这条路径怎么看?欢迎评论区聊一聊。
SFC
出品丨21财经客户端 财经早察工作室
总统筹丨陈晨星
执行统筹丨 祝乃娟
监制丨洪晓文 曾婷芳
主播丨董静怡
编辑丨胡光旗
剪辑丨实习生 苏磊
设计丨王冰
审校丨强燕
21君荐读





京公网安备 11011402013531号