刚刚,创下日本估值新高的AI初创公司诞生了!
它就是Sakana AI,由Transformer论文八子之一创办,老黄的英伟达也投了。
![]()
帮大家快速回忆一下,这家公司其实就是史上首位“AI科学家”背后的出品方——
当时他们发布的The AI Scientist,一登场就一口气生成了十篇完整学术论文,而且每篇成本才15美元左右(约107.62元),一时吸引大量关注。
![]()
根据Sakana AI公告,最新B轮融资筹集了200亿日元(约合1.35亿美元、9亿多人民币),总估值来到约4000亿日元(约合26.35亿美元、184亿人民币),创下日本非上市初创企业的估值纪录。
而且它的投资方阵容也堪称豪华——除英伟达(参与A轮)之外,还有一众美国顶级风投(如Khosla Ventures、NEA)和日本产业与金融巨头(如三菱日联、四国电力)等。
所以,Sakana AI为什么能获得如此高估值?
Transformer八子之一创办、要做基于自然启发的AI模型
Sakana AI成立于2023年7月,至今不过短短两年。
之所以一开始就受到巨大关注,毫无疑问离不开它的两位明星创始人。
联创兼CTO Llion Jones,大名鼎鼎的Transformer论文8位作者之一。
![]()
他本硕毕业于伯明翰大学,在Delcam、油管、谷歌都工作过,创办Sakana AI之前在谷歌工作了8年之久。
据FourWeekMBA介绍称,在他之前的工作经历中,“曾两度与谷歌的工作擦肩而过”。
第一次是他刚毕业找工作时,虽然投了谷歌伦敦软件工程师的简历,并通过了两轮电话面试,但最终相比谷歌,他选择了位于英国的CAD/CAM软件公司Delcam。
第二次是工作18个月后,他又接到了谷歌的招聘电话,询问他是否想重新申请,但他依旧没去谷歌,而是随后加入了YouTube。
在Youtube做软件工程师的三年期间,他对人工智能产生兴趣,于是自学了Coursera的机器学习课程,并终于在2015年的时候加入谷歌研究院,担任里面的高级软件工程师。
也正是在此期间,他与其他七名作者一起发表了那篇著名的Transformer论文《Attention Is All You Need》。
![]()
而之所以选择离开谷歌,是因为公司目前已经发展到一定规模,使得他无法继续进行自己想做的工作。
按他自己的话来说就是,谷歌确实让他有种“被困住的感觉”。
于是潇洒一转身,他选择联合另一位谷歌前员工开始创业,而这位谷歌前员工就是如今身为Sakana AI联创兼CEO的David Ha。
David Ha(右图)曾是谷歌大脑的高级科学家,也曾领导过图像生成模型独角兽公司Stability AI的研究部门。
今年8月,他还入选了《时代》杂志评选的2025年人工智能领域百大人物榜单。
![]()
有了这二人,base东京的Sakana AI可谓自带光环。
(注:之所以选择东京,是因为北美那边的生成式AI研究人员竞争非常激烈(手动狗头),而在日本这边竞争相对小一点而且也不乏高质量AI人才。)
而且比较新奇的是,Sakana AI并不是要在日本再造一个OpenAI或Anthropic,而是一开始就要走一条“不一样的路”——
他们希望放弃Transformer架构,并从自然进化中汲取灵感,以降低模型的计算成本并提升其性能 。
概括而言,他们的想法可以基本归纳为:
1)日本是个资源有限的国家,AI发展到后面肯定会受到电力等资源的限制,所以从一开始就要考虑如何提效;
2)通过从自然进化中汲取灵感,他们能够实现这一目的。
至于究竟是怎样的自然灵感,这可以从他们给公司起的名字“Sakana AI”(sakana是日语“魚”(さかな)的罗马读音)一窥。
![]()
就像大自然中的鱼会基于某种简单的规则成群活动。因此,AI们也能借鉴它们的思想,无需更大的体积就能完成很复杂的任务。
具体来说,Sakana AI计划开发一种基于自然启发智能(nature-inspired intelligence)的基础模型,借鉴自然领域中的“进化”和“集体智慧”思想,让一群AI协作,类似于当前AI领域的生物启发计算方向。
据《金融时报》介绍称,Llion Jones认为,当前的AI模型之所以存在局限性,是因为它们被设计成无法改变的结构,这种结构往往是脆弱的。
相比之下,发挥“集体智慧”的自然系统,对于周围的变化非常敏感。基于此原理搭建的AI也会具有更好的安全性、更低的搭建成本。
等等,这不就是AI科学家吗?
造出史上首个AI科学家、各项研究库库发
2024年8月,Sakana AI以造出首个“AI科学家”走红一时。
他们推出了第一个用于自动化科学研究和开放式发现的综合AI系统——The AI Scientist。
这个系统能够一口气自动完成从提出研究想法、检查创新性、设计实验、编写代码,到在GPU上执行实验并收集结果,最后完成论文撰写等全过程(一般会交由不同模型分工负责)。
而且当时还放出了由它撰写的十篇完整学术论文,一时令无数网友惊叹“是时候让AI帮我们写论文了”。
p.s.:后来有研究员受其中一篇论文想法的启发,还真的写出了一篇论文并在arXiv上公开了~
![]()
实际上,The AI Scientist的出现并非偶然,而是Sakana AI对更早之前的一项研究的验证。
当时他们想出了一个进化合并模型的妙招——
把Huggingface上的现成模型拿来“攒一攒”,直接就能组合出新的强大模型。
具体来说,他们受自然界的自然选择启发,引入“进化模型合并”(Evolutionary Model Merge)的概念,提出一种可以发现最佳模型组合的通用方法。
采用相关方法,他们得到的一个70亿参数的日语数学大模型,直接在相关基准测试上取得了SOTA,打败了700亿参数的Llama-2等前辈。
而且关键是,得出这样的模型不需要任何梯度训练,因此需要的计算资源大大减少。
![]()
基于此,他们后来在The AI Scientist研究里想到,是否能用大模型发现新的目标函数来调整其他模型。
而这,正是“首位AI科学家”能够成功运行的根本原理。
再到后来,Sakana AI的AI科学家不断进化,其AI Scientist 2.0版本所生成的论文甚至通过了顶会ICLR workshop评审。
今年4月,Sakana AI向ICLR提交了三篇完全由AI Scientist v2生成的论文。(仅告知43篇评审论文中有3篇出自AI,但不告诉具体是哪一篇)。
结果,其中一篇论文《组合正则化:增强神经网络泛化的意外障碍》获得了6/7/6评审分数,超过平均人类接收门槛。
![]()
再之后,围绕“AI协作”这一核心命题,Sakana AI基本以“一月一发”的快节奏推出多项研究:
今年5月,为考验大模型创造性推理能力,推出一个包含从简单4x4到复杂9x9现代数独问题的全新基准Sudoku-Bench;6月,推出Text-to-LoRA (T2L),彻底简化了模型适配流程;同在6月,带来旨在让教师模型学会“启发式”教学的新方法,使用新方法训练出的7B小模型,在传授推理技能方面,比671B的DeepSeek-R1还要有效;7月,提出新算法AB-MCTS,能让多个人工智能模型同时处理问题;9月,开源全新框架ShinkaEvolve,可以让大模型在自己写代码优化自己的同时,还能同时兼顾效率;
至此,Sakana AI当下能够斩获日本AI创企最高估值也就不难理解了——创始人自带光环、AI科学家研究出圈、各种研究一月一发。
即使创始人无意再造一个日本版OpenAI,但就其估值和成长轨迹而言,它已然是最接近“日本版OpenAI”的存在。
![]()
好好好,美国有OpenAI、日本有Sakana AI,那咱中国呢?
这里我们快速看一下国内主要明星大模型公司的最新估值情况:
智谱AI,“AI六小虎”中首家启动IPO的企业,据中关村杂志9月报道其最新估值已超400亿元RMB;
MiniMax,传闻计划今年赴港IPO,据晚点7月报道其投后估值超过40亿美元(约284亿人民币);
月之暗面,10月传出数亿美元新融资,若属实估值有望突破33亿美元(约234亿人民币);
看来这股AI热潮,已经蔓延到了全球每一个角落(手动狗头)。





京公网安备 11011402013531号