![]()
AI应用风向标(公众号:ZhidxcomAI)
作者|江宇
编辑|漠影
智东西1月23日报道,昨日,由开源项目vLLM核心团队创立的AI基础设施创企Inferact宣布完成1.5亿美元(约合人民币10.4亿元)种子轮融资,投后估值达8亿美元(约合人民币55.7亿元)。
Inferact创始成员游凯超称:“我们的使命,是将vLLM打造成全球领先的AI推理引擎。”
![]()
▲Inferact创始成员游凯超转载官宣贴(图源:X)
本轮融资由a16z与Lightspeed领投,真格基金、Sequoia Capital、Altimeter Capital和Redpoint Ventures等跟投。
vLLM是当前最具影响力的开源推理引擎之一,已支持500余种模型架构、适配200多类加速器平台,广泛承载全球企业的大规模推理任务,meta、Google、Character.ai等公司也已在生产环境中部署使用。
vLLM社区累计贡献者已超2000人,长期位居GitHub同类项目活跃度前列。Inferact正是在这一深厚开源基础上诞生。
![]()
▲vLLM开源项目主页(图源:GItHub)
Inferact的创始团队几乎全部来自vLLM核心开发者阵营。
Inferact CEO由vLLM原始维护者Simon Mo担任,他曾就读于加州大学伯克利分校电气工程与计算机科学系(EECS),主攻机器学习系统设计方向。他在此前供职的AI基础设施公司Anyscale积累了丰富的落地经验。
另一位联合创始人是vLLM项目的发起人Woosuk Kwon,拥有加州大学伯克利分校计算机科学博士学位,师从于Ion Stoica教授(Databricks联合创始人之一)。
![]()
▲Woosuk Kwon(图源:X)
他提出的Paged Attention算法显著提升了KV Cache的显存效率,成为vLLM吞吐性能提升的关键机制。
团队中的另一位核心人物为首席科学家游凯超(Kaichao You),清华特等奖学金获得者,曾在加州大学伯克利分校EECS系担任访问学者。
![]()
▲游凯超(图源:X)
他主导了vLLM分布式推理功能的实现,尤其是对张量并行与PyTorch生态集成接口的优化,使得大模型推理可在多卡环境中稳定运行,开发门槛显著降低。
此外,前Roblox高级机器学习工程师Roger Wang作为核心成员加盟。Databricks联合创始人Ion Stoica教授和伯克利计算机科学教授Joseph Gonzalez也以深度顾问的身份深度参与项目。
Inferact方面称,未来将持续以独立开源项目形式支持vLLM,并将所有改进回馈社区;同时,团队将围绕多硬件平台构建更强大的推理基础设施,助力企业稳定部署AI模型并降低运营成本。
![]()





京公网安备 11011402013531号