当前位置: 首页 » 资讯 » 新科技 » 正文

对话曦望董事长徐冰:我们并不是凭空冒出来的新手

IP属地 中国·北京 雷递 时间:2026-01-28 19:01:54



雷递网 雷建平 1月28日

专注于推理GPU 的曦望(Sunrise)日前发布新一代推理GPU芯片启望S3,这是曦望近一年累计完成约30亿元战略融资后的首次集中公开亮相。

曦望董事长徐冰、联席CEO王勇、联席CEO王湛也集体亮相,并接受了雷递网的专访。徐冰在专访中表示,曦望并不是凭空冒出来的新手,曦望的前身是商汤科技的大芯片部门。

两位黄金搭档联席CEO——“越湛越勇”

据介绍,曦望成立于2020年,脱胎于商汤。徐冰团队在过去十年,跟商汤,跟国内最早的一批大规模的AI应用,一步一个脚印,从人脸识别到自动驾驶,到今天的大模型多模态物理AI,完整地走过了整个的AI发展周期。所以曦望从第一天开始就不是在纸面上设计芯片,而是泡在真实的业务场景里,被客户的各种需求打磨,让曦望成为更懂AI的GPU芯片公司。

徐冰说,2025年全球大模型token的消耗量直接涨了100倍,那也是曦望最忙的一年,整个团队没日没夜全速研发,就是为了今天,为了这一刻把曦望打磨多年的技术和产品带到大家面前,发布推理时代的性价比之王。

那能做出这样的成绩,离不开曦望两位能力互补且可以称为黄金搭档的联席CEO——王湛和王勇,曦望内部称为“越湛越勇”。

其中,曦望负责研发的联席CEO王勇,曾是前AMD昆仑芯的核心架构师,还曾在百度昆仑芯工作,有20年的芯片研发经验;2020年,王勇加入商汤后,他带着曦望的百人团队主导了曦望两代芯片的研发和量产,都实现了一次性的点亮成功。



曦望另一位联席CEO王湛,他是百度的创始团队成员,也是百度的第一任产品经理。百度凤巢系统就是王湛带队一手打造的。巅峰时期,王湛带着几千人的大团队,有丰富的产品化经验,还有商业化的操盘经验,给百度贡献过数百亿的利润。2025年年初,王湛加入了曦望全面负责产品化、商业化,同时牵头打造更有战斗力的组织文化。

曦望现在有三百多人的团队,聚拢了行业中极其出色的一批芯片研发精英,来自英伟达、AMD、昆仑芯、商汤等。徐冰说,“核心的技术骨干平均有15年的行业经验。我们是一支真正懂芯片,懂AI能落地的特种部队。”

如今,曦望团队已独立运营,并在一年时间获得近30亿元融资,投资方包括三一集团旗下华胥基金、范式智能、杭州数据集团、正大机器人、协鑫科技等产业投资方,以及IDG资本、高榕创投、无极资本、中金资本、普华资本、松禾资本、易方达资本、工银投资、心资本等VC/PE 机构,也获得诚通混改基金等国资背景资本加持。



从左到右分别为曦望董事长徐冰、商汤CEO徐立、雷递网创始人雷建平

目前为止,商汤依然是曦望单一的第一大股东,依然是曦望重要的股东和最重要的合作伙伴,商汤的董事长兼CEO徐立也亲自到曦望发布会现场,来跟曦望团队共同开启百万token的推流合作。

脱离商汤体系,重新出发



作为一家从商汤出来的专注于国产AI芯片研发的公司,曦望称要以已逝的商汤创始人汤晓鸥老师的原创精神为锚点,传承那份对创新的执着与初心,开启一段属于中国芯的旅程。所谓“曦望”,曦,破晓之光;望,远方的期许。曦望的基因中,流淌着汤晓鸥教授倡导的原创精神。

徐冰说,如果继续在商汤的体系,其实是挑简单的事去做的状态。“我们这一代人享受了最好的一波中国的经济发展,还有产业变革所带来的红利,尤其是在接下来即将有人机共生的状态出现。如果不去冲在在最前面,去解决最难的问题,去做原创性的技术突破,我们其实就是在躺平,这也是我为什么接受徐立的任命,迎接整个AI产业最难的事儿。”

整个AI产业最难的事就是芯片,而要这这一块,就不要走英伟达的老路,要走差异化,曦望不想做卖昂贵芯片的选手,而是要做极致性价比的芯片,要把70%到90%的价值还给产业,这样中国的AI创新才有一些血液,否则,所有的AI创新所需的资金都被芯片拿走了,这些AI企业怎么盈利,这些超级AI应用怎么能形成商业闭环?



“我们一旦能做出这样的极致性价比推理芯片,也就是我们今天要推的S3,以及后续的S4、S5等等,我们就是在重构中国AI产业的损益表。”

徐冰指出,曦望的独立运营是经过真正深思熟虑,深刻思考,而且团队有战略定力,有优秀人才,在一块做这件事情,既传承了汤晓鸥老师教给商汤团队的原创精神,也传承了团队在商汤所沉淀十年的认知。

要把大模型推理这件事做到极致

在国产GPU行业逐步从“拼性能参数”转向“拼单位经济性”的背景下,曦望选择将战略重心明确锚定在推理算力这一更具长期确定性的赛道。

徐冰对曦望的定位是,一家更懂AI的GPU芯片公司,而且是国内第一家all in推理的GPU芯片公司。曦望的使命只有一个,就是把大模型推理这件事做到极致,要让AI推理真正变得便宜稳定,而且到处可用。

谈及为何谈推理为先时,徐冰给出了几点解释:

1,首先是需求变了,AI已经能从被训出来这样一个阶段,彻底走向能被用起来的实战阶段。智能体物理AI一旦爆发,那推理就会从配角变成主力。根据德勤最新的报告,到2026年,推理算力占比将达到66%,超过训练,这不是趋势,这是已经在发生的一个结构性的改变。

2,场景变了。智能体需要高频去响应,实时的交互,3D的生成,视频的生成,物理世界的AI,这些复杂的场景正在加速落地,多模态的推理需求也在爆发。今天大家拼的不再是谁能跑起来,而是谁能在真实的业务里跑得稳,跑得久,而且要跑得划算。

3,,也是最关键的,成本结构变了。现在推理成本占据AI应用比已经高达70%,直接决定了一家AI公司能不能盈利,能不能把商业化做好。只有把推理成本从原级降到分级,AI才有机会像水电一样成为普惠的基础设施。这才是行业的未来。

徐冰认为,推理的战略价值,决定的是国家和企业在AI下半场的竞争力。谁掌握高效、可控、可持续的推理基础设施,谁就能主导AI的落地速度。

当下,AI芯片占据整个AI产业价值的70%甚至90%,一家拿走了整个AI产业几乎所有的利润。徐冰说,这反映了整个市场投票去选择的一个点——未来整个AI芯片会占据AGI价值的大头,AGI这件事情的价值有多大是不可想象的,没有天花板。

“如果大家放长期眼光来看,我们这一代人都会是第一代经历人机共生的一代人,我们在有生之年都能看到人机共生,就可能一个人身边有几个机器人,机器人的数量会超过人类。”

徐冰指出,在这个时代里面,很多认知是现在无法用短期去讲清楚的,AGI会来临,未来机器人的数量会超过人类,而机器人让机器人在做7×24小时的推理,所有的这些应用,包括物理AI,包括多模态,所有的这些应用会让推理的需求变得没有天花板。

要实现百万token一分钱

做芯片这样的硬科技也离不开资本的支持。过去一年,曦望完成了近30亿元的战略融资。



曦望的股东阵容既有商汤,三一,杭州数据集团、范式、正大这样的行业龙头,也有协兴/协鑫、杭金投、杭州高新金投这些国资平台,还有一批专门投硬科技的顶尖的风投机构。

2025年,曦望实现了破万片的交付,收入也大幅增长,还拿下多个头部客户的订单。而当下,国产GPU正经历发展的爆发期,摩尔线程、沐曦、壁仞科技、天数智芯已相继融资,昆仑芯、燧原科技也在筹备上市,市面上已经有这么多国产GPU企业,曦望为什么能站稳脚跟?

徐冰的解释是,曦望不是在做又一个GPU, 而是从底层架构就为推理场景重新设计,彻底重写。

传统的训推一体的GPU, 比如英伟达的A100,H100,采用的是通用计算的设计思路,核心目标是去同时兼顾训练,还有推理的两种需求。

这类产品要靠昂贵的HBM来实现高带宽,但问题也很明显,成本高,功耗大,他们的设计重点往往放在了追求峰值算力,比如TFLOPS这样的一些指标,但一旦放到了推理场景,比如说低延迟、小batch、大并发,算力的利用率常常只有5%到10%,高功耗低效率的问题就特别突出,最终推高了每个token的成本。

曦望走的是一个相反的路,专为大模型推理场景做架构设计,目标是实现极致的成本效益。那些冗余设计,不追求峰值TFLOPS这种纸面数据,曦望是把真实业务场景中的每个token的成本,每个token的能耗,还有实实在在的SLA稳定性,作为所有设计决策的根本出发点。

这里面的逻辑很简单,对于算力服务商,对于AI应用开发者而言,Token的成本能耗表现,还有它的服务稳定性。这三大指标直接决定了最终的业务毛利率,直接影响了终端客户群体的用户体验。

徐冰说,如果曦望能够让推理的成本下降90%,并且可以提供稳定的服务,那曦望的竞争就是市面上又多一个芯片选择,可以真正重写中国AI产业的损益表,助力全行业盈利增收。“过去的八年,曦望累计投入了20亿的研发,量产了S1和S2,此次曦望发布S3,并且也展示S4和S5的路径图,曦望是在一步步地去靠近推理时代的理想状态。”

徐冰认为,S1、S2让曦望证明了三件事,能做出来,能量产,能被头部客户用起来,而从S3开始,曦望要和整个产业一起,把中国的推理成本彻底拉到“百万token一分钱”这样一个新级别。过去一年国内已经有一些厂商把大模型的推理价格做到了百万token一元,甚至几毛钱。而曦望的目标是在这个基础上,靠专用的推理GPU和系统架构把成本再压一个数量级,把“百万token一分钱”变成行业新基准。

让每一家企业都不用再为算力“卡脖子”

徐冰给曦望的定位是,不是一家只卖芯片的公司,要做的是围绕芯片+系统+生态来做整体的布局。

第一,曦望会给产业提供推理GPU卡标准的一体化的服务器,整机,还有集群方案,能让大家快速搭建集群少走弯路。

第二,曦望要和商汤、范式这些AI巨头,还有各类算力厂商和芯片厂商深度合作,成为现有算力系统的推理分流,还有成本优化层。曦望为客户打造推理加速专区,让推理服务可以长期、稳定、可持续。

曦望还和商汤、范式战略合作,共同实现“百万token一分钱”。曦望和杭钢数字科技、浙江算力科技这些本地算力平台牵手,把推理基础设施铺到浙江,辐射全国。曦望还与三一、协兴、游族等十几家生态伙伴集中签约,把极致推理真正嵌入到制造、能源、C端、机器人这些具体的场景。

徐冰说,曦望做好三件事,让算力更便宜,让部署更简单,让生态更开放。过去十年中国互联网的底层支撑是遍布全国的光纤和基站。而未来十年,中国AI时代的底层根基一定是规模化、高性价比的推理基础设施。曦望想做的就是稳稳的站在这层根基上,安静的持续地把推理的成本往下降,让每一家企业都不用再为算力“卡脖子”,不用再为电费发愁,不用再被芯片限制。能放开手脚,大胆想象,大胆构建未来的AI爆款应用。

徐冰最后说,曦望坚信,随着AI推理红利全面释放,曦望一定能走出一条中国企业自主发展推理GPU的特色之路,真正实现国产AI芯片从跟跑到差异化领跑的关键跨越。

雷递由媒体人雷建平创办,若转载请写明来源。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。