当前位置: 首页 » 资讯 » 新科技 » 正文

对话知存科技CEO王绍迪:存算一体如何重塑AI计算的未来

IP属地 中国·北京 DeepTech深科技 时间:2025-12-26 18:23:45

当大模型时代呼啸而来,算力成为制约 AI 发展的关键瓶颈。传统的冯·诺依曼架构中,数据在存储单元和计算单元之间频繁“搬运”,不仅耗费时间,更消耗了 60% 至 90% 的无用功耗,形成了难以逾越的“存储墙”和“功耗墙”。

存算一体技术正是为破解这一困局而生。它将计算与存储融合在一起,让数据在存储单元内部就近完成计算,从根本上解决了数据搬运的问题。2024 年,随着三星与 SK 海力士推动 LPDDR6-PIM 技术标准化,以及多款存算一体 AI 芯片相继出货,这一技术正加速从实验室走向产业应用。据预测,2025 年全球存算一体芯片市场规模将突破 120 亿美元,中国占比达 30%。

在这一赛道上,知存科技是最早入局、坚持最久的玩家之一。2017 年,创始人王绍迪博士毕业后回国创业,带领团队实现了存算一体芯片的量产,产品已应用于二十多款消费电子产品。2025 年 9 月,知存科技入选《麻省理工科技评论》年度“50 家聪明公司”,他们的上榜理由是“突破传统芯片存储与计算分离的架构,在能效、计算并行度、功耗等多个维度获得显著提升”。

本期对话,我们与王绍迪博士深入探讨存算一体技术的原理与前景,从内存涨价的底层逻辑,到端侧大模型的算力困局,再到 AI 时代芯片产业的竞争格局,试图勾勒出一幅由高效算力驱动的智能未来图景。

以下是对话正文:

DeepTech:欢迎王绍迪博士做客 DeepTalk,能否先简单介绍一下自己和知存科技?

王绍迪:我是知存科技的创始人兼 CEO。公司 2017 年底成立,到现在已经八年了,时间过得很快。知存和我一直专注在存算一体芯片这个赛道,应该是这个领域中最早做的,也是坚持到现在最久的。目前在这个领域做得还算领先,也有一定的成果。

DeepTech:了解到你博士学的并不是存算一体,创业时为什么选择这个赛道?

王绍迪:存算一体在我博士刚开始的时候,也就是 2011 年,其实既没有 AI 也没有存算一体这个概念。那时候深度学习还没火,AlexNet 这些卷积神经网络是 2012 年左右才开始受关注。但到我博士快毕业时,AI 已经很热门了,虽然还没落地到产业界,但大家都预测未来会是 AI 的时代。

我博士期间从 2014 年开始做了很多跟存储器有关的工作。快毕业时我意识到,如果 AI 未来能力越来越强,算法模型越来越大,对存储器的依赖会远远超过现在的 CPU 和 GPU。所以那时候就觉得,用存储器直接去计算 AI 可能是个好方向。博士最后一年,我们已经开始做一些存算一体的工作,写了一些 proposal,后来也得到了几千万的项目资助。但我没有参与进去,proposal 写完之后就毕业回国开始创业做存算一体了。

DeepTech:你博士阶段做存储器,今年内存涨价是个热门话题,你怎么看?

王绍迪:这个其实比较有意思。我们看到这两年大模型发展很快,对 GPU 的需求最大,英伟达股价都涨到快 5 万亿美金了。

如果我们拆开一个 GPU 芯片看,里面可能有 2 个 GPU 计算的核心颗粒,但有五百多个内存颗粒——这些都是高带宽内存(HBM),不是普通手机或 PC 上用的 DDR 内存,带宽要高得多。

现在手机、个人电脑的内存和闪存都在涨价,其实是因为高带宽内存需求太大了。高带宽内存性能好、卖得贵、利润高,从去年开始韩国海力士在高端内存领域收入和利润上反超了三星和美光。大家都知道这是好生意,几大内存厂商全部开始转产高带宽内存,把原先生产 DDR 的产能都转过去了。一些落后的产品比如 LPDDR4 完全不生产了,这些厂商同时也生产固态硬盘、手机存储卡,一部分产能也被转走。所以高带宽内存需求大,把所有产能都吸走了,反而导致 LPDDR 和普通内存、存储都缺货涨价。

DeepTech:所以本质上不是为了减产而减产,而是把产能换到了更挣钱的赛道?这是不是给国内厂商一些机会?

王绍迪:非常对。国内内存厂商比如长鑫,它的 LPDDR4 、 LPDDR5 产品原先面临很大的价格竞争,现在因为这样一个机会,价格就可以上涨了。包括闪存厂商,整体是利好的。

DeepTech:内存涨价对存算一体有影响吗?还是说这反而是你们的机会?

王绍迪:其实跟我们没有太大关系。存算一体虽然也有“存”字,涉及很多存储器技术,但目前还不会用商业化的存储厂商产线去生产。它用的是一些存储器的原理,在常规的逻辑代工厂做生产,所以产能方面是不相关的。

另外,很多人觉得存算一体是存储器,但它虽然“存”在前面,实际上是个计算芯片。可以把它当成用存储器做计算,像 GPU、 CPU 这类能够完成计算的东西,而不是存储芯片。

DeepTech:能不能深入介绍一下存算一体的计算范式?

王绍迪:我举个例子。比如我想做 2 加 3 这个计算,在现在的芯片架构中,2 和 3 要从存储器里读出来,读到 CPU 之后做加法,结果是 5,再把 5 存回存储器。一次计算涉及读两次数、做一次加法、写一次数,三次读写操作加一次计算操作。

这里面消耗时间最大、功耗最高的,实际上是把数据从存储器里读出来、再写回去的过程。为什么代价大?可以理解成存储器阵列特别大。如果从三四个人中找一个人很快,但从一个几万人的学校里找一个人,从找到他到他走到校门口,时间就特别长。

现在计算算力越来越强,存储容量越来越大,就像一个几十万人的大规模场地,我们要从中间找出两个人做计算,再放回原位,算起来是挺容易的事,但找人、放回去的过程是最大的瓶颈。

存算一体为什么能解决这个问题?因为 AI 计算是非常规整的阵列级计算,虽然能力很强,但基础方式很简单——乘法和加法占了 90%,而且是相邻数据之间的交互。现在的做法是虽然数据站成方阵,还是要把人拉出来拉很远做计算,代价很大。存算一体就是把相邻的数据在存储器内部直接做乘法加法。乘法加法并不复杂,不需要到复杂的 CPU、 GPU 去算,在存储器内部就能实现,不用跑那么远。就像两个邻居开门问一句“吃饭了吗”,各回各家就行了,甚至不用出单元门,效率会高很多。

DeepTech:传输过程是瓶颈还是找数据的过程是瓶颈?

王绍迪:分情况看。在不同的芯片上,传输路径长度不一样。从存储器里找数的代价肯定很大,传输路径代价也很大。比如从 5 公里外的小区找一个人,他从小区里出来是一段路程,打车过来 5 公里又是很长的时间。

高带宽内存做的事情就是把存储器和计算芯片放近。比如从 5 公里外改成 10 米外隔一条马路的小区,中间路径就变短了。但从小区里找人的代价还是存在的。

从手机或个人电脑来看,找人和传输的代价都很大;从现在的高性能计算来看,从“小区”里找人出来的代价更大一些,传输相对代价小一些。

DeepTech:这个代价体现在什么方面?是性能下降、发热还是延迟?

王绍迪:这些其实是一致的。发热意味着代价大,意味着做工多——人走 100 米和 1 公里做的工不一样。做的工多,走的距离长,速度就慢,性能就下降。这些是同时产生的。

但发热还有一个因素:高带宽内存可能同时有 1,024 或 2,048 条通路连到 GPU 上,手机上可能是 144 根线。高带宽内存之所以带宽高,就是因为连的通路多。同样发热量下,它传输的数据会多一些,因为距离近但并行度高。

DeepTech:苹果把 SOC 和内存一体封装,是不是就是你说的距离变近?华为的超节点用光传输,是不是用光的传输密度来提升效率?

王绍迪:对,苹果把内存和 SOC 封装在一起,距离可能在几毫米的级别。英伟达的 GPU 内存和芯片也是几毫米的级别。

光计算是另一个故事。常规的方式是这个人打车过来 5 公里,光计算可能是坐磁悬浮或高铁。同样五分钟路程,可以从 20 公里甚至 100 公里外到达。光计算的传输速度和密度更大,距离可以远,但消耗的能耗低。

DeepTech:存算一体相当于中间这个路程消失了,找到人之后直接计算?

王绍迪:对。可以理解成原先两个人在某个小区某个单元同一层楼,比如都在五层是邻居,现在做计算要把他俩叫出来到办公室,问一句“吃饭了吗”——因为 AI 里做计算就是乘法加法,很简单,就像问一句话。用存算一体的方式,两个邻居开门问一句“吃饭了吗”,回答完各回各家就行了,甚至都不用出单元门,效率就更高。

DeepTech:所以存算一体是把存储和计算放在一起,计算效率和密度都更高,比苹果的一体封装是更深层次的架构升级?

王绍迪:可以理解成针对 AI 这种计算需求,找到了一个适合它的计算方式。

DeepTech:现在手机都在推 AI 计算,存算一体芯片能用在手机上吗?

王绍迪:手机上还没有。传统芯片架构针对 AI 的计算需求会不断优化,但架构本身如果不是针对 AI 设计的,优化只是小部分改进。比如 CPU 也在优化 AI 计算性能、图形渲染性能,但所有能力始终不如 GPU,因为 GPU 天生就是针对图形渲染设计的,同时也比 CPU 更适合 AI。存算一体本身就是针对 AI 设计的,在效率上会比 GPU 更高。

存算一体的特点是功耗可以很低。目前我们的存算一体芯片已经用在很多消费电子产品当中,比如耳机。耳机平时工作就在几毫瓦级别,在这个功耗下想做复杂的 AI 算法是很困难的。但存算一体可以让几毫瓦功耗下的计算能力比原有芯片高出 50 到 100 倍。我们现在有客户用类似 Transformer 这种大模型算法在耳机上做声音处理。

举个直接的例子:原先耳机的降噪或拾音,需要把噪声识别出来,从声音里抠掉,还原干净的人声。但这类算法有上限,去噪的同时会损失人声,没办法做到彻底干净。现在用大模型的能力做降噪,算法变成:我知道你在说什么,知道你的音色、语气,重新生成一段干净的声音。生成过程中就没有原始噪音了,效果更好。

DeepTech:相当于两个应用场景,降噪是我耳朵听到的噪音降低,拾音是我打电话时降低背景音。

王绍迪:对,这块还有很多场景。声音处理就像图像处理一样,现在都在 AI 化,有识别类的、低功耗识别类的,大概有七八种不同场景,各种各样的算法。

DeepTech:相当于在追求极致功耗的场景下把 AI 运行起来。现在跑大模型功耗特别高,传统架构可能有功耗极限?

王绍迪:对。现在云端跑算法是几百瓦级别,手机能提供的功耗大概几瓦,中间差 100 倍。如果想把同样的算法从云端移到手机,能效得提高 100 倍。这在现有基础上很难突破,20 年前摩尔定律发展很快时,可能十年差不多有 100 倍提升,但现在很难看到未来十年有 100 倍提升了。

DeepTech:摩尔定律是不是已经失效了?

王绍迪:传统意义上的摩尔定律很早就失效了。最近十年大家用各种方式给摩尔定律“续命”,但自从 AI 出来之后,更多是在做架构和工程上的创新,而不是直接 scaling 先进制程。

DeepTech:存算一体目前大概需要多少纳米制造?

王绍迪:存算一体的概念现在比较广泛,我把它分为两部分:近存计算和存内计算。

打个比方,如果在楼外边设一个处理点,人从楼里出来到处理点办事,这叫近存计算——相当于把原先集中办公的地方放到每个居民楼外边。存内计算是不需要单独的处理人员,两个邻居直接对话,这种叫存内计算。

近存计算还是很依赖工艺的,工艺越先进越好,性能会越强,同时要挑战怎么把先进工艺跟存储器工艺更好地结合。目前业界有很多人在做这方面的工作,包括大厂和创业公司,涉及先进集成等技术。

存内计算是更彻底的变化,没有专门的处理单元,计算单元和存储单元本身就是一体的。存储单元只能做简单的乘法加法,但这正好是 AI 需要的。它对芯片工艺的需求跟现有逻辑工艺完全不一样。过去 30 年半导体加工工艺都是针对 CPU 优化,现在可能针对 GPU 优化,让计算单元、寄存器、缓存性能更好,但跟存算一体的需求不同。

存内计算用了很先进的逻辑工艺,并不能带来性能提升,它需要自己的工艺优化方法。我们现在采用的是成熟的半导体工艺,28 纳米及以上,在这个工艺下做存储器的定制,就可以实现存算一体功能,性能也不错。

DeepTech:相当于换了一条赛道。过去卷制程,卷到一纳米之后可能就结束了,现在换一个架构逻辑,用更高制程实现先进计算能力。

王绍迪:可以这么理解。

DeepTech:存算一体是做主芯片还是辅助芯片?现在很多 AI 芯片其实是辅助芯片。

王绍迪:这个问题我一直在想。整个芯片领域中,只有做主芯片才有最大的价值。主芯片可能是吃肉,辅助芯片可能连汤都喝不了。

我们看发展趋势:97、98 年我上小学时,所有游戏都在 CPU 上打,那时候还没有 GPU 或者叫图形加速卡,画面很糟糕。后来出了雷神之锤这样的游戏,CPU 跑不动了,大家就买图形加速卡,这是最早的 GPU 芯片。

GPU 开始是以辅助芯片的形式出现的,因为大部分任务都是 CPU 在管理调度,GPU 只负责图形渲染。游戏打得再多,GPU 都是辅助芯片,因为只做这一个任务。后来越来越多的应用开始用 GPU,包括手机上的图像处理,CPU 要集成一个 GPU,但还是没法替代 CPU。

到了 AI 之后,事情发生了巨大转变。现在数据中心百分之七八十运行的是 AI 任务,不是 CPU 任务了。可以看到,整个数据中心突然转变,以 GPU 为主,CPU 变成调度、数据传输、网络管理的辅助功能了。这个转变就在过去四五年,放到十年前大家都不会想到。

那什么时候在端侧 AI 计算任务会重于其他任务呢?比如机器人的应用,AI 计算任务肯定高于其他类应用,这类任务的主芯片可能就不是现在的 CPU 了,而是以 AI 计算为主的芯片。未来手机操作系统逻辑也可能改变,比如以智能化操作系统为主,甚至让 AI 去管理任务。如果是这种情况,计算需求也不是现在的 CPU 了。

所以很多时候赌的是趋势。云端已经是 GPU 主导的 AI 计算为主了,这个趋势会慢慢下放到 PC 、手机、机器人。机器人毫无疑问会是 AI 主导的计算,计算任务发生变化时,主芯片的角色就会发生很大变化。

DeepTech:你提到 CPU 和 GPU 的比较,有个经典案例是 GPU 打点是一下把整个笑脸打出来,CPU 是一个一个点打。存算一体的通量比 GPU 还高?

王绍迪:对。CPU 一次打一个点,GPU 一次可以打比如 10 万个点——这 10 万个点是从存储器读出来做计算的。存算一体大概可以达到 10 亿个点,就是百倍。

因为存储器从里面读数是由它外围的周长决定的,像一个方形的存储器或 CPU、GPU,所有接口都在边长上。边长比如 10 毫米,就走 10 毫米的带宽。存算一体的意思是,因为 AI 计算是矩阵类计算,如果以边长的形式读数,一次只能读一行出来。GPU 相当于一次读一行,读几万次把 10 毫米乘 10 毫米的存储器数据都读出来。存算一体是一次就把 10 毫米乘 10 毫米里的所有数据都完成计算,不需要把它搬出来再搬进去。

用居民楼来比喻:一栋 30 层的楼只有一个单元出口,30 层的人都要排队出来。GPU 相当于整栋楼有 20 个单元口,一次出 20 个人。存算一体相当于 20 个单元口都不需要了,所有人都并行在做计算,并行维度比 GPU 更高一个维度。

DeepTech:现在用在 TWS 耳机上,未来会用在机器人上,从辅助芯片可能转变成主芯片。在中间的过渡态,是以小功率设备为主还是会逐渐演化到大功率设备?

王绍迪:科技公司要做的事情是不能等需求来了再做。成功的公司都是预判了未来需求的改变,同时做了很多技术研发的提前迭代。英伟达也是在 AI 出来之前,大概 08 、 09 年就开始做 CUDA 做科学计算,AI 真正开始普及到应用是 17 、 18 年左右,英伟达当时特别大的算力芯片是 19 、 20 年左右出来的,大模型是 22 、23 年出来的。

对于存算一体公司来说,我们预判未来会发生变化,知道未来需求是什么,就要做好怎么把现在 TWS 耳机的小芯片一点点做大,性能做得更强,能适应手机、机器人、汽车这些产品。这个过程不是简单把芯片做大,还要针对存储器的特殊工艺做修改和改进,让它更适配性能 scale up。这个过程可能有四五年时间,让技术和发展趋势同步。

DeepTech:技术在发展,市场也在发展,中间有个调和的过程。你提到机器人,今年机器人太热了,分成大脑和小脑。大脑用大模型计算思考,身体做本体控制。现在很多公司大脑和身体是分开的,未来本体上能用 AI 芯片吗?

王绍迪:本质上也可以。拿车来举例,车的大脑是自动驾驶算法,但车的操控、平衡还是传统算法。车在原有驾驶操控类算法上加一个自动驾驶大脑,就能完成自动驾驶。

机器人也可以这样理解:我们现在已经有车了,它有基本的平衡和行走能力,但需要的是把自动驾驶能力开发出来。目前这部分挑战最大,也是未来价值最大的地方。如果机器人只能走,可能只有观赏价值——车还有人开,机器人只能走也不行。如果机器人能做事,大脑要更强。大家现在想把机器人从观赏比赛的机器人,转化成能做有生产力的机器人,所以大脑更重要。

DeepTech:现在机器人不管是比赛还是表演,都侧重平衡能力和运动能力,但核心还是有遥控。把本体架构好之后再做大脑。现在端侧是端云协同,端为辅云为主。如果芯片功率降下来、性能提高了,未来有没有可能纯端侧计算就能完成很多事情?

王绍迪:这不是有没有可能的问题,机器人未来想很好地商用,必须在端侧完成很多事情。云端计算成本其实很低,延时相对也低,一个请求过去可能 20 毫秒就回来了。但机器人为什么一定要端侧完成?

因为机器人如果只是走到隔壁屋这样的任务,可以每秒钟跟云端交互 20 次,每 50 毫秒问一次“我现在怎么走”,云端实时反馈就可以了。但未来机器人用于生产后,是跟物理世界实时交互的:机械手会实时反馈受到的力量,视觉会看到物体怎么移动,皮肤会感知压力……这些反馈之后,大模型要实时生成计算。这时候端到端延时要做到一毫秒级别,没办法在云端做——云端延时做不到这么短。一毫秒是正常操作的机器人,20 毫秒就是一个慢动作的机器人。想让它有生产能力,反馈链路必须越来越短。

端侧现在为什么还要依赖云端?因为没有这样一个芯片能把很好的模型跑在端侧。开发阶段对云端依赖很强,但未来必须是端侧。

DeepTech:相当于做到端侧就是自主决策,不依赖云端。云端链路毕竟涉及通讯过程,延迟做得再短也达不到端侧计算的链路。存算芯片已经用在小的端侧计算上了,但我一直有个疑问:端侧计算、降噪、运动控制,传统架构也能做,只是存算一体做得更好。有没有独特的场景是非存算芯片不可的?

王绍迪:这个问题四五年前我也在问自己。为什么会这么问?因为那时候 AI 算法并不大,算力需求也不大,跟我们刚创业时预判的不一样。我们当时预判 AI 算法会越来越大、性能越来越强,对存算芯片的需求会越来越强。但在 20、21、22 年,算法甚至比 17、18 年的算法还小。那时候端侧芯片成本降得非常低,功耗也非常低。

直到大模型出来,大模型比原先的 CNN 算法基本上大了 1 万倍左右。大模型出来之后,一下就看到端侧芯片跑不了大模型——现有架构跑不了。这时候存算的优势就很大了。

如果做同样规模的芯片,存算芯片在端侧的性能,在大模型之前可能是传统架构的两三倍,现在是 100 倍到 200 倍。手机上想跑云端一样的模型,要提升 100 倍性能不太现实,只能跑弱一点的模型,但成本比云端还高,能力也没云端强。

存算一体的机会就在这里:做成同样成本,可以跑一个性能比云端更强的东西。为什么现在还没有?因为去年才看到这个转变,去年我们才开始 all in 存算一体往更大规模做,往手机、机器人方向做。还有几年的时间。虽然我们当时预判了模型会变大,但也没那么大胆。21、22 年我们跟很多公司聊,美国一家互联网巨头说,你们这个技术应该做 Transformer。但那时候我们觉得 Transformer 没有应用,只做翻译,效果也不是特别好,就没下定决心。到了 22、23 年一看,Transformer 就这么强了。如果早两年做,相当于多了两年提前研发的时间。

DeepTech:我们之前试用 GPT-2 的时候觉得不太行,3.5 出来后才觉得是个大方向。

王绍迪:对,感知是类似的。所以像你刚才的问题,哪些东西是端侧现在芯片做不了我们能做的?当前可能还不好说,但两三年后,当前芯片提升十倍不太可能,存算一体可以把规模从 TWS 做到手机、机器人这个级别。

DeepTech:这中间的过程是科学问题还是工程问题?

王绍迪:两者都有。科学问题是解决能做不能做的问题,涉及很多理论未知的东西。比如 Transformer 的计算范式能不能完全映射到存算一体的计算范式中,这是科学问题。工程问题是怎么把一个 TWS 的小规模低功耗芯片做大,从 2 毫瓦做到 2 瓦,这是 1,000 倍的规模。

科学问题可能花一两年解决,工程问题可能要花五年以上。我们从 17 年开始创业,到第一个芯片量产是 22 年,花了五年多。从去年开始,我们把存算一体在 CNN 上的能力转化到 Transformer 上,有工程和科学两方面的问题。科学问题这两年已经大部分解决了,接下来三年主要是工程问题。

DeepTech:面对工程问题,会有生产问题和生态问题。很多中国产品缺乏生态——开发者是否足够多,生态是否完善。

王绍迪:我觉得生态不是做出来的,不是投入大、有人专门做就能做出来。为什么手机现在用 ARM?ARM 当时刚开始是非常小的公司,国内很多公司把 ARM 买下来,那时候最强的是 x86 的 CPU。但我们看到手机在很小的时候就进入了 ARM 处理器,在 ARM 上长出了很多手机应用,ARM 成为手机的主生态。

操作系统最强的是微软,但现在看不到微软的操作系统在手机上。智能手机刚出来时是 iOS 和安卓,所有应用都在 iOS 和安卓上开发出来的。

AI 为什么现在在英伟达生态上?因为除了英伟达还没有人针对 AI 做芯片,大家都在针对游戏 GPU 、操作系统做 CPU。英伟达提供了一个强大的算力平台,比如市场需求是 100T 算力,英伟达推出了 1 万 T 的平台,大家在 1 万 T 的平台上开发出 1 万 T 的算法,然后有了 Transformer,最终有了大模型。

所以生态是应用长在平台上自然形成的。做成生态的都是第一个在没有需求的时间先把它做出来的东西。如果东西已经做出来了,大家都在这个平台上长出应用了,再想把应用迁移出来挑战是很大的。Windows 我们用了这么久,所有 Excel 、 Office,有很多 AI 工具比它好用,但过去 20 年没有人去切换,因为习惯都在上面长出来的。Office 和 Windows 是在 Intel 的 CPU 上长出来的,我们现在的 PC 也都是 x86 的 CPU 为主。ARM 性能更高,想抢 PC 和服务器花了十几年。

DeepTech:苹果切换 ARM 芯片之后,姿态也很低去吸引开发者。

王绍迪:对,后进入者可能得花十几年、投入超千倍,去抢一个之前只花了半年一年就拿到的生态位。比如安卓比 Windows Phone 只早了半年一年,但就得到了这么大的收益。

很多时候是在最早期的时候,谁先做出一个平台,在上面长出应用,生态就形成了。端侧现在没有大脑,如果能有一个很强的大脑,用这个大脑做出很多产品,生态循环起来就成了。

DeepTech:所以有了底座之后,发展到某个阶段,开发者会自然而然选择某个基座,从而形成生态。

王绍迪:广泛的开发者是很有智慧的,大家一直在试各种平台去开发好应用。如果有一个很好的平台能开发出别人做不到的应用,大家都会涌向这个平台,生态就产生了。对于存算一体来说,我们需要在端侧提供一个远超现在需求的算力平台,大家基于它能开发出非常好的应用,这时候才会诞生生态。

DeepTech:在这个生态上有没有可能长出超级应用?

王绍迪:我觉得很有可能。拉长到十年、 20 年,大家都觉得它会发生。比如十年、 20 年后,我们的操作系统是不是 AI 主导的?为什么当前不行?因为我们跟很多做这方面的人交流——算不动、跑得慢、功耗高、模型跑不大、能力不强,都是现实平台的限制。如果有个东西在 2 瓦功耗下提供云端的能力或比云端更强,大家在它上面开发新的操作系统,能不能出来?肯定有很多开发者愿意去尝试。有人尝试成功了,新的应用、新的生态就会出现。

DeepTech:你认为有没有一个里程碑事件可能会达到转折点?

王绍迪:有几点,但这个判断肯定不准。放到三年前也不一定能判断大模型能做到现在这个程度,未来也有很高的升级空间。

现在大家在端侧的期望是既有记忆能力,又有很强的主动能力——不是我们被动给它需求它才做,而是主动帮我们管理、预判需求、推荐需求。它需要非常强的个性化和记忆能力。

这部分有很多算法研究,但目前可能是在云端场景下,根据多轮对话抽取人的特征,还不是在端侧。端侧一直使用手机去抽取记忆、使用习惯,会很受限,因为存储、带宽、算力要求很高。做不到输入的 token 非常多,可能记半小时记忆就把东西用满了,拉长到一个月、半年能做出什么效果,大家还没法尝试。这是平台和应用开发互补的关系。

DeepTech:相当于可能出现某个里程碑,让 AI 能主动提供服务,真正成为 24 小时工作的 AI 助手。之前我们算过一个账,如果 AI 运行 24 小时,手机可能两小时就要充一次电。如果功耗降下来、算力升上去,AI 可能真的是常驻在工作,无感化的服务,而不是现在的调用式。

王绍迪:对,而且现在调用的时候会把所有计算资源都占满,其他任务就跑不了了。

DeepTech:我的手机用的是华为最新系统,可以后台帮我买东西,但一旦后台在跑,前台应用就非常卡,甚至会杀后台进程,只留一个前台和一个 AI 模型。

王绍迪:对。未来的手机放到十年后,我们希望它是一个个人助理——不是现在 Siri 、小爱这种,而是更了解自己、帮我们完成所有事儿。比如今天早上我迟到了几分钟,它应该在我快到地库的时候,提前帮我发个信息说“我马上到了”。现在我还得停下来发信息。这类主动感知是应该做的。

DeepTech:这可能才是未来的杀手级应用。

王绍迪:对,长期看肯定会发生。我们需要做的就是把技术开发好,让应用开发者有这样的平台去做这些事情。

DeepTech:你是从国外回国创业的,目前来看国内外的合作交流上,你觉得中国跑得快还是国外跑得快?

王绍迪:过去中国在应用上是跑得比国外快的。每一波 AI 技术发展之后,国内应用发展速度都比国外快,这是大家的刻板印象。17、18 年人脸识别落地在国内远远快于海外,这波大模型其实也是这样。但中国已经参与了很多了。

最近两年我看到,不仅在应用侧,在技术推进侧,比如 DeepSeek 这类算法出现,也在慢慢追赶。中国的迭代走出了一条独具特色的道路。现在科学方面是追赶阶段,而且越来越好。应用方面一直保持更快的迭代速度。

从长期角度来看,包括我们跟海外合作者交流,他们也看到我们在很多新技术新应用上的发展速度和需求是快于海外的——可能现在也不是欧美了,就是美国在 AI 上做得更好。很多海外合作方也愿意跟中国企业合作,因为我们能带来应用方面包括技术方面新的指引。

DeepTech:美国社交媒体上在讨论 AI 泡沫问题,有没有可能像 00 年代互联网泡沫一样?

王绍迪:这个不好说,因为 AI 比互联网更技术化一些。互联网泡沫时期,技术发展相对还是比较明确的。如果我们回过头看 2000 年,可能会想为什么有互联网泡沫?互联网那么好。当时大家担心互联网发展不及预期,达不到那个程度。很多时候大家对短期期盼很高,但低估了长期发展。

AI 现在比之前理性了。大家不期望三年就实现 AGI 、三年大家都退休了,但拉长 20 年,这些事情肯定可以实现。即使有泡沫,我觉得也会有很多人在这个泡沫中成为最大的机会——就像 2000 年成立的好多巨头公司都是在互联网泡沫那个时候起步的。

DeepTech:会理性很多,互联网泡沫那波之后反而进入了快速发展阶段。那波是资本推动,现在大家都更理性了。包括 DeepSeek 出来后很多公司估值要重新定价。

王绍迪:对,估值重塑。但很多时候估值重塑反而会带来行业发展的加速,有人亏了,就给更多人看到赚钱的机会,更多人就会投入进去。

DeepTech:你们公司也是今年麻省理工科技评论“50 家聪明公司”的一员,你怎么看这个评价?

王绍迪:都是非常优秀的公司。我们为什么在里面?我觉得是因为我们的人才密度比较高。之前我们每年校招里,大概 85% 是 Top 10 学校的博士,Top 5 的话占了百分之五六十,都是很优秀的。同时整个研发团队过去三年的能力提升也是超过一倍以上的。我们在人才密度上是非常优秀的。

另外还有一点:聪明人需要发挥的地方。我们现在大概 440 多人,这个规模正好适合聪明人发挥。公司不是大公司,但五脏俱全,各个领域都有人。同时我们又在做一个很需要创新的事情,聪明人可以发挥出很多创新方面的能力。交流还很紧密,大家的 idea 交流很充分。所以在这个层面上,我们肯定算是 50 家聪明公司之一。这个榜单从另外一个角度去评价公司,不是以规模、场景或估值,反而更看重潜力。

DeepTech:这也是我们做这个榜单的目标。

王绍迪:对,聪明的公司要在聪明的时间选择对的时间做聪明的事儿,这是更重要的。

DeepTech:你当年回国创业的时候也是博士刚毕业,对现在有志的年轻人有什么建议?

王绍迪:每个时代都有每个时代的机会。如果想要工作,就投入到现在 AI 发展的过程中,这是最好的时代。今年的薪资比去年涨得还高,去年比前年涨得还高,是 AI 快速发展的阶段。

如果是想要创业,我觉得需要再找新的场景。创业肯定不能是在一个行业最火的时候去继续做这个行业,那时候成功率会非常低。要找到下一个可能三四年之后会开始火的行业,提前进入。不要太关注怎么把大模型做好、能力做好,更多应该关注大模型能力很好之后怎么用起来,或者其他领域怎么跟大模型结合,比如健康、生物医药这些。需要对未来有一个预判。

DeepTech:还是需要长期主义和预判。就像你刚开始做的时候,已经早于行业发展。

王绍迪:对,很多研究是在 19 、 20 年才开始做,我们是 17 年成立公司准备做产业化的。

运营/排版:何晨龙

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。