当前位置: 首页 » 资讯 » 新科技 » 正文

鄂维南院士:回国五年,我的探索与思考

IP属地 中国·北京 知识分子 时间:2025-12-02 20:11:55


鄂维南,中国科学院院士,北京大学数学科学学院教授。图源:上海

撰文|鄂维南

到今年九月,我全职回国已经整整五年。

这五年间,我同时推动了AI for Science、 data-centric AI基础设施建设,自主可控的工业软件和工业智能的开发,以志愿者身份参与创建交大人工智能学院,并尝试构建一个高效率、高水平的科技创新机制。

做这些事不是为了个人的科研,而是希望推动我国在最核心的技术方面实现自主可控,在未来最重要的发展方向上能够抓住千载难逢的机会, 在智能化时代率先找到最有竞争力的人才培养和科技创新机制。

这些任务中的任何一项都极为重要,更不要说以个人的力量同时推动几个事情,难度是可想而知的。除了我的几个学生,没有人理解我为什么同时做这么多事情,我也无法向别人解释。

让人欣慰的是许多事情都已经开始开花结果。更让我感到惊喜的是,它们正走到一起,成为我们“终极目标”的核心组成部分。但回想起来,在具体推动这些事的过程中,一些实际做法大大增加了国家层面失去重要机会窗口的风险,这里面的经验教训值得认真总结。

另一方面,从大学时代起,我就有一个科技强国的梦想。为了这个梦想,我改行做应用数学,之后又探索了几十年。我在许多关键战略认识和战略部署上都走在了时代的前沿,后面的发展也多次证明这些认识和部署是正确的。

但前沿性的认识并不意味着它能够产生实际效果,其核心是在一个习惯追赶的大环境下,能不能建立起一个有效支持领跑的机制,这样的机制在科技创新进入快车道的智能化时代是不可或缺的,也是实现科技强国的重要组成部分。

如何建立起这样的机制?这也是我这几年一直在思考的问题。这篇文章简单总结了我这几年的经历和对上述问题的一些探索和思考。

此外,写这篇文章还有一个目的,是想解释一下这几年来我的一些做法,包括:对同事,为什么我不得不在上海和北京之间跑,多多少少辜负了你们的希望?对朋友,为什么许多会议、活动和聚会我都参加不了,以至于落下不食人间烟火的名声?对身边的年轻人,为什么我对你们要求这么高、这么严,以至于在许多人眼里我最主要的工作就是“鞭策”?这些问题一直是压在心里的石头,不吐不快。

此文将会分成上下两篇,上篇主要谈迟到的回国、AI for Science、工业软件和工业智能和Data-centric AI基础设施建设四个部分。

下篇会讲到交大人工智能学院、为什么没有能够集中精力做一件事、建立起一个适应智能化时代需求的科技创新机制和我的一点感悟。

迟到的回国

2020年9月17日,我乘坐东航的班机回到了上海。

我很清楚地意识到,这次回来之后,再回美国就不容易了。所以回来之前,我特地到Fine Hall,和我特别喜爱的办公室、普林斯顿大学数学系和PACM(Program in Applied and Computational Mathematics)作了告别。我在这里工作了21年,真的是特别喜欢这里的工作环境和学术氛围。因为是疫情期间,老师和学生都在家里办公,所以整个过程没有碰到其他人。

在上海的隔离期间,我做了三件事情:给普林斯顿大学数学系和PACM写了辞职信;给四个朋友发了我在飞机上写的“落地信”,信中讲了我的一些设想和工作计划;学会用PPT准备了一个题为“数学、科学与人工智能”的报告。这是一个在脑子里已经盘绕了三年,被我称为“科学史上最ambitious的计划”。

两周之后,十月一号的晚上(当天也是中秋节),我赶到交大闵行校区,在第二天的“文俊论坛”上做了这个报告。

其实我1985年出国的时候,就是冲着回国去的。为此,我做了一件被许多人认为很愚蠢的事情:把F1签证(自费)换成了J1签证(自费公派),还因此耽搁了UCLA数学系的部分博士资格考试。

我职业生涯中最关键的时间节点是1982年的寒假。回科大前的最后一天,我决定放弃纯数学,改行研究应用数学,目的是让我的工作能够直接应用于社会,能够直接帮助到我的国家。由于数学界普遍认为中国的应用数学不太行,所以我一定得到国外去学。

后来的事实证明这的确是一个极其天真的想法,因为一直到三十年之后,我都没有觉得我的工作真的有用。我职业生涯的大部分时间都处在表面上一帆风顺、内心里充满疑虑的状态。的确我的工作也有许多人用,但是他们的工作似乎离实际问题还有很大距离。

记得2011年的夏天,我交付了“Principles of Multi-scale Modeling” 这本书的最终版本之后,躺在北大资源大厦办公室的沙发上,觉得这一辈子应该是做不出真正有用的原创性工作了。既然大数据很重要,我自己也呼吁了许多年,就改行做大数据吧。

真正彻底下决心改行是2014年。从2004年开始我就在国内呼吁大数据算法的重要性。我本人的专业是科学计算中的算法。在当时,这是两个距离很远的不同领域(现在它们很近了,部分原因也是来自于我本人的工作),所以我自己并没有下决心改行研究大数据算法,而是希望其他相邻领域的专家们重视起来。

但是呼吁了十年,组织了很多会议、讨论班,效果甚微。到2014年,大数据已经开始红火起来,而大数据算法研究在国内却比较冷清。我感到没有别的办法,只有自己彻底转行,研究大数据中的算法。

这个经历是到目前为止我职业生涯中最大的教训:一件事情如果真的重要,就应该自己去做。希望年轻人不要犯同样的错误。

研究大数据算法,具体来说就是研究机器学习。很快我就发现,机器学习研究的问题跟我的老本行计算数学研究的问题其实是很类似的,都是函数逼近(有监督学习)、概率分布的逼近和采样(无监督学习或者生成式人工智能),以及解方程(强化学习)。

但有一个重大区别:例如同样是图像问题,计算数学圈子里只研究单个图片的处理,如压缩或去噪,而机器学习圈子里讨论的却是图像识别这种涉及到整个图像数据集的问题。前者是二维问题,后者是我们想都不敢想的极高维问题,原因是“维数灾难”(计算复杂度随着维数的增加而指数增加)。难道做机器学习的人有什么魔术?很快我意识到,深度学习很可能提供了克服“维数灾难”的有效路径。

这是我职业生涯中最重要的顿悟,因为它意味着我们可以重塑数学和科学。从数学的角度来说,我们通常研究的要么是低维空间的数学,如泰勒展开,要么就是无穷维空间的数学,如泛函分析。高维空间的数学结构是一个极其宏大的新课题。深度学习和人工智能赋予了这个问题非常重要的实际意义。如果我们生活的空间不是3维而是30维,那么我们一开始就不应该学习多项式和泰勒展开,而是神经网络。这意味着我们应该围绕高维情形重构数学。

从科学的角度来说,以前困扰我们的许多问题,其本质困难都来自于维数灾难,这在科学计算领域尤为明显。在这一点上我的感受可能是最深切的。在我几十年寻求有实际应用的原创研究课题的探索中,我尝试了许多不同的领域。我在中科院学的是计算数学,到UCLA之后学习计算流体力学,然后又转行到材料科学、计算化学、化工、生物学等等。我研究过地球的磁场、太阳表面的对流、磁约束的核聚变、复杂化学反应的理论和计算、超导的理论模型等多种多样的问题。可以说除高能物理和量子信息以外,很难找到一个理科或工科中的主要理论和计算问题,我没有花功夫研究过。而所有这些问题最终的难点都来自于“维数灾难”。既然深度学习可以帮助我们解决维数灾难问题,那么它必将改变我们做科学研究的方式方法。

2017年春天,我开始清楚地意识到两件事情:

人工智能将带来广泛的影响。因为AlphaGo背后的原理是具有普适性的,它可以被应用到所有需要决策的场景,而决策是人类最重要的事情。

科技战已经不可避免,我们要为应对科技战做准备。2017年夏天的一个晚上,我一边看着电视,一边思考着这些问题,脑子里逐渐梳理出三个清晰的方向:一是作为人工智能的基础,我们必须构建处理“非结构化数据”的基础设施,把门槛和成本降下来。二是人工智能方法将全面改变我们的科研范式,这是一个前所未有的机会,如果中国抓住了这个机会,它很可能可以帮助我们一下子走到领先的位置。三是作为一个制造业大国,我们必须构建自主可控的制造业基础设施——工业软件和高端装备。当时觉得高端装备方面我无能为力,但是工业软件的任务必须扛下来。突然之间,我意识到我的科研不仅有用,而且比我设想的还更加有用!

十年推动大数据算法而效果甚微的教训让我意识到,与其花精力去说服其他人,还不如下决心带领年轻人把这些事情都做起来。但突然间这么多任务一下子压过来,我内心深处感受到巨大的恐惧,那种恐惧感至今难忘。

其实当时还布局了第四个项目:宏观经济的精准和精细预测。从经济发展的角度来说,最让人担心的就是宏观层面出现大起大落,它不但影响到经济体系的运行,同时也影响到消费者和生产者的信心。精准预测能够帮助我们避免许多系统风险。过去由于受方法和数据的限制,我们很难做到精准精细预测。在大数据和深度学习时代,情况不一样了,我们可以通过整体建模,利用大量弱信号,来对宏观经济作精准精细预测。这是一个非常值得做的事情,我们也做了很多探索,我坚信这是可行的。但由于种种原因,尽管花费了不少精力,这个项目已经被暂时搁置了。

2018年北京大数据研究院的三周年庆典上,我的三个学生,邰骋、张林峰、杨雨成,分别就上面四个题目中的三个做了报告。这些报告没有引起注意,但它们的内容是很有前瞻性和原创性的。

AI for Science

推动AI for Science,得从培养学生做起。

2017年春天,韩劼群和张林峰已经在分子动力学方面做出了一些非常好的结果,但是系统推进深度学习在各个领域、各种科学计算问题中的应用,还需要更多人的参与。2017年圣诞节的时候,我召集了我研究生涯中唯一一次全员组会,跟学生们讲了两方面的事情:一是人工智能之于数学,之于科学和之于中国,它意味着什么?二是人工智能赋能科学研究带来的机会,只有一百年前量子力学被发明的时候可以比拟。

2017年底,张林峰和王涵推动成立了DeepModeling开源社区,用于交流人工智能赋能科学的算法方面的成果。

2018年夏天,汤超和我在北大组织了“AI for Science” 内部交流会议。这很可能是国际上第一次使用“AI for Science“的说法。会后我拉着张平文一起去见林建华校长,建议在北大成立 “AI for Science” 研究院。林校长对这个建议很支持,认为是将来可以“批量出诺贝尔奖”的方向。他还给我们出了一个难题:这个研究院的中文名字应该叫什么?但林校长不久就退休了,这个建议没有得到落实。

2018年我还鼓励张林峰和孙伟杰成立了深势科技。当时有两个目的。一是推动真正落地,二是通过企业的融资获得必要的资金支持。考虑到我整合资源的能力有限,又有许多基础性工作需要完成,后面这一点是必要的。几年下来,深势科技对推动中国AI for Science的发展的确起到了不可替代的作用。

我回国之后的一件重要工作就是宣传人工智能对科学研究将会带来的整体影响。我走访了交大、复旦、科大、北大和清华等五所高校,给学生宣传AI for Science,又组织了机器学习线上讨论会,取得了一定的效果。

但真正有帮助的是另外两件事情:一是2020年底在北京市的支持下组织成立北京科学智能研究院。这是国际上第一个以 “AI for Science” 为主题的科研机构。二是2021年国家自然科学基金委交叉学部立项“可解释、可通用的下一代人工智能方法”重大研究计划,这是国内第一个系统支持AI for Science 的研究计划。这两件事情都是在AI for Science 还没有得到广泛认可的情况下做起来的,它充分体现了相关领导的前瞻性眼光。

几年下来,AI for Science 已成燎原之势。今年8月份国务院出台的“人工智能+”行动意见高度重视人工智能赋能的科研范式变革。国内涌现出了一大批非常有潜力的年轻科学家,他们积极参与到了AI for Science 的浪潮之中。一些资深的科学家们也积极拥抱AI for Science, 用人工智能方法推动相关领域的根本性变革。

8月中旬,丁洪、汤超和我一起在大理组织了一个AI for Science的会议,这是一个具有极高水平的前瞻性学术讨论。我们非常欣喜地看到一批极具创造力的年轻人站在讲台上,为听众勾画出人工智能赋能下他们各自领域的未来。

我推动AI for Science的核心目的是利用人工智能带来的机会,率先推动我国整体科研和研发范式的改变,而不仅仅是解决几个亮点问题。

要实现这个目标,最重要的就是建立新的基础设施。科研和研发依赖的方法和工具无非是文献或已有资料,理论或计算,最终是实验,这些工具是科研效率的关键因素。过去我们读文献和学习资料的能力非常有限,理论和计算方法难以处理实际场景的问题,实验往往是靠经验和试错,加上作坊式的组织形式,使得科研和研发的周期长、效率低。人工智能的赋能,能从很大程度上帮助我们突破这些瓶颈。

这些突破意味着我们可以建立起一整套新的科研基础设施。我们从一开始就把工作重心放在基础设施建设上。先是从计算工具入手,又逐渐拓展到文献和实验工具,并形成了“四梁N柱”的架构。

经过几年的努力,我们已经建立起了一套比较完整的基础设施,张林峰、李鑫宇、孙伟杰等年轻人把它命名为“玻尔科研空间站”。用玻尔的名字,是因为玻尔是量子力学的先驱者——先有玻尔,后有薛定谔。玻尔空间站已经被全国最顶尖的高校广泛采用。在此基础上,上海交大人工智能学院、深势科技和上海算法创新研究院一起开发了第一个真正意义上的科学基座模型Innovator 和科研智能体SciMaster。尽管它们没有玻尔空间站完善,但我相信它们不久也将会被科研工作者们广泛使用,并成为新一代科研基础设施中不可或缺的一部分。

应该说,在AI for Science基本设施的布局上,我们是比较超前的。国外一直到刚刚出台的“创世纪计划”中才真正认识到基础设施的重要性,其主要思路也基本上沿用了我们一直在推进的路线。不过创世纪计划的力度还是相当可观的。

跟大模型情况不太一样,我国AI for Science的发展走了一条相对比较独立的路径。目前已经初步形成了一个完整体系:玻尔空间站和SciMaster两大入口级平台;以科大机器化学家和嘉庚实验室大设施为代表的规模化、自动化实验装置;以及以植物星球、材料基因组工程、药物设计、数字细胞、人类蛋白组计划、有机合成、智能化仪器设备、催化、民用航天发动机、核聚变等为代表的典型应用场景。智能化改造已经成为许多理论和实验团队的刚需。最为令人欣慰的是一大批年轻人成为了骨干力量,他们正在用他们的工作来改变他们所在的领域,许多人在各自的领域中已经走在了国际前沿。

随着基础设施的逐渐成熟和AI for Science理念的高度普及,AI for Science 的重点应该回到科学问题本身,科学家应该成为主要推动者。另一方面,生产力的提升必将推动生产关系的改变。人工智能时代的科研组织形式应该是什么样子的?这些问题将会成为AI for Science 发展的中心问题。

在推动AI for Science的过程中,我们得到了许多人的支持。这里就不一一把他们的名字列举出来,但是我从内心里感激他们。

随着AI for Science 逐渐成为新的热点,许多令人担忧的事情也开始出现。最为令人担忧的是资源配置的不合理,例如,许多有能力的年轻人并不处在有利位置,而他们才是推动AI for Science发展的主力军。资源的错误配置带来的不仅仅是资源浪费,还有可能是方向性的误导。

我个人坚定地认为,AI for Science是中国科技创新历史上最好的机会,没有之一,但这是以理性的资源配置作为前提的。如果我们不迅速解决资源配置的问题,我们将失去这个千载难逢的机会。

工业软件和工业智能

对中国这样一个制造业大国来说,工业软件是基础中的基础,核心中的核心。就我从事的科学计算领域来说,最直接的应用就是工业软件。所以工业软件是我最早注意到的应用场景。但软件实在不是我的强项。十几年前我就开始找人讨论工业软件的问题。由于各种原因,这些讨论都不了了之。2017年,我意识到工业软件的问题已经不能再等了,就找到科大的杨周旺教授,建议他立即着手开发工业软件的几何内核。他当场表示,他退休前一定要把几何内核搞定。

几何内核是工业软件的基础。我国计算几何方面的人才比较缺乏,愿意下决心做出商业上可用的几何内核的人更是寥寥无几。而我国在微分方程求解(即CAE的核心)方面的人才比较多。所以如果几何的问题解决了,我们就不太怕断供了。

八年下来,杨周旺带领开发的九韶内核已经发布了五个版本,成为国际五大商用几何内核中的一个。三百多万行的代码都是他们团队自己写的,基本覆盖了商用内核需要的所有功能。九韶内核已经被应用到许多场景,包括飞机、汽车在内的高端应用场景。现在九韶团队的工作重心已经转移到如何在九韶内核的基础上开发CAD、CAE、CAM等软件,建立“九韶生态”。

制造业的另外一个根基是机床。机床有硬件和软件部分,其中高端数控系统仍然是一个卡脖子问题。经过一段曲折的过程,我们和通用技术集团机床工程研究院上海分院形成了合作,开发高端数控系统。现在算法方面的工作已经基本完成,也开发了数控系统原型,并完成了初步的加工测试。这得感谢通用技术集团的支持,也得感谢我的学生和博士后胡卫、龙吉昊和赵振华。他们从零开始,顶着发表论文、争取帽子、前景不明等多种压力,全身心地投入到这项工作中。胡卫和龙吉昊从普林斯顿大学回国的时候,没有提出任何要求也没有安排好的工作在等着他们,只是抱着为国家做事情的决心。另外一个学生杨泓康也是这样,他们的精神真是让我感动。

工业管理智能化是制造业的另外一个新的发展空间。它同样是一个困难问题,因为制造业场景多种多样,而且异常复杂。顾敏洁带领的品见团队抱着把每一个项目都挖掘到极致的态度,啃了一个又一个硬骨头,现在终于开始摸索到一条比较通用的技术路径。

经过这些基础性工作,推动AI for Manufacturing的条件已经开始成熟。我自己也会把更多精力放到这个方向上来。这是解决我国高端制造业难题的极好机会。

Data-centric AI 基础设施建设

十年前,我牵头组织了一个“非结构化数据分析”973项目。这个过程让我充分认识到,非结构化数据(例如文本、图像、语音、视频)是人工智能发展的核心资源也是核心困难,非结构化数据处理的成本和门槛是人工智能能否成功落地的关键。

与此同时,邰骋和汤林鹏在指纹识别方面取得了革命性突破。他们在少量人工标注数据的基础上,利用基于深度学习的特征提取和迭代改进(我把这个想法称为“墨奇算法“),使指纹识别的效率和准确率有了几个数量级的提升,帮助有关部门以极低的成本建立起了几十亿级指纹管理的大库。

我们很快意识到,上述方法不仅适用于指纹,它其实适用于一般性的非结构化数据,其核心是构建一个非结构化数据库(现在通常被称为AI数据库,向量数据库是一个特例),它能够在同一个系统中管理各种不同模态的数据,并进行高效率联合查询,比方说用语言搜索图片或者用图片搜索图片。这之前已经有了向量搜索工具,但还没有完整的向量数据库,更别谈一般性的AI数据库。邰骋和汤林鹏带领的团队在国际上最早提出AI数据库的概念(2018年)并开发了第一个AI数据库。这是一个了不起的贡献。

有了这样的数据库,我们就可以低成本、低门槛地开发满足特殊需求的AI模型,例如许多任务只需通过简单的搜索就完成了。有了许许多多这样的小模型,我们只需要一个操作系统来管理和调度这些小模型就可以了。2020年我们就开始推这样的框架。这其实就是现在智能体的应用框架,只不过现在的框架都是基于大模型底座的。

大模型的兴起表明人工智能创新的重心由模型逐步转向数据。在以模型为中心的时代,AI行业建立起了一整套相应的基础设施,如TensorFlow这样的工具,它让我们能够低门槛、高效率地探索不同的模型架构。TensorFlow出现之前我们探索不同的模型架构只能靠人工、靠经验、靠试错。现在在数据方面的探索就是这样。这个成本极为巨大,也·是人工智能在企业落地的最大障碍。要解决这个问题,我们就必须建立起一整套数据层面的工具平台。这是张文涛团队开发DataFlow的出发点。DataFlow可以让人们像用TensorFlow 玩模型一样来玩数据。它对人工智能工具开发的平民化和人工智能在企业的落地都会起到关键作用。

AI 数据库和DataFlow 这样的工具平台将成为数据方面的基础设施,就像GPU、 CUDA和TensorFlow等一起组成了算力层面的基础设施一样。现在大家对算力层面的基础设施有了充分的认识,但对数据层面的基础设施还缺乏足够重视。

篇幅所限,上篇暂告一段落。下篇将于近日推出,敬请期待。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。