作者 | 杨依婷 赵之齐 刘伊伦
编辑 | 包永刚
上午场深入分享的余韵尚未散尽,GAIR 2025「AI算力新十年」下午场便接续开启,思辨与洞察仍在回响,关于中国智算体系未来走向的更宏大命题,已在会场内外激起新的波澜和期待。
本次大会由GAIR研究院与雷峰网共同举办,于深圳·博林天瑞喜来登酒店隆重召开。作为粤港澳大湾区的AI标杆盛会,GAIR 自创办以来始终致力于连接技术前沿与产业实践,推动人工智能生态的交流、融合与发展。
下午的论坛以为主题,关注的焦点,从“实现0到1的突破”,转向“完成1到N的系统化构建和价值闭环”,算力不再只以内核、生态或架构的单点创新为中心,而是迈向以系统运营、模式创新与价值闭环为核心的全栈竞争。
在这一主题之下,下午的八位嘉宾从学术研究、产业实践、基础设施运营到算力服务模式创新等多个维度展开了密集而深刻的分享。
他们讨论的议题不再局限于单个技术路线或单项产品突破,而是聚焦于一个更宏大的命题:谁能构建未来智算的标准、模式与底座,谁就将在下一代智能化竞争中拥有真正的主导权。
清华大学(深圳)国际研究生院副教授王智:破解工业大模型“数据、成本、算力”三难,以“训推协同”新范式驱动智能制造
![]()
下午论坛的首位嘉宾是清华大学深圳国际研究生院的王智副教授,他从事分布式机器学习、智能多媒体网络、工业大模型与工业具身等方向的研究,带来了题为《工业机理x大模型:行业大模型的系统约束和可控推理的研究进展》的主题演讲。
王智开篇指出,工业大模型是智能制造发展的关键路径。他阐述了当前面临的三大挑战:难以刻画工业场景和流程、难以在算力受限环境训练部署、难以满足工业规范和动态任务,并由此提出需要建立工业机理约束的训推协同范式。
为了回应这些挑战,王智团队将技术体系概括为“四条主线的协同”——工业跨场景数据生成与融合,工业机理约束感知的大模型设计、算网联合感知的分布式训练、数据模型联合优化的任务自适应。
如何破解“数据难”? 团队瞄准工业数据成本高、机理信息缺失的痛点,提出虚实融合的智能数据制备路径。不仅通过高效3D重建与压缩技术构建物理可靠的数字场景,更利用大模型生成和编辑结构化工业场景。IGen框架仅凭单张现实照片,就能在仿真中自动生成上千条机器人操作演示数据,将无人工示教(遥操)的模型成功率从0%提升至75%,为规模化获取工业具身数据开辟了新范式。
如何让大模型“懂行规、控成本”? 在模型设计层面,团队重点注入工业领域的机理与成本约束。他们提出了成本感知的大模型任务规划框架,让大模型在调用工具链时能自动权衡性能与耗时、显存等成本,剔除冗余步骤。同时,面向工业实时决策需求,团队设计了机理感知的调度框架(Trailblazer),通过大小模型协同的路由机制,让大模型“该出手时再出手”。
如何在“弱算力、弱网络”下训练大模型? 针对工业边缘环境算力分散、网络条件差的现实,团队深入分布式训练底层优化。他们提出了可理论分析梯度压缩与延迟聚合影响的虚拟队列框架,以及面向非独立同分布数据的高效稀疏压缩器,确保在受限资源下训练仍能高效收敛。
如何让训练好的模型“跑得快、用得稳”? 他们发现,模型结构剪枝与输入信息过滤是耦合的,因此提出多维度联合轻量化方法(PRANCE),实现动态协同优化。针对具身智能中关键的视觉-语言-动作模型,团队创新性地进行 “时空联合压缩” ,并针对扩散策略模型设计了块级自适应缓存与实时剪枝技术,让“大脑”的思考能跟上“手脚”的动作。
欧洲科学院院士、IEEE Fellow刘向阳:企业AI能力的未来,由数字化底座决定
![]()
欧洲科学院院士、美的首席信息安全官兼软件工程院院长、IEEE Fellow刘向阳,在大会上带来题为《中立云:赋能AI与AI赋能的多云统一数字化底座》的主题演讲,分享了美的在企业级数字化与AI实践中的真实路径。
作为横跨学术与产业的复合型专家,刘向阳如今也深耕企业数字化转型一线。即便身处全球最大的家电企业、世界500强企业之一,他却并不认为“规模”和“技术储备”等同于“AI能力”。
“现在大家都在谈AI,但很多企业并没有真正获得业务价值,根本原因不是AI不行,而是数字化基本功没打好。”在演讲一开始,他便给AI热潮泼了一盆冷水,“如果把数字化比作一栋楼,数字化底座就是地基,地基决定了你这栋楼能盖多高。”
围绕“地基”该怎么打,他直指企业常见的两条路径:自建数据中心,或全面上公有云。前者看似成本低,但现实往往事与愿违,“如果一个 CIO 真能把数字化底座建得非常好,那他其实已经可以去开一家公有云了。”在他看来,多数企业的自建底座仍停留在上世纪90年代的虚拟化技术,技术老旧、产品杂乱、稳定性和安全性难以保障。
“大的故障,基本都是架构和体系的问题”,他尤其强调了架构问题带来的系统性风险。在很多企业的数据中心里,业务系统之间无法有效隔离,“一个系统被攻破,可能就是全军覆没。”
而公有云看似先进,却又带来了另一组难题:多云几乎是大型企业的必然选择,美的目前使用的云超过8朵,但彼此之间互不兼容,且迁移难、联动难,最终形成云孤岛、数据孤岛。”在业内,跨云迁移半年起步已是常态。
正是这样的背景下,刘向阳带领美的选择了一条“自建云能力”的路径。他介绍,美的构建了一整套云计算能力,从IaaS到PaaS,从AI算力平台到DevOps、安全体系,既能部署在自有数据中心,也能部署在公有云之上,且不同平台之间的应用迁移不需要做任何业务改造。
在AI层面,这套底座直接决定了算力效率和成本。“如果没有AI算力平台,GPU利用率可能只有10%;有了之后,至少能提升4到5倍。”并且,在模型使用上,美的通过统一的AI网关,实现了多模型接入、权限控制、审计和计费,让AI能力真正嵌入业务系统,而非停留在实验阶段。
并行科技副总裁,AI云联创始人赵鸿冰:算力服务的关键是成为用户的“专属车手”,让每一分算力都产生价值
![]()
北京并行科技副总裁、AI云事业部总经理赵鸿冰带来了题为《基于用户视角的算力服务及算网服务》的演讲,从算力服务提供商的角度,阐释了如何让算力从“资源”转化为真正驱动业务的“生产力”。
报告开篇,赵鸿冰指出,并行科技研发了“ParaSelect”性能预测与智能选型系统,可基于应用运行特征分析,为用户推荐性能最佳或性价比最高的算力平台。
为此,赵鸿冰分享了多个优化案例,例如通过深度优化将某客户1300亿参数大模型训练的GPU利用率从75%提升至95%,整体效率提升40%,显著降低训练成本与时间。在国产算力支持方面,并行科技也积极投入,例如在昇腾910平台上通过适配优化,使Llama2-7B训练性能达到A800的92.8%,性价比达1.23倍,展现出国产算力在大模型场景下的可行性与竞争力。
如何从用户的需求视角来思考算力服务运营的思路?
赵鸿冰提出三个关键维度:可用、好用、降本。即用户需要算力时,平台能提供可运行且满足业务要求的算力,同时要保证高效使用,并具有良好的性价比。
赵鸿冰通过几个形象的比喻,清晰梳理了当前算力市场的不同业态。他将算力租赁比作“长期包车”,用户租用算力后自行支配使用方式;算力服务则如“专车”,按用户具体需求提供定制化服务;算力运营则类似于“多车型调度平台”,可灵活调配各类算力资源;而算力网络则是更上层的“全国调度平台”,将多个运营平台整合为一张统一的算力网络,实现跨平台、跨区域的资源协同与智能调度。
为实现这一目标,并行科技构建了“厂网结合”的运营模式,不仅依托自建的庞大算力集群,还接入了全国47个智算中心与15个超算中心,总计管理超200万CPU核心与5万GPU卡,形成庞大的资源池。
演讲最后,赵鸿冰引用《中国算力发展指数白皮书》的数据强调了算力的经济价值:“在算力中每投入1元,可带动3-4元的经济产出。”他断言:“毋庸置疑,AI将是推动接下来10年发展的核心驱动力,而算力是基石之一。”
清程极智联合创始人、产品副总裁师天麾:MaaS爆发背后,还需填补供需端信息差
![]()
随后,清程极智联合创始人、产品副总裁师天麾,在大会上带来了题为《智能算力的适配、优化和服务》的主题演讲。
在演讲开篇,师天麾便直指当前算力市场面临的一个共性瓶颈:为什么算力买下来后,却不好用?
“虽然大家买的是硬件,但真正用的其实是软件”,这是他在与客户交流中反复强调的一句话。在他看来,决定算力能否真正释放价值的关键,在于横亘于芯片与应用之间的那层软件,尤其在推理算力爆发的现在,推理引擎尤为重要。它不仅决定模型能不能跑,更决定能否跑得稳、跑得值。
推理引擎并非一个可以轻易“拼装”的模块。师天麾解释道,一个完整的推理引擎涉及算子层、并行计算、PD分离等多个层级,任何一处改动,都会牵一发而动全身。因此,推理引擎的设计是一项系统工程。
当算力能够稳定、高效地跑起来之后,新的问题随之出现:如何把能力真正变成可用的服务?在师天麾看来MaaS是下一个必须重视的方向。
他指出,今年MaaS迎来了明显爆发,其核心优势在于门槛低、成本低、迭代快,“一次大模型调用,可能只需要几分钱,甚至一分钱不到”,再加上中国拥有全球最活跃的开源模型生态和庞大的开发者群体,他对MaaS的长期前景保持乐观。
但现实同样存在痛点。当前MaaS市场中,不同厂商的能力指标高度不统一。即便在模型相同、价格相近的情况下,不同云厂商之间的吞吐与延迟差异,仍可能达到五倍之多;而在需求侧,不同用户对稳定性、延迟、成本的关注点也并不一致。供需之间,存在着巨大的信息差。
围绕这一问题,师天麾介绍了清程极智的另一款核心产品——AI Ping一站式大模型服务评测与API调用平台,以“让大模型调用更快、更稳、更省钱”为目标,通过标准化测评机制,帮助用户更清晰地理解不同MaaS服务的真实能力。
在国产算力逐步铺开的背景下,这些从软件底层出发、耐心补齐基础能力的实践,正悄然改变算力被理解、被选择、被使用的方式。
鼎犀智创联合创始人吕海峰:以“干湿结合”闭环攻克AI+新材料数据瓶颈,让算力从基建走向产业价值
![]()
论坛的最后一位嘉宾,是鼎犀智创的联合创始人吕海峰,以一位“算力老兵”的独特视角,带来了以《科学智能驱动的新材料设计研发》为题的演讲分享。
他从个人经历切入,回溯了从参与建造国内首台T级超算开始,到推动算力服务商业化,最终投身“AI+新材料”领域的从业历程,并犀利地指出核心问题:“建了这么大的算力,到底谁来用?怎么形成真正的产业价值?”
最终,他找到了答案——将AI与算力深度融合,应用于新材料的设计与研发。
吕海峰指出,材料科学已步入“AI for Science”的第五研发范式。传统模式依赖试错,周期长达十数年,成本高昂,已无法满足新能源、半导体等战略产业对创新材料研发的迫切需求。以美国最新发布的“创世纪计划”为例,AI加速科学突破已成为全球核心战略竞争点。
尽管前景广阔,但落地之路不仅需要强大的算力平台,更需要材料领域专业方向的大规模高质量数据基础,否则AI模型成为“无米之炊”。
为解决这一根本矛盾,鼎犀智创提出了“模型+实验”的干湿结合闭环研发新路径:首先用AI大模型进行分子设计与配方建议;再通过模拟仿真进行高通量虚拟筛选与验证;最终驱动全自动化实验平台进行合成制备与表征分析。这一过程不仅可以产生标准化、高质量的真实实验数据更能实现实时反馈与迭代优化,形成自我强化的智能循环。
吕海峰强调,这不仅是一个技术闭环,更是可持续商业模式的基石——通过提供从行业真实需求输入到新材料设计、工艺包交付输出的“端到端”研发服务,成为客户真正的研发伙伴,是跨越从实验室到产业化之间鸿沟,实现产业化落地的必由之路。
目前,鼎犀智创已将此理念付诸实践。他们以纳米碳材料为切入点,形成了以材料大模型、智能化合成制备平台为代表的系统化产品服务能力,已经成功发现了多种新型催化剂并显著提升了制备效率。同时,在与行业头部企业的深度合作中,这套体系已已经成功将客户的真实实验效率提升数倍,显著缩短了研发周期。
圆桌对话:如何从 “算力基建” 到 “价值闭环”?
![]()
下午4时,“如何从‘算力基建’到‘价值闭环’?”圆桌论坛在三丰投资创始合伙人李东东主持下开启。李东东携清程极智联合创始人师天麾、朗擎数科CIO徐永昌,从投资视角与一线实践出发,围绕算力产业发展阶段、价值瓶颈及突破路径深度研讨,碰撞产业核心洞见。
李东东在开场中直指行业核心痛点:当前算力赛道热度高涨,但核心问题突出。信通院数据显示,不少智算中心算力平均利用率不足40%,且大模型训练退潮后,增量需求转向分散破碎的推理侧,算力消纳成为行业通病。在此背景下,两位嘉宾首先就“算力产业当前所处阶段”分享观点。
师天麾表示,如今的算力建设已告别“先建后用”的粗放模式,转向“性价比优先、场景倒推建设”的新阶段。他强调,建设前需明确用户群体与使用场景,不同模式直接决定硬件选型、组网方案与软件平台的功能设计,算力建设正从“可用”向“好用、高性价比”加速升级。
徐永昌则将今年算力发展分为两个阶段:上半年以DeepSeek-R1开源为标志,中文数据优势与高质量数据集构建成为国产大模型追平国际水平的核心;下半年垂类模型与Agent应用爆发,华西第二医院通过构建专科医生高质量数据集,训练的AI分身使医生日接诊量从10人提升至30人。
围绕“算力价值闭环的核心标志与关键条件”,师天麾认为,算力作为基础设施,价值核心在于“方便、易用、便宜”,他重点推崇MaaS模式。该模式通过技术优化实现底层硬件与模型细节“透明化”,用户可低成本调用算力,供应商则通过大规模并行、PD分离等技术压低成本,形成“技术优化-成本降低-用户增长-利润提升”的正向循环。
徐永昌则直言,价值闭环的终极标准是“让客户用AI赚到钱”。他以成都某房地产服务企业为例,该企业通过AI工具提升成交量,后续因数据安全与成本需求采用浸没式一体机本地算力方案,印证“解决痛点、创造收益,才能让客户持续付费,而非单纯售卖硬件”的核心逻辑。
谈及行业价值转化瓶颈,师天麾认为,MaaS模式兴起改变行业盈利逻辑,技术实力成为核心竞争力,其价格战背后是软件优化带来的成本优势,技术越强则利润率越高。徐永昌从三个维度给出判断:一是基座模型能力仍需提升,需实现“大模型能力向小模型迁移”;二是算力架构需升级,超节点高速互联方案可大幅降低模型训练成本与时间;三是高质量数据与行业专家资源稀缺,二者是垂类模型成功的关键,三者需系统性解决,否则行业仍会“热闹但不实用”。
展望未来,师天麾认为,2025年将是中国AI从训练向推理转型的关键年,MaaS市场持续壮大;2026年,推理市场与国产化进程将加速推进,“方便、好用、便宜”仍是核心趋势。徐永昌则用“推理”总结2025年,用“国产”与“液冷”定义2026年:随着发改委对智算中心PUE≤1.3的要求落地,国产芯片与液冷技术的适配将成为关键,2026年将成为二者爆发的元年。
李东东在总结中指出,本次论坛理清了算力产业核心逻辑:既要突破技术瓶颈,也要破解产业难题,更要锚定“算力+应用”本质,把握推理需求爆发窗口期。智算的未来不仅由技术定义,更由价值闭环的商业模式与跨域协同的产业生态决定,算力新十年的篇章,将是技术跃进、生态共荣与价值普惠的共同实现。
伴随着论坛议程的结束,一场聚焦于智算体系构建的务实探讨也画上了阶段性句号。
与追问某个特定定义者相比,论坛更重要的贡献在于厘清了“定义权”所依赖的基础要件与生成逻辑。
本届专场下午的讨论,以扎实的运营实践与模式创新案例,将宏观命题落地为可分解、可行动的体系化思考,展现了其推动产业理性前行的一贯力量。
“定义未来”,其本质是构建标准、塑造范式、主导价值分配的过程。而中国智算未来的定义权必然归属于一个能够高效整合算力资源、持续产出普惠服务、并最终在各行各业形成价值闭环的先进系统与成熟模式。
以此为新的基准,我们呼吁从技术协同、商业设计到政策引导的全链条创新,共同浇筑这一系统性能力的基石。
智算的未来形态正在实践中被塑造成型。
让我们携手,不仅预见未来,更以扎实的构建,成为定义未来的一部分。





京公网安备 11011402013531号