11月4日,由中国信息通信研究院组织召开的“存力中国行”北京站在信通院顺利举行。活动通过座谈会和实地调研的形式,深入探讨AI时代下先进存力赋能AI大模型发展的支撑作用。
中国信息通信研究院首席专家石友康出席研讨会并致辞,中国信息通信研究院云大所总工程师郭亮主持。中国移动云能力中心项目总师周宇,华为数据存储产品线战略与业务发展部总裁王旭东,北京硅基流动科技有限公司解决方案总监唐安波发表主题演讲。
![]()
当前,AI推理在各行各业大规模使用,大模型数量开始收敛,推理应用快速增长,Token调用量爆发式增长,推理成本持续攀升。进入“大模型落地元年”,各行各业不再满足于拥有一个庞大的模型,而是迫切需要将模型能力无缝融入到实际业务场景中,如投研分析、卷宗分析、智能客服、医疗影像辅助诊断等。这些场景对Token的消耗越来越大,特别是在AI推理的性能指标中,都是以“Token数”为量纲。AI的到来意味着“Token经济”的时代也到来了。近两年AI技术快速发展,当前虽已在文档处理等场景体现价值,但仍需解决推理效率、存力等突出问题,而存储对大模型训练与推理效果至关重要。
座谈会上,石友康深刻阐述了当前AI规模化应用推进,推理环节的成本、效率、质量问题凸显,先进存力成为提升AI推理效能、控制成本的关键。当前,国家高度重视先进存力发展,在《算力基础设施高质量发展行动计划》等政策中明确提出“加速存力技术研发应用”、“持续提升存储产业能力”、“推动存算网协同发展”,为产业发展指明了方向。信通院在政策研究、标准制定、测试服务等方面开展多项工作,并联合产业链企业成立“算力产业发展方阵先进存力AI推理工作组”,同时提出了三点建议:鼓励前沿存储技术研发创新,推动存算运深度融合,加强存算协同产业生态建设,呼吁业界同仁凝聚共识,共同推动我国存算协同发展。
周宇分享了面向推理的存储技术趋势与实践,围绕推理挑战、存储破局及趋势判断展开。当前推理面临KVCache存储需求升级、多模态数据协同、存算协同带宽不足、负载潮汐性及成本控制等挑战。移动云针对性采用分层缓存调度、高速数据互联技术提升带宽、多模数据专属存储与标准化、架构池化重组等技术破局,还通过高密全闪存储、数据缩减、自研SPU高密服务器提高存储效能和降低成本。未来趋势上,移动云推动存储从被动存储转向智算协同,分阶段落地高密全闪存储、数据高速互联、存算一体等技术,长远构建池化多体存储体系,同时强调技术整合与生态协同。
王旭东介绍了AI时代,IT基础设施能力面临三大挑战:“管不好” 的数据、“喂不饱” 的算力、“降不下”的成本。推理数据来源多样难以形成高质量、可持续供应的数据集,存储系统的带宽和IOPS(每秒读写次数)不足,导致GPU等昂贵算力资源长时间空闲。传统存储架构难以兼顾高吞吐、低时延及异构数据融合的需求,造成业务发展瓶颈,阻碍AI应用落地。华为针对AI推理训练研发的UCM推理记忆数据管理技术在行业落地中的核心作用,通过“集中高质数据、提速AI训练、优化推理效能”三个角度,打造AI推理加速解决方案。
唐安波在会上围绕大模型推理“推不动、推得慢、推得贵”问题展开分享,硅基流动构建的AI infra工具链,核心推理框架适配多模态模型与国内外算力,适配昇腾并优化DeepSeek模型实现性价比提升。从推理框架延伸至MaaS服务平台,部署主流开源模型,通过推理加速和API向开发者提供服务,聚焦提升算力利用率。解决方案上,结合UCM技术卸载KVCache释放显存、提升性能,还通过智能网关优化调度、弹性扩缩容应对长上下文等痛点,基于存储的KVCache方案可大幅提升系统吞吐。
座谈会后,与会专家走进科大讯飞、华为北京研究所达芬奇展厅,实地调研存力技术如何促进AI推理应用、AI推理框架、先进存力和智能算力协同发展,助力AI普惠应用,推动我国存储产业高质量发展。





京公网安备 11011402013531号