当前位置: 首页 » 资讯 » 新科技 » 正文

硬盘价格涨疯了,AI存储何去何从?

IP属地 中国·北京 编辑:周伟 数据猿 时间:2026-02-06 11:55:33
在涨价潮下,曙光存储通过“效能、智能、协同”这一套系统性抗风险方案,让“先进存力”成为抗涨周期的中流砥柱。

数据猿

在涨价潮下,曙光存储通过效能、智能、协同这一套系统性抗风险方案,让先进存力成为抗涨周期的中流砥柱。

2025年之后,AI行业正在集体经历一场算力焦虑的反噬。

SSD价格暴涨、CPU涨价、供应不稳、交付周期长、能源吃紧所有构成AI基础设施的关键部件,几乎都被推上了涨价通道。

例如,2025年9月到2026年1月,以美国亚马逊零售渠道为样本统计,SSD均价涨幅约74%,部分型号涨幅达到100%以上,高端8TB SSD的价格甚至被标到了约2500美元(折合约1.9万元)。

在企业级市场,合约价同样走高:2025年Q4企业级SSD价格上涨约 12%~15%,企业级HDD合约价上涨约4%。

CPU端也出现涨价信号:AMD在2025年12月已确认向渠道发出涨价通知(主要集中在消费级产品)。市场预期,2026年Q1服务器级CPU预计价格上调10%~15%。

与此同时,大模型项目越来越多,Agent、RAG、向量数据库等应用层出不穷。模型越来越强,成本越来越重,资源反而越来越浪费。

这是一个有点讽刺的现象:我们正在以越来越贵的价格,买来可能被闲置的存力。

为什么会这样?问题的根源在于:我们对存力的理解,可能落后了。

面对硬件涨价,许多项目第一反应仍是买更好的设备:换全闪、加带宽、扩存储。可现实是,堆设备≠提效能。

如果说AI基础设施是一台发动机,那么AI存储的角色,早已不是油箱,而是燃料的管道调度系统决定算力是否能释放,数据是否能高效流通,链路是否能真正跑通。

这也是这篇文章想讨论的问题:在成本上升与需求激增的双重高压下,AI存储该如何从被动成本中心,升级为主动价值中枢?

硬件涨价只是表象,更致命的是资源错配与系统内耗

如果说硬件涨价是这场危机的显性变量,那更大的隐患,其实藏在水面之下。

在AI项目的真实运行过程中,真正吞噬掉预算的,不是硬件买得少了,而是用得不够好,大量的存储资源,被系统黑洞吞噬了。

从多个智算中心、一线大模型项目的案例来看,至少存在三类被普遍低估的系统内耗黑洞:

1.性能瓶颈:GPU喂不饱,高算力在低效等待

大模型训练和推理高度依赖GPU集群、AI芯片等高价值算力资源,但这些高端兵器在现实中却经常处于开机但低负载的状态。

为什么?

在不少AI任务重,数据传输不上来IO带宽不足、存储响应慢、路径拥堵,导致GPU只能干等数据包,训练任务间歇性停顿,算力效率低下。

这不仅仅是资金问题,还是系统调度架构的问题。

2.数据错配:冷热混堆,占了位置,毁了效率

AI系统产生的数据是分层的:只有部分是热数据,大量是温冷甚至长尾归档数据。但现实是,大量温冷数据被存放在昂贵的全闪、NVMe等高性能设备上,空间被占、电力白耗、资源错配严重。

在PB甚至EB级数据体量下,每一个摆错位置的数据,都意味着资金的浪费。

3.系统割裂:数据孤岛让链路断电

如今的AI项目早已不是单一任务,而是一条完整的数据流链路:从采集、清洗,到训练、推理,再到调用部署。

但问题在于:存储系统常常是按项目、按业务线、按服务厂商分割的,接口不兼容、标准不统一、资源无法共通,导致数据难以跨系统流动,成为链路断电的瓶颈地带。

模型想调数据?调不出来。数据想被训练?卡在搬运流程。算力系统和数据系统之间,明明离得很近,却像住在不同星球。

结果就是,资源在涨价,ROI却在下滑。TCO(Total Cost of Ownership,总拥有成本)持续抬高,AI项目投入产出比持续恶化。

讽刺的是,大家都在谈AI提效,但在基础设施层面,我们正陷入一种低效的高成本结构。

这一切,正在倒逼行业重新思考一个关键问题:存储系统,不应该只是存数据的设备,而应是一套面向AI的系统能力集成。能调数据、能适配算力、能协同链路、能动态优化,是它在AI时代的新角色。

这场变革,硬件进化是硬币的一面,另一面则是架构升级。

行业的先进存力主张效能、智能、协同三板斧

面对涨价潮袭来,几乎所有AI基础设施厂商都在寻找减压阀。

有厂商选择切换采购策略,用二手盘、低端芯片做权衡;有企业试图延长设备生命周期,以减缓上新方式缓释投入;也有玩家转向海外或本地云,寄望通过算网融合拉平成本曲线。

但从实效上看,这些方式多是拆东补西式的战术优化,难以从根本上缓解存储带来的结构性瓶颈。

与之不同,曙光存储的应对策略更像是系统工程视角下的逆周期重构它不仅仅靠某个单点技术,而是从底层架构+上层调度+生态协同三个维度入手,提出一套面向AI时代的先进存力体系。

①效能为先:单位成本下的极致效率

在硬件涨价的大背景下,效率成了第一准则。

曙光推出的F9000全闪系统,配合超级隧道技术,将数据通路进一步压缩,加速吞吐,在大模型训练中实现4倍提速,减少GPU闲置。

更底层的优化还来自其S6000高密液冷方案:在4U空间内封装1.44PB容量,同时节省20%以上构建成本,兼顾了扩展性与能耗效率。系统级的RDMA、零拷贝、智能卸载技术,则将部分CPU任务下沉至存储系统,释放出30%以上的计算资源空间,降低了传统CPU负担冗余的惯性成本。

②软件定义智能:用算法对冲硬件价格波动

当硬件价格失控,软件算法开始成为解决这个难题新的抓手。

曙光的StorInsight技术,通过智能压缩、纠删码、去重等技术手段,将整体存储利用率提升至91%。配合对热、温、冷数据的自动识别与迁移机制,可动态调节资源分布、系统能耗与交付路径,实现资源利用率提升35%、能效比提升45%,将TCO进一步压缩。

这些机制的核心在于:用软件能力重构存储分层资源调度能耗管理三大控制环,使存储从静态资产变为智能决策单元,在系统级别对冲硬件价格上涨带来的刚性成本。

③协同驱动生态:打破孤岛,构建AI数据工厂

最后,是生态视角的协同重构。

曙光通过存算网一体架构,打通了数据清洗→训练→推理→部署的全流程,使得数据在系统内可自由流动,减少重复加载与迁移。它的开放接口可无缝适配DeepSeek等主流AI框架,并支持异构设备的多源接入不再为数据换平台,而是让平台适配数据。

更值得注意的是,曙光还与多方产业伙伴共建数据可信流动机制,在跨区域部署中,实现多地数据治理合规协同,为数据从存储到使用之间建立起了可信轨道。

在涨价潮下,曙光存储通过效能、智能、协同这一套系统性抗风险方案,让先进存力成为抗涨周期的中流砥柱。

AI存储不只是基础设施,也是产业智能化的催化剂

如果说GPU是AI的燃料,那么存储,就是数据的发动机。

过去,它常常被看作一项边缘投资放在机房角落的设备,用于归档、备份、合规。而在大模型、Agent时代,这种观念正被彻底推翻。

存储的角色,正在从数据仓库转向智能中枢,它不仅关乎容量、速度,更决定了算力系统的效率、平台的可用性,以及数据资产的真实价值。

如何理解这个转变呢?我们可以从下面几个维度来分析:

①对AI行业发展的价值:AI的输入侧引擎

AI训练和推理的关键,不只是GPU数量有多少,还在于数据流通的速度和效率。大模型每一轮训练的有效性,背后都依赖于高带宽、低延迟、高吞吐的存储支持。

曙光等厂商提出的先进存力概念,实质上是对传统存储范式的一次重写:它将喂数据这个动作,从工具链边缘拉到了AI架构的中心。如果说以前是算力等数据,现在则是存储决定算力的上限。

更进一步,高效、稳定的数据调用体系也正在成为判断AI平台SLA等级的关键指标没有强大的存储,就没有可用的大模型。

②对企业数智化转型的价值:后勤走向枢纽

在企业视角中,存储也早已不是只为IT而存在的角色。

从制造到金融,从零售到能源,越来越多的行业转型场景中,都需要具备三种能力的底座支持:

AI-native架构适配

数据跨域协同

智能调度与治理

这意味着,企业的数据基础设施,不能只是放数据的地方,而要能调度、推理、融合、交付。

曙光等厂商正试图把智能分层+跨系统协同做成一种标准,让企业的数据资产真正流动起来,而不是静止在那里贬值。

在数据成为核心生产要素的今天,这种数据流动能力的价值,并不亚于算力规模。

IDC数据显示,2025年二季度全球AI计算与存储硬件投入约820亿美元,同比增长166%,并预计到2029年全球AI基础设施市场将达到7580亿美元。其中,AI存储发挥的价值将越来越大当模型多、任务多、租户多成为常态,存储系统需要承担更多计算之外的职责,包括缓存调度、能耗管理、任务优先级与服务质量(QoS)等。因此,AI存储相关支出,将成为智算中心建设中的核心预算项。

这也是为什么,越来越多基础设施厂商把先进存力作为自身能否进入生态闭环的决胜点。

从这个角度来看,涨价只是周期波动的一种表现,本质是产业从堆规模走向拼结构的拐点。谁能在结构上建立抗风险壁垒,谁就能穿越周期。

在一轮轮技术迭代和市场波动中,具备体系能力的厂商,才有资格成为行业的定海神针。

AI的黄金十年才刚刚开始,而每一次看似艰难的涨价,其实都是系统重构的好时机。

留下来的,则是那些提前准备好系统性解法的长期主义者。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。