21世纪经济报道记者 骆轶琪 实习生 唐娜斯
完成1000亿亿次计算需要多久?
如果让全球80亿人,每人手持一个计算器,全年不吃不睡,每秒按1次,大约需要4年。
而中国的答案是——1秒钟。
这是2025中国算力大会上公布的重大突破之一:中国移动牵头研发的“九州”算力光网,把算力提升到10 EFLOPS,也就是1秒钟完成1000亿亿次浮点运算。
它是全球首个规模最大的400G全光省际骨干网,预计能拉动GDP增长超126亿元。
不仅这一项,此次算力大会上,一共公布了十个我国在算力产业的重大突破!
其中既有核心底层技术突破,也有生态解决方案。既能“打好地基”,还能“盖好房子”。
山西秦能的算电协同一体化平台,让数据中心不再是“电老虎”,一年能省电费1000万元,减少碳排放十万吨。
超聚变的FusionOne AI一体化行业解决方案,让AI基础应用小时级上线,真正“开箱即用”,已落地500多个项目。
华为研发的“在网计算加速技术”,是智算集群通信效率提升的关键突破,让模型训练推理更省时省钱。
中国电信面向分布式大模型的“广域智算无损组网技术”,让远距离的数据中心像在一个房间里一样高效协作,训练大模型再也不用挤在一个地方。已经在多地试点验证和商用。
中国联通的“分布式训推关键技术”,让AI训练既高效又安全,数据不出园区,隐私保护好。
联想的“万全大模型训推方案”,让大模型推理性能提升10倍,故障恢复秒级完成,还能适配20多款国产GPU和大模型。
阿里云牵头的异构GPU云平台,打破“算力孤岛”,让不同品牌的国产GPU也能高效协作,已经支撑了100多个重大项目。
中兴通讯牵头的智算超节点系统,让国产GPU卡可以大规模高速互联,支撑万亿参数以上主权大模型训练,初步建成国产化智算产业开放互联生态系统。
上海人工智能实验室牵头的Deeplink超大规模跨域混训方案,让跨省上千公里的智算中心实现大模型混训,等效算力不输单芯片单集群。真正盘活全国算力资源。
这些重大突破不是飘在空中,而是真正能落地、能省电省钱、保护数据安全的技术。这背后,透露出我国计算、通信、电力行业龙头,在大模型时代的携手并进。是他们,支撑起中国在算力产业的突飞猛进,最终得以让算力像水电一样唾手可得。