当前位置: 首页 » 资讯 » 新科技 » 正文

百度智能云百舸5.0:筑牢AI基础设施,引领企业智能化新高度

IP属地 中国·北京 编辑:唐云泽 ITBEAR 时间:2025-08-29 04:09:20

在人工智能领域,关于AI基础设施(AI Infra)的讨论正逐渐升温。近期,DeepSeek V3.1的发布以及其对下一代国产芯片的适配,引发了市场对寒武纪市值的积极预估。同时,百度昆仑芯在中国移动集采项目中中标十亿级订单,进一步点燃了业界对AI基础软硬件的热情。

这一系列动态背后,AI Infra为何突然成为焦点?其背后的原因何在?要实现符合产业期待的AI Infra,又需要哪些条件?

谈及AI Infra,不禁让人联想到《变形金刚》中的擎天柱。这一角色不仅拥有强大的战斗力,更象征着坚实可靠的支撑。在AI时代,我们同样需要这样一座“擎天柱”,来支撑AI技术的不断突破和创新。

近日,在北京举办的2025百度云智大会上,全面升级的百舸5.0或许正是这样一座AI领域的“擎天柱”。AI Infra,即部署、运行、管理和优化AI模型的软硬件体系,过去虽已存在,但近期才受到广泛关注。这主要是因为,随着大模型与产业场景的深度融合,基础设施的重要性日益凸显。

过去,业界对AI Infra的要求主要聚焦于能够支撑大模型的训练和推理。然而,如今大家逐渐认识到,基础设施还能为模型创造新价值,强化模型的训推效率和用户体验。因此,AI Infra已成为赢得未来的关键。

以DeepSeek为例,虽然可在多个平台应用,但不同平台间的体验效果却大相径庭。用户往往会选择那些更流畅、快捷的平台。这正是AI Infra差异带来的竞争力差距。

在AI Infra的相关能力中,AI算力无疑是最关键的一环。良好的AI算力供给不仅是模型推训的基础支撑,更是模型效果与商业前景的决定性因素。它决定了模型的访问体验是否流畅、服务是否稳定以及资源利用率的高低。

百度智能云最新发布的百舸AI计算平台5.0,在网络、计算、推理系统以及训推一体效率上进行了全面升级,实现了跨越式的迭代,打破了AI计算的效率瓶颈。百舸5.0的支柱作用,由三大稳固的支点构成:

首先是网络支柱。百舸5.0对VPC、RDMA和X-link网络进行了全面升级,支持巨型帧传输,提升了模型的训推效率。自研的HPN网络支持单集群10万卡RDMA网络互联,并将端到端延迟压缩至4微秒。针对超大参数规模的MoE模型,百舸还打造了自研的X-link协议,实现了更快的专家间通信。

其次是计算支柱。面对超大模型对大规模AI计算集群的需求,百舸进行了超节点的全新探索。昆仑芯超节点采用了百度全栈自研的昆仑芯,通过将64张卡组成超节点,实现了单卡性能的大幅提升和单实例推理能力的显著增强。公有云成为企业获取大规模AI算力的最佳途径,基于百舸,用户可轻松在几分钟内利用1个云实例运行万亿参数的大模型。

最后是推理支柱。随着大模型成为越来越多用户的日常刚需,模型推理能力的提升进入了关键阶段。百舸5.0全新升级了推理系统,通过“解耦”“自适应”和“智能调度”三大核心策略,对AI推理的算力、内存、网络等资源进行了极致精细化的管理和优化,实现了性能的数量级提升。

百舸5.0的三大支柱加持,使其能够将大模型的计算效率提升至极致。这一基础设施的强度,正是让模型进一步打破极限、自由探索智能奥义的关键。在现实世界,“企业智能化,基于AI Infra变形出发”已成为百舸5.0的口号。

通过具体案例,我们可以看到百舸如何打破产业局限,将基础设施转化为AI生产力。例如,在具身智能领域,百度智能云支持了包括北京、上海等地的创新中心,并为产业链上多家重点企业提供算力支持。百舸在算力高效调度、模型训推加速等方面的积累,大幅提升了具身智能模型的开发效率。

另一案例是Vast,一家专注于通用模型研发的AI公司。通过使用百舸平台,Vast获得了高性能云原生AI计算支持,有效降低了大模型训练时间、节约了资源成本,并降低了模型训推的综合门槛。这使得Vast能够更快、更好地开发出新一代3D大模型,为设计师与内容创作者提供了高效探索AI可能性的方案。

百度智能云在AI云领域的深厚积累,使百舸能够深度理解智能化业务并提供强有力的AI算力支撑。这一能力在公有云市场中十分稀缺,也成为了百度智能云坚固的护城河。百舸5.0作为AI领域的“擎天柱”,正托举着企业打破AI时代的天花板,探索未知的智能世界。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新