当前位置: 首页 » 资讯 » 新科技 » 正文

昆仑万维“3+1”生态架构AGI战略发布,三大模型惊艳亮相

IP属地 中国·北京 编辑:赵云飞 猎云网 时间:2026-03-28 16:41:03

在3月27日下午的中关村论坛年会上,昆仑万维集团旗下天工AI再次亮剑。

这次,该公司向外界宣告了两大动作,一是2026年的AGI战略升级;二是Matrix-Game 3.0、SkyReels V4、Mureka V9三大核心模型惊艳亮相,并均跻身世界第一梯队;

昆仑万维2026年AGI战略:“3+1”生态架构

出海17年,昆仑万维在内容领域形成了独特优势,并在AI时代及时押注推出天工AI,并迅速布局,推出多款大模型及AI原生平台。

谈及2026年,天工AI董事长兼CEO周亚辉认为,AGI已经来了,只是还没有均匀分布。因此,昆仑万维对自己的发展路线做了调整,从2023年的6个方向做了收缩。

周亚辉称昆仑万维2026年的AGI战略升级为“3+1”生态架构——以4个SOTA大模型为底座,支撑3大AI原生平台+1个超级智能体。整体而言是从全模态技术突破到AI平台经济生态构建的整体路径,目标是通过打造AI经济平台,赋予每一个创作者匹敌一家公司的全栈生产力。

其中,DramaWave、Mureka和猫森学园三个大平台的底层逻辑是用SOTA AIGC大模型×内容生产×内容分发,做到端到端的闭环;另外的“1”——Skywork Super Agents,则是背后通用的操作系统,把它定义为面向全球所有内容创作者的操作系统,从长远来看,未来可能是五亿内容创作者规模的一人公司的操作系统。

展望未来,周亚辉表示,2028年是平台经济年,昆仑万维有望成长为一个AI native的平台经济体。四大SOTA模型、一个超级智能体操作系统和三大平台经济体,归根到底只是为了实现一个目标——让每一个创作者,都拥有匹配一家公司的全栈AI生产力,在确定的AGI时代与千万超级个体共建繁荣。

在阶段目标上,2026年将是昆仑万维的基础设施年,完成全栈部署;2027年生态端发布,释放创作者经济。具体来看,包括skills生态全面开放、创作者变现通路打通、B端API开放等;2028年AI native平台经济成型,在垂直平台占据头部位置,用户规模和市场份额等进入全球行列等。

三大模型技术突破,助推产业落地

昆仑万维首席科学家、香港中文大学教授成宇带来题为《构建物理仿真驱动下的实时交互世界:天工世界模型与AIGC全家桶发布》的模型发布演讲,发布 Matrix-Game 3.0游戏大模型、SkyReels V4视频大模型、Mureka V9音乐大模型,这三大模型的迭代升级,将推动游戏、视频、音乐领域实现从技术突破到产业落地的跨越式发展。

首先,昆仑万维正式发布Matrix-Game 3.0模型:物理仿真驱动下的实时交互式世界模型创新实践。从 2.0到3.0模型,完成了一次关键跃迁:从“可运行的交互Demo”,走向“具备稳定性与工业级性能的世界模型系统”。

这一进化的产业背景是,过去一年一个明显的趋势是:AI已经从“理解世界”走向“生成世界”。世界模型正在推动AI从“静态内容生成”走向“动态世界建模”,并成为连接感知、决策与生成的核心基础能力。在此背景下,构建物理仿真驱动下的实时交互世界是世界模型的核心内容。

Matrix-Game 3.0模型,在数据、模型和推理三个层面完成了一次全新技术升级。首先是数据层面——数据决定下限。基于 Unreal Engine 构建了大规模数据引擎,能够自动生成带有精确动作、相机位姿以及物理一致性的高质量交互数据,目前已经覆盖1000+场景,对于这些数据按照5s时序间隔给所有数据生成了局部描述和全局描述。这些数据为世界模型学习真实的“动作—环境变化”关系提供了基础。

第二是模型层面——模型决定能力。设计了带有Memory机制的DiT架构,使模型不仅能够生成当前帧,还可以持续维护历史信息,从而解决长时序生成中的一致性问题,实现分钟级的稳定生成与记忆能力。

第三是推理层面——推理决定落地。通过一系列推理加速优化,包括少步采样、并行生成以及缓存机制(KV Cache)和decoder蒸馏等过程,实现了高效的实时推理能力。最终在5B模型规模下,实现720P分辨率、最高40FPS的实时生成。

整体来看,Matrix-Game 3.0 的核心在于:通过“数据—模型—推理”的协同优化,首次将开源世界模型推向了带有记忆能力的长时序一致性 + 高质量 + 实时交互的统一框架。

接着,昆仑万维发布SkyReels V4模型:下一代视听创作的全新范式。

当前,AI视频不仅仅是一个工具,它正在重构整个视听创作的逻辑,成为下一代产业的核心基础设施。“好的AI视频生成”对于普通用户来说,它意味着自由表达和可控可改;对于产业创作者,它意味着更低的门槛、更高的效率和更多的可能性。

SkyReels V4通过四大技术突破——音画一体双流联合生成架构、全模态理解和精准控制、全模态强化学习体系和攻克电影级画质与高效生成的平衡难题,分别解决了音画同步、精准控制、一站式编辑和高效生成等行业痛点,将AI视频生成的普惠生产力和解决方案切实地赋予内容创作者和行业。

SkyReels V4模型实力也得到了全球权威榜单的认可。在Artificial Analysis Arena的排名中(截至2026年3月18日评测结果),SkyReels V4在多个核心赛道均名列前茅——在Text to Video (With Audio) 赛道和Image to Video (With Audio) 赛道,均位列全球第一;在Text to Video (No Audio) 赛道,位列全球第二。

此外,SkyReels V4同步推出了全场景开放API与行业解决方案,能够将SkyReels V4的强大能力开放给所有合作伙伴,共同推动视听产业的智能化升级。未来,SkyReels V4致力于成为AI视听时代的技术灯塔,用技术打破创作的边界,赋能每一个创作者。

最后,Mureka V9音乐大模型正式发布。Mureka V9是一次更可控、更懂表达的创作升级。团队将重点进一步推进到“音乐创作意图的可控表达”上:不仅生成得更快、更清晰,也开始更准确地理解创作者在歌词段落中的具体表达诉求。

Mureka V9在段落内文本控制、生成效率、混音质量与整体听感等多个关键维度持续进化,使AI音乐从“能够生成一首歌”,进一步迈向“能够更稳定地按创作意图完成一首歌”:

1. 段落内文本控制能力增强,生成更精准

2. 混音与音质表现继续提升,成品感更强

3. 人声表达更符合创作意图,能恰到好处

4. 生成效率进一步提升,创作反馈更及时

5. 生成结果更丰富,重复感进一步缓解

Mureka V9依然建立在 MusiCoT(Music Chain-of-Thought) 技术体系的持续演进之上,进一步强化了模型对音乐结构、歌词段落、表达意图与声音呈现之间关系的协同建模,使模型不再只是依据提示词“生成一段声音”,而是能以更接近真实创作逻辑的方式,理解“这一段该唱什么、怎么唱、为什么要这样推进”。

可以理解为,MusiCoT在Mureka V9中进一步融合了对歌词段落设计、语义重心与音乐组织方式的细粒度思考,让模型在旋律推进、段落表达、音色安排与整体完成度之间建立更稳定的内在一致性。

如果说传统音乐时代的平台,连接的是歌曲、歌手和听众;那么AI音乐时代的平台,连接的将是所有人的意图、生成、编辑、二创、分发和表达。Mureka想推动的,是AI音乐从生成工具走向创作系统,从单次输出走向版本化工作流,从做一首歌走向持续共创,从功能集合走向平台能力。我们希望把音乐从少数人的专业技能,变成更多人的表达语言。

从Matrix-Game 3.0实现 “场景 Demo” 到 “真实可玩” 的跨越,到SkyReels V4登顶全球AI视频大模型榜首,再到Mureka V9推动AI音乐向高质感、强情感升级,每一项突破都令人振奋,每一个成果都彰显着中国AIGC技术的全球竞争力。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。