当前位置: 首页 » 资讯 » 新科技 » 正文

通义万相2.2正式开源:首个使用MoE架构的视频生成模型

IP属地 中国·北京 编辑:郑浩 凤凰网科技 时间:2025-07-28 22:05:23

7月28日,阿里宣布开源视频生成模型「通义万相Wan2.2」,此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用MoE架构的视频生成模型,总参数量为27B,激活参数14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗。

同时,Wan2.2还首创了「电影美学控制系统」,光影、色彩、构图、微表情等能力媲美专业电影水平。用户通过输入「黄昏」、「柔光」、「边缘光」、「暖色调」「中心构图」等关键词,模型可自动生成金色的落日余晖的浪漫画面;使用「冷色调」、「硬光」、「平衡图」、「低角度」的组合,则可以生成接近科幻片的画面效果。

通义万相还开源了一款5B小尺寸的统一视频生成模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。该模型采用了高压缩率3D VAE架构,时间与空间压缩比达到高达 4×16×16,信息压缩率提升至 64,均实现了开源模型的最高水平,仅需22G显存(单张消费级显卡)即可在数分钟内生成5秒高清视频,是目前24帧每秒、720P像素级的生成速度最快的基础模型。

开发者可在GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型API,用户还可在通义万相官网和通义APP直接体验。

标签: 模型 视频 通义 架构 电影 水平 画面 美学 专业 能力 图生 光影 计算资源 消耗 规模 边缘 柔光 细节 开源 中心 同参数 速度 用户 冷色调 效果 整体 布局 首创 空间 基础 时间 专家

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。