当前位置: 首页 » 资讯 » 新科技 » 正文

豆包视频生成大模型正式发布

IP属地 中国·北京 编辑:赵磊 鞭牛士 时间:2024-09-24 17:48:25

9月24日消息,字节跳动旗下火山引擎今日在深圳举办AI创新巡展,正式发布了豆包视频生成-PixelDance、豆包视频生成-Seaweed两款大模型。

活动现场,火山引擎总裁谭待表示:“视频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展AI视频的创作空间和应用落地。”

镜头切换方面,豆包视频生成模型能实现自然连贯的多拍动作与多主体复杂交互。豆包视频生成模型基于 DiT 架构,能够让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力,并且,在镜头切换时可同时保持主体、风格、氛围的一致。

画面风格方面,经过剪映、即梦AI等持续迭代,豆包视频生成模型具备专业级光影布局和色彩调和。Transformer结构经过深度优化,可支持3D动画、2D动画、国画、黑白、厚涂等风格,适配电影、电视、电脑、手机等电子设备的比例,适用于电商营销、动画教育、城市文旅、微剧本等不同场景。

目前,新款豆包视频生成模型正在即梦AI内测版小范围测试,未来将逐步开放给所有用户。

此次活动中,豆包大模型不仅新增视频生成模型,还发布了豆包音乐模型和同声传译模型,已全面覆盖语言、语音、图像、视频等模态。

据火山引擎披露,截至9月,豆包语言模型的日均tokens使用量超过1.3万亿,相比5月首次发布时增长十倍,多模态数据处理量也分别达到每天5000万张图片和85万小时语音。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。