当前位置: 首页 » 资讯 » 新科技 » 正文

是时候“颠覆好莱坞”了?

IP属地 中国·北京 中国新闻周刊 时间:2026-02-13 16:42:00

一张男人奔跑的图片,距离一个有运镜、背景音,和实物碰撞的电影级逃亡片段有多远?

(Seedance 2.0官方生成的电影级逃亡片段)

2月12日,字节跳动正式上线新一代AI视频生成模型Seedance 2.0,并接入旗下生成式AI创作平台“即梦”以及豆包App。几天前,Seedance 2.0开启内测,其前序模型为诞生于去年6月的Seedance 1.0。于是,实现上述变换只需这样一句表述:“镜头跟随黑衣男子快速逃亡,后面一群人在追,镜头转为侧面跟拍,人物惊慌撞倒路边的水果摊爬起来继续逃,人群慌乱的声音。”

内测开启的几天里,抖音等众多国内外社交媒体和短视频平台被Seedance 2.0生成的视频“攻占”,许多海外创作者在X平台上发帖,寻求以+86开头的手机号,用以体验Seedance 2.0。在官方使用手册上,Seedance 2.0自称为“杀死比赛(kill the game)”的一代模型。

2月12日,埃隆·马斯克在社交平台上点评,“这发生得也太快了(It's happening fast)”。贾樟柯也在个人微博账号发文称:“Seedance 2.0确实厉害,我准备用它做个短片。”有美国导演称,“这没准会颠覆好莱坞”。多位受访者向《中国新闻周刊》指出,AI视频生成领域竞争激烈。美国谷歌的Veo 3.1模型此前领跑全球,OpenAI的Sora 2以及快手于2月5日上线的可灵3.0模型都各有千秋。然而,Seedance 2.0或许已颠覆这一格局,它在角色一致性、物理真实性等方面“一骑绝尘”。

一句话打造一个视频的时代,或许真的到来了。

不再“抽卡”?

2月10日,周鹏的父亲在抖音平台上发布了一个由Seedance 2.0制作的视频,内容是打斗场面,短短几天内便获得超过百万播放量,以及4000多赞。

“没有人指导,我爸自己靠一个视频‘起号’了。这样的例子还不少。”周鹏现在是全职AI视频创作者,也是最早一批体验Seedance 2.0的用户。他告诉《中国新闻周刊》,Seedance 2.0在AI和自媒体创作圈内爆火,源于其模型能力的大幅跃升。

最显著的便是物理一致性。Seedance 2.0单次输出视频时长不超过15秒,周鹏说,要让视频中的主要人物在所有切换视角的镜头里都保持形象一致,且维持15秒,非常不容易。以往的AI视频,往往存在人物面容衣着变化、表情与情绪不符、身体重心错误、与环境互动不自然等痕迹。除人物外,复杂物品零部件例如车辆后视镜等,也常在不同镜头中出现又消失,很难保持一致。

而Seedance 2.0在这方面的表现令人惊讶。“它能最大程度符合真实物理规律。”周鹏表示,打斗场景涉及许多物理规律,模型“翻车率”很高,但在近乎白话的提示词和参考视频的条件下,Seedance 2.0生成的招式动作细致,人物的走位合理,受击反馈也很真实。也就是说,AI视频真正开始“以假乱真”了。

要做到这一点,首先需要多模态输入。Seedance 2.0 目前支持图像、视频、音频、文本四种模态输入,最多支持12条上传素材。快思慢想研究院院长田丰告诉《中国新闻周刊》,在实测中,Seedance 2.0能精准复刻参考视频的运镜、动作节奏和特效,实现“指哪打哪”的精确控制。周鹏分析,创作者可以上传一个音频,让模型生成的人物按音频的声线说话,这样就不用像传统创作一样后期配音,大大减少了工作量。

Seedance 2.0模型架构本身也做出了创新。虽然其技术报告尚未公布,但从Seedance 1.0的技术报告来看,在传统的扩散模型基础上,该模型采用了“双分支扩散变换器架构”。传统模型生成视频和音频是分开的两件事:先生成画面,再贴声音,因此有嘴型对不上、脚步踩不准、背景音乐割裂等弊端。田丰介绍,在“双分支扩散变换器架构”下,视频与音频的联合生成,同步生长,比如飞驰汽车的轮胎特写应配有巨大的引擎轰鸣声、轮胎摩擦地面的声音,模型在理解这类画面时就会自动生成音频。人物口型匹配精度也可达毫秒级,而Veo在音画同步方面仍存在明显缺陷。

此外,Seedance 2.0还通过位置编码技术优化多镜头切换,解决人物突变问题,使得AI视频从单镜头摆拍,进化为拥有动画级分镜的作品。受访者的共识是,Seedance 2.0的出现,称得上是视频生成领域的“DeepSeek时刻”。新加坡南洋理工大学计算机学院助理教授刘子纬对《中国新闻周刊》称,无论是画质还是动态一致性Seedance 2.0都显著优于目前最强模型Veo,且首次突破了多镜头叙事生成,把AI视频推到了短视频或者说亚影视级的高度。

“抽卡”是一致性外的另一行业传统痛点。由于AI生成的视频画面具备随机性,用户需要多次使用同一提示词,才能得到相对满意的结果,俗称抽卡。同类模型单个镜头的抽卡次数可以达7次以上,从而带来可观的制作成本,以及冗长的制作周期。那么Seedance 2.0解决了抽卡问题吗?

在实测中,多位受访者发现,Seedance 2.0的单次生成可用率达90%以上,平均抽卡1—2次即可获得满意结果。周鹏指出,这是因为模型中加入了独特的AI代理(Agent),将创作者近乎白话的提示词进行再加工,用模型更能理解的语言作为输入,这样免去了创作者打磨提示词的过程,模型也不用再反复去猜创作者的意图。在创作中,Seedance 2.0也使用独特的“@素材名”模式,来让创作者指定素材的使用方法,从而让模型准确理解每个素材的用途。

不过,仍有创作者告诉《中国新闻周刊》,Seedance 2.0不能完全杜绝抽卡。《中国新闻周刊》在即梦平台使用单张图片和提示词生成了一段10秒钟的视频,单次尝试下确实得到了人物稳定、剧情符合描述的作品。不过在让人物“脱去外衣”这一AI非常难处理的精细指令下,Seedance 2.0的表现仍不完美。

目前在即梦平台,Seedance 2.0对注册用户免费开放。由于用户人数激增,虽然视频生成时间小于60秒,但《中国新闻周刊》生成上述视频的排队时间长达9小时。

(《中国新闻周刊》在即梦平台使用单张图片和提示词生成的10秒钟的视频。)

将彻底引爆AI短剧市场

周鹏将自己这类AI创作者形容为“怀春少女”,一面期待技术的更迭,一面又担忧技术更迭得太快了。

事实也许更偏向后者。一名海外博主发布了Seedance 2.0的效果视频,马斯克在2月12日转发了该帖,并评论称“这发生得也太快了”。周鹏用Seedance 2.0制作这类视频时,只需要“随便找几张图,花十分钟”,就能完成以前好几个小时的工作。在他看来,创作者脑子里的任何创意几乎都能被快速实现,一部短片电影的创作时长不会超过一个小时。

技术壁垒逐渐被抹平之外,制作成本也有了可观的降低。田丰表示,综合业界测评,传统短剧单集制作成本约5万元,5秒特效镜头成本约3000元。Seedance 2.0出现后,5秒特效镜头成本降至3元,5分钟视频成本压缩至千元级,这已经达到网剧、漫剧的自动化生产级别,将彻底引爆AI短剧市场,并最终重塑影视和特效行业。

“这是真正的创作平权,每个人都是导演。”周鹏感慨。不过,他也指出,这不一定是好事。目前,用户只需要保存短视频平台的爆款转场视频,利用Seedance 2.0将自己的人脸贴上去,就能轻松复制爆款转场。这不仅颠覆了AI创作逻辑,也颠覆了自媒体规则。周鹏认为,这可能带来网络安全隐患。

Seedance 2.0内测两天后,字节跳动紧急叫停了真人脸部素材的使用。官方使用手册指明,系统会自动拦截此类素材,上传后将无法生成视频内容。这一举措旨在保护内容安全与守护平台规范。不过,多位创作者表示,创作者本人的照片或视频在通过人脸识别后,仍可用于创作。

田丰指出,限制真实人脸上传是出于防范深度伪造的必要举措。如果Seedance 2.0可凭上传的单张照片、念几个字的声音采样,就能逼真复刻真人形象、声线及动作习惯,那么伪造诈骗视频的成本将变得极低。未来,建立AI创作的安全边界尤为重要,不仅要强制标注AI内容、限制敏感内容输入,还要加强内容审核机制。

大概半年前,周鹏还是名不见经传的独立AI创作者,如今已开始接手大型商单。“按每分钟视频来算,半年前我接商单的单价是一万元,现在最高的能做到7万元。”不过,他认为,这个价格保不住太久,因为工具的更新让创作者逐渐丢失价值,AI创作者将很快面临价值危机。

在AI创作时代,人类创作的价值究竟是什么?田丰指出,无限模仿不等于无限创造,人类创作的核心价值将从技术执行转向创意与情感表达。清华大学智能产业研究院首席研究员聂再清对《中国新闻周刊》称,视频制作技术壁垒的降低总体上对创作者是利好,可以用更低成本制作出更有价值的视频产品。相应地,制作细节的精细打磨以及背后哲理思考的表达,将变得更有价值。

“以后就是纯凭创意、纯讲故事的时代。”周鹏说,就像大语言模型消解了人类知识壁垒一样,AI视频模型将消解创作壁垒。一切还只是开端。

记者:周游

(nolan.y.zhou@gmail.com)

编辑:杜玮

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新