2月9日,字节跳动正式发布视频生成模型Seedance 2.0测试版,在业界引发广泛关注。
记者从字节内部人士处获悉,目前公司已向旗下创作者大规模推送使用手册,多位用户正排队试用这一新工具。
过去两年间,AI视频生成领域面临的核心难题并非画质表现,而是内容连贯性不足。
早期模型采用逐帧生成后简单拼接的方式,导致角色面孔随机变化、手指数目错乱、背景明暗不一等问题频发,业内将这种现象称为"抽卡地狱"。
四川大学中华文化传承与全球传播数字融合实验室执行主任宋耀指出,这种技术缺陷严重制约了AI视频的商业化应用。
Seedance 2.0的技术突破在于引入双分支扩散架构。
该架构在传统扩散模型基础上增设长期时序控制模块,一条分支负责高质量图像帧生成,另一条分支由Transformer承担导演角色,负责记录人物身份、动作轨迹、镜头逻辑及场景状态。
这种设计使模型不再独立创作每一帧画面,而是在持续存在的世界状态中推进内容生成,从根本上解决了角色漂移、动作断裂等技术顽疾。
四川传媒学院跨媒体艺术专业主任刘归源长期从事数字内容创作实践。
他介绍,在Seedance 2.0问世前,制作一条30秒AI视频需要反复修图,平均每张图修改4至5次,一个视频背后可能需要生成200至300张图片,再经手动筛选、拼接,整个流程耗时数小时。
如今,创作者只需提供详细提示词及首尾帧画面,系统即可在半小时内生成运镜流畅、转场自然的短视频。
刘归源认为,如果说去年AI视频生成水平处于初级阶段,Seedance 2.0的出现标志着技术已进入新的发展层级。
从技术对比看,海外评测认为Seedance 2.0在角色一致性与多镜头叙事方面表现优异。
宋耀分析,这一优势源于架构设计与训练数据的双重支撑。
架构层面,Seedance更强调角色持久状态与镜头逻辑控制,在人物驱动叙事上更为稳定。
数据层面,中国短视频生态提供了海量连续性强的训练素材,为模型学习提供了独特优势。
业内人士指出,Seedance 2.0已接近工业化内容生产工具标准,在成本效率与稳定可控性上具备明显优势,适合商业内容批量生产。
这标志着AI视频生成正从实验性技术向实用化工具转变,为内容创作行业带来新的生产方式变革。
然而,技术竞争远未结束。
刘归源表示,AI视频领域的技术迭代以天为单位计算,很快将有其他技术方案超越现有水平。
这场技术竞赛的持续推进,将不断拓展数字内容创作的边界。
从反复试错的“抽卡式”生成,到更稳定、更可控的“成片式”输出,视频生成技术正在跨过规模化应用的门槛。
未来,谁能在效率、质量与治理之间取得平衡,谁就更可能在新一轮内容生产变革中占据先机。
技术进步值得期待,但更需要被纳入规范框架,让创新更好服务于高质量内容供给与健康的传播生态。