除夕AI互动达19亿次,多模态大模型与云算力让春晚变成全民实时创作舞台

一、事件背景:人工智能首次全面介入国家级晚会 央视总台春晚是中国收视规模最大、覆盖人群最广的年度文化盛事;2025年除夕,春晚舞台首次引入人工智能技术,带动全民实时创作与互动。字节跳动旗下豆包大模型以独家人工智能云合作伙伴身份全程参与。这也是广播电视领域首次将大规模语言与多模态模型能力深度嵌入国家级直播节目的互动体系,具有明确的标志性意义。 二、核心数据:19亿次互动检验技术承载能力 据字节跳动披露,除夕当天豆包AI互动总量达19亿次。其中,“豆包过年”活动为用户生成新春主题头像超过5000万张,生成新春祝福文字逾1亿条。 当晚峰值出现21时46分——春晚主持人宣布启动第二轮互动时,豆包大模型在该分钟内的推理吞吐量达到633亿tokens(每分钟处理的语言单元数量)。此数据直观说明了系统在高并发场景下的稳定性与算力调度能力。字节跳动旗下云计算平台火山引擎通过算力弹性调配与系统优化——全程保障互动服务稳定运行——未出现明显卡顿或中断。 三、技术应用:多模态模型重塑舞台视觉叙事 除互动规模外,豆包视频生成模型Seedance2.0也参与了春晚节目内容制作,并在模型公开发布前就已完成有关落地应用。 在节目《驭风歌》中,主创希望用动态影像呈现国宝级水墨画作品。Seedance2.0在保留原作笔触与墨韵的基础上生成马匹奔跑动作,并完成镜头调度,在保持画面力量感与节奏感的同时,实现静态艺术向动态视觉叙事的转化。 在节目《贺花神》中,模型体现了对细节的控制能力。制作团队为每位演员定制差异化视觉方案,以“一月一人一景,一花一态一观”为创作思路,将AI生成影像与实景舞台融合,形成新的舞台视听叙事方式,拓展了传统舞台艺术的表达空间。 四、技术延伸:无障碍服务与具身智能同步亮相 本次春晚的技术应用不止于视觉制作。在无障碍传播上,依托豆包语音模型,抖音春晚直播间首次实现全程实时无障碍字幕,覆盖主持串场、相声、小品等无原生字幕节目,让听障群体能够同步观看并理解内容。 具身智能上,春晚舞台亮相的多款智能机器人搭载豆包大模型,支持更自然的语言交互,展示了大模型向实体终端延伸的最新进展。此外,空间视频技术用于节目《梦底》,实现演员三维数字分身与真人同台表演的效果;分身的视角与光影随现场镜头移动和灯光变化实时同步,继续拓展舞台呈现的技术边界。 五、深层意义:技术融合推动内容生产方式变化 从更宏观的角度看,豆包大模型与央视春晚的深度合作,反映出人工智能在内容生产领域的渗透正在加速。无论是面向亿级用户的实时互动,还是服务专业制作的视觉生成,大模型正从辅助工具逐步走向内容创作的重要基础能力。 同时,这类合作也对内容平台、云计算服务商与传统媒体机构的协作提出新要求:如何在保障系统稳定的前提下支撑大规模并发,如何在技术创新与内容质量之间取得平衡,将成为行业持续面对的关键议题。

这场19亿次互动支撑起的“科技春晚”,既是一场高密度的文化传播实践,也标志着人工智能技术进入更大规模的社会化应用阶段。当水墨画中的骏马在算法驱动下“动”起来,当听障观众首次完整捕捉相声的包袱与笑点,我们看到的不只是技术能力的展示,更是以人为中心的创新对文化平等与共享的具体回应。这或许也预示着:未来的国民级盛事,将更频繁地成为技术与人文共同呈现的舞台。