2023年4月,爱诗科技就成立了,它想打造出全球领先的AI视频生成大模型,让每个人都能当自己生活的导演。这家公司特别看中AGI时代对视频的需求,希望把技术的好处带给更多人。到了2026年,他们带着自家的 PixVerse R1 亮相了中国发展高层论坛的年会。 这个论坛是在中国北京举办的,时间是3月22日到23日。大家把它当成高水平对外开放的重要平台,所以有很多来自国际组织、全球大公司和研究机构的代表参加了。这次会议里有不少前沿的AI体验展示出来。像总台记者就带着奥的斯全球公司的朱蒂董事长试了很多黑科技,比如实时视频生成软件还有AI眼镜。 爱诗科技带来的 PixVerse R1 挺吸引眼球的,不管是国外嘉宾还是国内的人都来凑热闹体验。它可是全球第一个支持最高1080P分辨率的通用实时世界模型,还融合了 Omni 多模态基础模型、自回归流式生成机制和瞬时响应引擎。这东西把视频生成的延迟从原来的几分钟压缩到了几秒钟,“所想即所见、所说即所现”。 它和传统视频生成不一样的地方在于不用等很久了。系统根据输入内容就能马上生成画面,而且在生成过程中还能一直响应新指令,画面跟着人想的自然变化下去。这种体验背后有一整套技术设计,把文本、图像、音频和视频都统一成同一生成体系,让画面保持连续性。 朱蒂女士随口提了句想看熊猫,现场马上就有大熊猫坐船远航的画面出来了。她看完笑着说:“我现在没在成都,也能看到熊猫。”整个过程特别流畅,画面切换也很自然。昆山杜克大学美方校长约翰·奎尔奇觉得这种工具能让人生活更高效。 他觉得当画面能实时生成并跟着想法变的时候,视频就不是干巴巴的内容了,更像是一个可以参与和塑造的过程。未来应用空间也被打开了,比如游戏、影视制作、教育和文旅这些场景都能用到。对爱诗科技来说,开发 PixVerse R1 的意义就是把想象变成一个能一直展开的具体过程。 以前的视频是记录下来的历史片段,现在 PixVerse R1 代表的是“正在发生的现在”。因为生成不用等、表达有回应,内容就从结果变成了一种持续发生的体验。 这个模型让爱诗科技在极短时间里就达到了全球领先的效果——在准确性和一致性这些核心维度上都特别突出。