扫码阅读
手机扫码阅读
像俄罗斯方块一样生成视频! 北大联合快手AI团队推出新框架VideoTetris实现跟随复杂指令的文生视频!

我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。

AI生成未来
扫码关注公众号
文章摘要
研究背景:扩散模型在文本到视频(T2V)生成领域取得显著成果,但面对复杂、细节丰富的指令时存在挑战。
研究成果:北京大学与快手AI团队提出了VideoTetris项目,一个新框架用于应对复杂视频生成任务,能增强现有模型的组合生成能力,支持多复杂指令和长视频生成。
框架方法:提出时空合成扩散方法来遵循复杂文本特征,并通过增强的视频数据预处理和参考帧注意力机制提高视频生成一致性。
技术实现:VideoTetris利用时空组合扩散方法,通过解构提示词和应用交叉注意力进行高效的组合指令生成,结合增强训练数据预处理和参考帧注意力机制优化长视频生成。
实验评测:引入新的评测指标VBLIP-VQA和VUnidet,显示VideoTetris在组合视频生成上优于开源及商用模型。
相关链接:项目主页及代码已公开,可供进一步了解和研究。
参考文献:详细研究可参考论文“VideoTetris: Towards Compositional Text-To-Video Generation”。
想要了解更多内容?

AI生成未来
扫码关注公众号
AI生成未来的其他文章
高保真+通用!视频扩散模型加持,稀疏视图重建任意场景!清华&港科大发布ReconX
点击下方卡片,关注“AI生成未来”作者:Fangfu Liu等?
能训出SOTA模型的优质数据集发布!复旦最新VidGen-1M: 文生视频还得靠好数据
点击下方卡片,关注“AI生成未来”>>后台回复“
揭秘神秘的种子:Adobe联合宾夕法尼亚大学发布文本到图像扩散模型大规模种子分析
点击下方卡片,关注“AI生成未来”>>后台回复“
ECCV`24 | 比DragDiffusion快100倍!RegionDrag:快·准·好的图像编辑方法!港大&牛津
点击下方卡片,关注“AI生成未来”>>后台回复“
即插即用,效率远超ControlNet!贾佳亚团队重磅开源ControlNeXt:超强图像视频生成方法
点击下方卡片,关注“AI生成未来”>>后台回复“
加入社区微信群
与行业大咖零距离交流学习


PMO实践白皮书
白皮书上线
白皮书上线