扫码阅读
手机扫码阅读
像俄罗斯方块一样生成视频! 北大联合快手AI团队推出新框架VideoTetris实现跟随复杂指令的文生视频!
72 2024-10-22
我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。
文章来源:
AI生成未来
扫码关注公众号
文章摘要
研究背景:扩散模型在文本到视频(T2V)生成领域取得显著成果,但面对复杂、细节丰富的指令时存在挑战。
研究成果:北京大学与快手AI团队提出了VideoTetris项目,一个新框架用于应对复杂视频生成任务,能增强现有模型的组合生成能力,支持多复杂指令和长视频生成。
框架方法:提出时空合成扩散方法来遵循复杂文本特征,并通过增强的视频数据预处理和参考帧注意力机制提高视频生成一致性。
技术实现:VideoTetris利用时空组合扩散方法,通过解构提示词和应用交叉注意力进行高效的组合指令生成,结合增强训练数据预处理和参考帧注意力机制优化长视频生成。
实验评测:引入新的评测指标VBLIP-VQA和VUnidet,显示VideoTetris在组合视频生成上优于开源及商用模型。
相关链接:项目主页及代码已公开,可供进一步了解和研究。
参考文献:详细研究可参考论文“VideoTetris: Towards Compositional Text-To-Video Generation”。
想要了解更多内容?
文章来源:
AI生成未来
扫码关注公众号
AI生成未来的其他文章
文本生视频最强SOTA! Lumiere:一种逼真视频生成时空扩散模型
关注【AI生成未来】公众号,回复“GAI”,免费获取??
如何高效定制视频扩散模型?卡内基梅隆提出VADER:通过奖励梯度进行视频扩散对齐
点击下方卡片,关注“AI生成未来”>>后台回复“
图像生成/编辑应用落地必不可少!MuLAn:首个实例级RGBA分解数据集(华为诺亚)
点击下方卡片,关注“AI生成未来”>>后台回复“
超越所有SOTA达11%!媲美全监督方法 | UC伯克利开源UnSAM
点击下方卡片,关注“AI生成未来”>>后台回复“
Gen4Gen:数据驱动多概念个性化图像生成新方法(马毅教授团队新作)
点击上方 蓝字,关注 AI 生成未来,干货不停后台??
加入社区微信群
与行业大咖零距离交流学习
软件研发质量管理体系建设
白皮书上线