扫码阅读
手机扫码阅读
ECCV`24 | 艺术文本和场景文本分割任务新SOTA 方法!华科&Adobe提出WAS!
78 2024-10-22
我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。
文章来源:
AI生成未来
扫码关注公众号
亮点摘要
- 提出了艺术文本分割任务,并构建了一个真实数据集用于基准测试。
- 设计了训练数据合成策略,生成了包含10万对图像-mask的合成数据集。
- 引入了逐层动量查询机制和骨架辅助头,以应对局部笔画变化和全局结构复杂性。
- 在艺术文本分割和场景文本分割任务中取得了最先进(SOTA)的成果,简化了实验范式。
数据集概述
提出了两个艺术文本数据集,WAS-R由真实世界文本图像组成,WAS-S由合成文本图像组成。WAS-R包含7,100张图像,并提供了详细的标注,包括最小四边形检测框、文本转录及文本效果。WAS-S合成数据集使用文本图像生成模型、Monkey语言模型和GPT-4配合 Mask Render技术生成。
方法介绍
WASNet模型基于Mask2Former架构,增加骨架辅助头和逐层动量查询改进了Transformer解码器。引入了mask注意力机制和逐层动量查询来应对艺术文本的局部笔画多样性。骨架辅助头提取对象中心轴,帮助捕捉文本全局结构。
实验结果
WASNet在WAS-R数据集上表现优越,超越了其他语义分割和文本分割模型。也在公开的场景文本分割数据集上验证了模型的泛化能力,取得了竞争力或最先进的结果。消融研究表明,提出的模块和合成数据集有效提升了性能。
结论与展望
本文聚焦于艺术文本分割任务,提出了真实和合成数据集,并通过引入逐层动量查询和骨架辅助头,显著提升了艺术文本分割的性能和泛化能力。期望未来有更多研究关注这一任务,改变文本分割的实验范式。
想要了解更多内容?
文章来源:
AI生成未来
扫码关注公众号
AI生成未来的其他文章
王者归来!Stability-AI又放大招 | Stable Cascade:更快更强的图像生成模型!
关注【AI生成未来】公众号,回复“GAI”,免费获取??
为合成目标找回丢失的影子!SGDiffusion:用Diffusion模型生成逼真阴影(上交)
点击下方卡片,关注“AI生成未来”>>后台回复“
勇夺三项SOTA!北航&爱诗科技联合发布灵活高效可控视频生成方法TrackGo!
点击下方卡片,关注“AI生成未来”>>后台回复“
全面提升!上海交大等联合发布MegaFusion:无须微调的高效高分辨率图像生成方法
点击下方卡片,关注“AI生成未来”>>后台回复“
低比特量化的LLAMA3模型有多好? | 香港大学&北航最新研究发布
击下方卡片,关注“AI生成未来”>>后台回复“GAI
加入社区微信群
与行业大咖零距离交流学习
软件研发质量管理体系建设
白皮书上线