扫码阅读
手机扫码阅读
ECCV`24 | 艺术文本和场景文本分割任务新SOTA 方法!华科&Adobe提出WAS!

我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。

AI生成未来
扫码关注公众号
亮点摘要
- 提出了艺术文本分割任务,并构建了一个真实数据集用于基准测试。
- 设计了训练数据合成策略,生成了包含10万对图像-mask的合成数据集。
- 引入了逐层动量查询机制和骨架辅助头,以应对局部笔画变化和全局结构复杂性。
- 在艺术文本分割和场景文本分割任务中取得了最先进(SOTA)的成果,简化了实验范式。
数据集概述
提出了两个艺术文本数据集,WAS-R由真实世界文本图像组成,WAS-S由合成文本图像组成。WAS-R包含7,100张图像,并提供了详细的标注,包括最小四边形检测框、文本转录及文本效果。WAS-S合成数据集使用文本图像生成模型、Monkey语言模型和GPT-4配合 Mask Render技术生成。
方法介绍
WASNet模型基于Mask2Former架构,增加骨架辅助头和逐层动量查询改进了Transformer解码器。引入了mask注意力机制和逐层动量查询来应对艺术文本的局部笔画多样性。骨架辅助头提取对象中心轴,帮助捕捉文本全局结构。
实验结果
WASNet在WAS-R数据集上表现优越,超越了其他语义分割和文本分割模型。也在公开的场景文本分割数据集上验证了模型的泛化能力,取得了竞争力或最先进的结果。消融研究表明,提出的模块和合成数据集有效提升了性能。
结论与展望
本文聚焦于艺术文本分割任务,提出了真实和合成数据集,并通过引入逐层动量查询和骨架辅助头,显著提升了艺术文本分割的性能和泛化能力。期望未来有更多研究关注这一任务,改变文本分割的实验范式。
想要了解更多内容?

AI生成未来
扫码关注公众号
AI生成未来的其他文章
3D版"裁缝"开源来袭!Tailor3D:自定义3D编辑和资产生成(港大&上海AI-Lab&港中文)
点击下方卡片,关注“AI生成未来”>>后台回复“
IJCAI2024 | 拒绝偏见!Graph Transformers 公平性最新研究
击下方卡片,关注“AI生成未来”>>后台回复“GAI
上海交大&阿里巴巴推出虚拟试衣新里程碑式工作——AnyFit:任意场景、任意组合!
点击下方卡片,关注“AI生成未来”>>后台回复“
腾讯放大招了!AniPortrait开源上线!音频驱动逼真人像动画合成!人人都是歌手!
点击下方卡片,关注“AI生成未来”>>后台回复“
ECCV`24 | 比DragDiffusion快100倍!RegionDrag:快·准·好的图像编辑方法!港大&牛津
点击下方卡片,关注“AI生成未来”>>后台回复“
加入社区微信群
与行业大咖零距离交流学习


PMO实践白皮书
白皮书上线
白皮书上线