扫码阅读
手机扫码阅读
ECCV2024|LightenDiffusion 超越现有无监督方法,引领低光图像增强新纪元!
235 2024-10-25
我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。
文章来源:
AI生成未来
扫码关注公众号
亮点直击
- 提出了LightenDiffusion框架,结合Retinex理论和扩散模型的生成能力,用于无监督低光图像增强。
- 引入了内容传输分解网络,在潜空间中获取内容丰富的反射率图和无内容的照明图,促进无监督恢复。
- 实验证明LightenDiffusion在视觉质量和泛化能力上超越现有无监督方法,并与监督方法相媲美。
方法概述
LightenDiffusion框架首先将低光图像和正常光图像转换为潜空间表示,通过内容传输分解网络(CTDN)分解为反射率图和照明图。结合低光特征指导的扩散模型进行无监督恢复,引入自我约束的一致性损失以消除干扰并提高视觉质量。实验证明了其在多个数据集上的优越性。
网络训练与实验
网络训练采用两阶段策略,先优化编码器、CTDN和解码器,再优化扩散模型。与现有方法的比较显示,LightenDiffusion在定量和视觉上均表现出色,尤其是在泛化能力上。此外,低光人脸检测实验也证明了其实际应用价值。
结论
LightenDiffusion框架有效地结合了Retinex理论和扩散模型,提出了内容传输分解网络和自我约束一致性损失,实现了无监督低光图像增强。其优异的性能和泛化能力在多个数据集上得到验证,并在低光人脸检测任务中显示潜在应用价值。
想要了解更多内容?
文章来源:
AI生成未来
扫码关注公众号
AI生成未来的其他文章
2024年了,Diffusion模型还有什么可做的?
点击下方卡片,关注“AI生成未来”>>后台回复“
只需一步!One-Step图像转换来了!亲测效果惊艳!(卡内基梅隆&Adobe)
点击下方卡片,关注“AI生成未来”>>后台回复“
简单、快速、低成本、强大!高分辨率图像生成扩散外推方法CutDiffusion发布!
击下方卡片,关注“AI生成未来”>>后台回复“GAI
ECCV`24 | 编辑能力无上限!北航&谷歌&旷视等开源Chat-Edit-3D: 3D 场景编辑新范式!
点击下方卡片,关注“AI生成未来”>>后台回复“
精度提升10个点!HD-Painter:无需训练的文本引导高分辨率图像修复方案!
作者:Zhangyang Wang等
解读:AIGCer基于文本到图像扩散?
加入社区微信群
与行业大咖零距离交流学习
软件研发质量管理体系建设
白皮书上线