扫码阅读
手机扫码阅读
ECCV2024|LightenDiffusion 超越现有无监督方法,引领低光图像增强新纪元!

我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。

AI生成未来
扫码关注公众号
亮点直击
- 提出了LightenDiffusion框架,结合Retinex理论和扩散模型的生成能力,用于无监督低光图像增强。
- 引入了内容传输分解网络,在潜空间中获取内容丰富的反射率图和无内容的照明图,促进无监督恢复。
- 实验证明LightenDiffusion在视觉质量和泛化能力上超越现有无监督方法,并与监督方法相媲美。
方法概述
LightenDiffusion框架首先将低光图像和正常光图像转换为潜空间表示,通过内容传输分解网络(CTDN)分解为反射率图和照明图。结合低光特征指导的扩散模型进行无监督恢复,引入自我约束的一致性损失以消除干扰并提高视觉质量。实验证明了其在多个数据集上的优越性。
网络训练与实验
网络训练采用两阶段策略,先优化编码器、CTDN和解码器,再优化扩散模型。与现有方法的比较显示,LightenDiffusion在定量和视觉上均表现出色,尤其是在泛化能力上。此外,低光人脸检测实验也证明了其实际应用价值。
结论
LightenDiffusion框架有效地结合了Retinex理论和扩散模型,提出了内容传输分解网络和自我约束一致性损失,实现了无监督低光图像增强。其优异的性能和泛化能力在多个数据集上得到验证,并在低光人脸检测任务中显示潜在应用价值。
想要了解更多内容?

AI生成未来
扫码关注公众号
AI生成未来的其他文章
加入社区微信群
与行业大咖零距离交流学习


PMO实践白皮书
白皮书上线
白皮书上线