扫码阅读
手机扫码阅读
ECCV2024|LightenDiffusion 超越现有无监督方法,引领低光图像增强新纪元!

我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。

AI生成未来
扫码关注公众号
亮点直击
- 提出了LightenDiffusion框架,结合Retinex理论和扩散模型的生成能力,用于无监督低光图像增强。
- 引入了内容传输分解网络,在潜空间中获取内容丰富的反射率图和无内容的照明图,促进无监督恢复。
- 实验证明LightenDiffusion在视觉质量和泛化能力上超越现有无监督方法,并与监督方法相媲美。
方法概述
LightenDiffusion框架首先将低光图像和正常光图像转换为潜空间表示,通过内容传输分解网络(CTDN)分解为反射率图和照明图。结合低光特征指导的扩散模型进行无监督恢复,引入自我约束的一致性损失以消除干扰并提高视觉质量。实验证明了其在多个数据集上的优越性。
网络训练与实验
网络训练采用两阶段策略,先优化编码器、CTDN和解码器,再优化扩散模型。与现有方法的比较显示,LightenDiffusion在定量和视觉上均表现出色,尤其是在泛化能力上。此外,低光人脸检测实验也证明了其实际应用价值。
结论
LightenDiffusion框架有效地结合了Retinex理论和扩散模型,提出了内容传输分解网络和自我约束一致性损失,实现了无监督低光图像增强。其优异的性能和泛化能力在多个数据集上得到验证,并在低光人脸检测任务中显示潜在应用价值。
想要了解更多内容?

AI生成未来
扫码关注公众号
AI生成未来的其他文章
又见神仙打架,全面超越快手可灵?智谱AI联合清华发布CogVideoX | 技术报告解析
点击下方卡片,关注“AI生成未来”>>后台回复“
腾讯放大招了!AniPortrait开源上线!音频驱动逼真人像动画合成!人人都是歌手!
点击下方卡片,关注“AI生成未来”>>后台回复“
文本生视频最强SOTA! Lumiere:一种逼真视频生成时空扩散模型
关注【AI生成未来】公众号,回复“GAI”,免费获取??
SD和Sora们背后的关键技术!一文搞懂所有 VAE 模型(4个AE+12个VAE原理汇总)
点击下方卡片,关注“AI生成未来”>>关注【AI生
重大突破!IDAdapter:首个无需微调,单张图像生成多样和个性化头像方案(北大&格灵深瞳)
点击下方卡片,关注“AI生成未来”>>后台回复“
加入社区微信群
与行业大咖零距离交流学习


PMO实践白皮书
白皮书上线
白皮书上线