社交网络上的照片分享非常普遍,因为各种设备上都有现成的相机,尤其是手机。然而,由于低光和背光,捕捉到的照片可能会曝光不足;有关示例,请参见图1(a)。这样的照片不仅看起来不好看,不能捕捉到用户想要的,而且挑战了许多基本的计算机视觉任务,比如分割,目标检测和跟踪,因为曝光不足的区域有几乎不可见的细节和相对较低的对比度,以及暗淡的颜色。
严重曝光不足的照片增强是一项具有挑战性的任务,因为曝光不足的区域通常是难以察觉的,增强过程是高度非线性和主观的。虽然存在允许用户交互调整照片的软件,但对于非专业人士来说,这是相当乏味和困难的,因为它需要同时操纵颜色和对比度等控件,同时精细地调整照片中的各种对象和细节。最近的一些工具为用户提供了一个自动化的功能,用户只需点击一下就可以增强照片,例如iPhone上的“自动增强”和照片管理软件中的“自动色彩补偿功能”。这些工具不会很大地改变图像的对比度(和曝光率),而且由于在调整时自动平衡各种因素的固有困难,在曝光严重不足的图像上可能会失败;参见图1。
另一方面,学术界也提出了各种方法来解决这一问题。早期的工作[34,25,32,11,26,4]主要关注对比度增强,这可能不足以恢复图像的细节和颜色。最近的研究[16、17、13、9、15、22]采用数据驱动的方法,同时学习色彩、对比度、亮度和饱和度方面的调整,以产生更具表现力的结果。我们注意到现有的方法对严重曝光不足的图像仍有各自的局限性;参见图2。
本文提出了一种新的端到端图像增强网络。明确地说,我们没有直接学习图像到图像的映射,而是设计我们的网络,首先估计用于建模各种光照条件的图像到光照映射,然后使用光照映射照亮曝光不足的照片。通过这种方法,我们使学习过程有效,推断出丰富多样的摄影调整。此外,为了降低计算成本,我们采用了基于双边网格的上采样,并设计了一个在光照上采用各种约束条件和先验的损失函数,使我们能够有效地恢复自然曝光、对比度合适、细节清晰、色彩鲜艳的低曝光照片。我们还准备了一个新的数据集,包含3000张曝光不足的照片,涵盖了不同的照明条件,以补充现有的基准数据。下面,我们总结一下这项工作的主要贡献。
-
提出了一种基于图像到光照映射的低曝光图像增强网络,并基于光照约束和先验设计了一种新的损失函数;
-
准备了一个新的数据集,包含3000张曝光不足的图像,每一张都有经过专家润色的参考图像;
-
利用已有的和新的数据集对该方法进行了评价,定性和定量地证明了该方法的优越性。
从根本上讲,图像增强的任务可以被看作是寻求一个映射函数F,这样
I
^
。与现有的工作[11,14]不同,我们将S建模为一个多通道(R, G, B)数据,而不是单通道数据,以提高其建模颜色增强的能力,特别是处理不同颜色通道之间的非线性。
为什么这么做有效呢
通过在网络中引入中间光照,我们训练网络
学习图像到光照
(而不是图像到图像)的映射。其主要优点是自然图像的光照映射通常具有相对简单的形式和已知的先验。因此,该网络具有较强的泛化能力,能够有效地训练,学习复杂的摄影调整,适应不同的光照条件。此外,该模型可以通过制定光照约束来定制增强结果。例如,可以通过强制局部平滑照明来增强对比度,或者通过限制光照强度来设置首选曝光级别。
图3展示了我们的网络的传递途径,具有光照映射的有效学习和网络计算的高效两大优势。
增强曝光不足的照片需要同时调整局部特征(如对比度、细节锐度、阴影和高光)和全局特征(如颜色分布、平均亮度和场景类别)。我们从编码器网络产生的特性来考虑局部和全局环境,参见图3顶部。为了驱动网络从输入的低曝光图像
(
I
i
,
I
^
i
)
有效地学习S,通过丰富的摄影调整来恢复增强后的图像。
我们在低分辨率领域学习了图像到光照映射预测的局部和全局特征,并进行了基于双边网格的上采样[8,7,12,13],将低分辨率预测放大到全分辨率;参见图3。因此,大部分网络计算都是在低分辨率领域进行的,能够实时处理高分辨率图像。
我们从N对图像
s
.
t
.
(
I
i
)
c
≤
(
S
)
c
≤
1
图4为消融研究结果,显示了不同组分对损耗函数的影响。对比图中第二幅和第三幅图像,通过最小化重建损失,我们可以看到更清晰的细节和更好的对比度。它比单纯的图像到图像的回归有明显的优势,后者直接回归输出图像,而不估计我们网络中的中间光照(见图3)。虽然经过重构损失增强后的图像与经过专家润色后的图像更加相似,但仍然存在无法产生正确对比度细节和鲜艳颜色的风险(图4中的第3和第6张图像),因此我们也引入了平滑度和颜色损失。
平滑度损失
根据先验光滑性[23,20,2],自然图像中的光照一般为局部光滑。在我们的网络中采用这种优先级有两个优点。首先,它有助于减少过拟合,提高网络的泛化能力。其次,它增强了图像的对比度。当相邻像素p和q的光照值相似时,增强后图像的对比度可以估计为
w
y
,
c
p
是空间变化(每通道)平滑度权重,表示为
直观地说,平滑度损失鼓励光照在小梯度的像素上是平滑的,而在大梯度的像素上是不连续的。有趣的是,对于曝光不足的照片,图像内容和细节往往很弱。较大的渐变更可能是由不一致的光照造成的。如图4中的第4幅图像所示,通过进一步加入平滑度损失,我们恢复了良好的图像对比度,与仅重建损失的结果相比,细节更加清晰。
接下来,我们制定颜色损失使生成的图像
I
^
i
中的颜色匹配。
我们在其他颜色空间中使用这个简单的公式而不是L2距离的原因如下。首先,重构损失已经隐含地测量了L2色差。其次,由于L2度量标准仅用数值方法测量色差,因此不能保证颜色向量具有相同的方向。因此,这个度量标准可能会导致明显的颜色不匹配。这可以通过对比图4中有和没有颜色丢失的第4和第5个结果来观察。最后,该公式对网络计算简单、快速。
我们在(i)我们的数据集和(ii) MIT-Adobe FiveK[3]数据集上评估了我们的网络,该数据集包含5000个原始图像,每个数据集包含5个由不同专家生成的经过修饰的图像(A/B/C/D/E)。对于MIT-Adobe FiveK数据集,我们遵循前面的方法[13,15,22],只使用Expert C,的输出,随机选择500幅图像进行验证和测试,并对剩余的4500幅图像进行训练。
我们使用了两个常用的度量标准(即PSNR和SSIM)来定量评估我们的网络性能,根据预测结果和相应的专家润色图像之间的颜色和结构相似性。虽然这不是绝对的指示性,但总的来说,高的PSNR和SSIM值对应着相当好的结果。
我们将我们的方法与以下五种最先进的图像增强方法进行了比较:(i)最新的基于Retinex理论的方法,JieP [4],(ii)-(v) HDRNet[13]、DPE[9]、白盒[15]和畸变恢复[22]四种最新的基于深度编码的方法。为了进行公平的比较,我们使用作者提供的具有推荐参数设置的公开可用的实现来生成它们的结果。对于这四种基于学习的方法,我们进一步在我们的数据集和MIT-Adobe FiveK数据集上重新训练它们的模型,以产生最佳的可能结果。
可视化比较
首先,我们在图6和图7中对两个具有挑战性的案例进行了可视化比较,使用的是带有难以察觉的风车细节的不均匀曝光照片(来自我们的数据集)和带有少量肖像细节的整体微光照片(来自MIT-Adobe FiveK数据集)。比较结果,我们注意到我们的方法(h)比其他方法(b)-(f)有两个关键的改进。首先,我们的方法能够恢复更多的细节和更好的对比度在前景和背景,没有明显牺牲过/低曝光部分的图像。其次,它还显示生动和自然的颜色,使增强的效果看起来更现实。更多的视觉对比结果请参见补充资料。
为了评估网络的学习效率和泛化能力,我们使用PSNR和SSIM指标对其与其他方法进行了定量比较。表1和表2报告了结果,对于每种情况,我们都在各自的数据集上对网络和其他网络进行了重新培训。注意,在没有
L
2
损失。在这里,我们不包括JieP[4],因为它不是一个基于学习的方法。对于这两种比较,我们的方法都表现得更好,这表明我们的方法不仅有效地学习了用于增强低曝光照片的照片调整,而且很好地泛化到具有有限数量低曝光照片的MIT-Adobe FiveK数据集。
此外,我们对500名参与者进行了一项用户研究,以比较结果。与[22]类似,我们首先从Flickr中使用城市、花卉、食物、景观和人像等关键词进行搜索,抓取100个测试图像,这些图像的像素超过50%,亮度低于0.3(图9是一个例子)。然后,我们使用我们的方法和其他方法对每个测试图像进行增强,并通过Amazon Mechanical Turk招募参与者对每组结果进行评分,这些结果以随机的顺序呈现,以避免主观偏见。
对于每个结果,参与者被要求为图8中所示的六个问题中的每一个打分,使用李克特量表,从1(最差)到5(最好)。图8总结了结果,其中每个子图显示了针对特定问题的方法的六个评级分布。不同方法之间的分布表明,我们的结果更受人类受试者的青睐,与其他方法相比,我们的方法得到的红色评分更多,蓝色评分少得多。我们也对评分进行统计分析,我们的方法与其他方法进行配对t检验。结果表明:所有t检验结果均有统计学意义,p < 0.01。详见补充资料。此外,我们还将用户研究扩展到与iPhone上的“自动增强”和Lightroom中的“自动色彩补偿功能”进行比较。补充材料中也载有结果。
我们提出了一个新的端到端网络来增强曝光不足的照片。我们的核心思想是学习图像到光照(而不是图像到图像)的映射,从而利用自然图像中光照的简单性,为网络有效地学习各种摄影调整。此外,我们设计了一个损失函数,它采用了光照方面的各种约束和先验,并创建了一个包含3000对曝光不足的图像对的新数据集,使我们的网络能够恢复曝光不足的照片中清晰的细节、鲜明的对比度和生动的颜色。我们也进行了广泛的试验数据集和MIT-Adobe FiveK数据集,我们的方法和五个最先进的方法进行比较,来展示我们的解决方案在视觉对比上的优越性,定量比较的PSNR和SSIM指标,以及一个涉及500名参与者的用户研究。
我们未来的工作是将去噪模块整合到我们的网络中,并扩展我们处理视频的方法。另一个方向是利用场景语义分析和图像合成技术来处理接近黑色的区域。
论文:Underexposed Photo Enhancement Using Deep Illumination Estimation地址:https://openaccess.thecvf.com/content_CVPR_2019/html/Wang_Underexposed_Photo_Enhancement_Using_Deep_Illumination_Estimation_CVPR_2019_paper.html代码:https://github.com/Jia-Research-Lab/
论文地址:https://arxiv.org/abs/2001.06826
Tips:快速下载arxiv论文,在网址后面加上日期和页号
(http://xxx.itp.ac.cn/pdf/1406.2661.pdf)
github:https://github.com/wangyin0810/Zero-DCE
一、论文思路和创新点
论文思路:
在Introduction第二段中点名ZeroD.
// An highlighted block
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <iostream>
#include <stdio.h>
#include<math.h>
Back to Basics: Unsupervised Learning of Optical Flow via Brightness Constancy and Motion Smoothness
最近,卷积网络 (convnets) 已被证明可用于预测光流。 这种成功在很大程度上取决于大型数据集的可用性,这些数据集需要昂贵且复杂的数据采集和费力的标记。 为了绕过这些挑战,我们提出了一种无监督的方法(即,不利用地面实况流)来训练端到端的卷积网络来预测两个图像之间的光流。 **我们使用了一个损失函数,它结
【题目】:Underexposed photo enhancement using deep illumination estimation 在网络中引入中间
光照
,将输入与预期的增强结果相关联。
和以往的图像到图像的生成不太一样,这篇文章首先产生了三个亮度的通道,用这三个亮度的通道的逆去乘原图像,得到的最后增强之后的图像。...
1.提出了一种通用的视差注意机制来学习在无监督方式下具有大视差变化的图像对的立体对应关系
2.PAM被成功地应用于两个特定的任务:立体匹配和立体图像SR。我们基于PAM的网络在立体匹配和立体图像SR方面都实现了最先进的性能。
3.提出了一种用于训练立体图像SR网络的Flickr数据集Flickr1024。这个数据集由1024个高质量的立体声图像对组成,并涵盖了各种场景。
2.相关工作
近几十年来,[3]、[5]、[6]、[7]、[8]、[10]等各种任务。在这里,我们关注两个特定的任务,包
#今日论文推荐# 黑夜也能五颜六色,用
深度学习
实现全彩夜视系统
加州大学欧文分校的这项研究,让我们更期待未来更先进的彩色夜视仪。在一些军事大片中,士兵头戴夜视仪搜索前进似乎是少不了的场景。使用红外光在黑夜中观察的夜视系统通常将视物渲染成单色图像。
论文题目:Deep learning to enable color vision in the dark.
链接:https://www.aminer.cn/pub/6255359b5aee126c0fe34e8e?f=cs
详细解读:https://ww