谌贵辉,林瑾瑜*,李跃华,李忠兵,魏钰力,卢 凯
(1.西南石油大学 电气信息学院,成都 610500;
2.南充职业技术学院 机电工程系,四川 南充 637131)
低照度图像增强在电子产品、安防监控、军事等领域有着广泛的应用。低照度图像主要的特点是低光区域占据了图像大部分,不足的光照会严重降低图像的视觉质量,伴随着细节的丢失、对比度的降低导致无法得到完整的图像信息,同时会影响诸多计算机视觉系统的性能,尤其会对一些目标检测、图像分割任务造成极大的负面影响。低照度图像的产生原因有很多,如低照度环境、低端的摄影设备以及不正确的摄影设备的调制等。低照度图像增强则是为了去复原图像的细节信息,改善图像的视觉质量。尽管现在已有一些针对夜间拍摄的相机,但一般来说,这些硬件设备价格较为昂贵、专业性也非常强,难以推广到各个领域当中。因此,通过图像增强的方法来研究如何在低光情况下获得清晰、高质量图像的图像增强技术非常必要。
当前国内外对于低照度图像处理技术的相关研究还处在不断摸索的状态之中,例如文献[1]利用深度学习的方法利用3 个模块完成低照度图像增强任务。虽取得了一定成果,但还没有达到预期效果,这个领域的技术还不成熟,仍然还有许多的难点需要去攻克,经过深入的前期调研,目前低照度图像处理的方法大致能够分为传统方法和深度学习的方法。
传统方法主要分为两类:一是基于Retinex(Retina cortex)理论[2-6],该理论基于人类视觉构造,认为人眼看到的图像由反射光和照射光共同决定,其中反射光对应为物体固有属性无法改变,因此通过估计照射光强度反解反射光强度,从而达到增强对比度的目的,但是其求解过程是病态的,需要构建复杂的先验正则项,且需要花费大量的时间进行迭代。二是基于直方图均衡化(Histogram Equalization,HE)[7-8],其原理主要是提高图像的对比度,通过改变图像直方图来改变图像中各像素的灰度级来增加图像的对比度,但是该算法缺乏对像素间关系的考虑,且图像增强过程中可能会将噪声放大,导致最后得到的图像含噪声较大。尽管有许多的学者通过一些传统的算法去对低照度图像进行增强处理,但是传统算法方法缺乏理论依据、细节丢失、噪声大、过度曝光等问题使得最终增强的效果并不理想。另外,传统算法无法大批量快速处理低照度图像,这在实际应用中也是个需要着重考虑的问题。
随着深度学习技术在计算机视觉领域取了一系列成就,深度学习的方法开始成为各领域的主流方法。Lore 等[9]在低照度图像增强这个领域提出了第一个开创性网络LLNet(Low-Light Net),该网络采用一种堆叠稀疏去噪自编码器的方法同时对低照度图像进行增亮和去噪。自此在低照度图像增强这个领域开始涌现出各种基于深度学习的方法。Tao等[10]提出来用于弱光图像增强的卷积神经网络(Convolutional Neural Network for Low-Light image enhancement,LLCNN),该网络利用卷积神经网络提取图像多尺度的特征,以结构相似性(Structure SIMilarity,SSIM)为损失函数去约束真实图像与低照度图像之间的映射关系从而增强图像。Wei 等[11]提出来的RetinexNet(Retinex Network),该网络利用Retinex 理论与深度学习方法相结合,由分解模块、增强模块、重建模块3 个模块组成,并用三种损失函数组合成的混合损失函数去约束这3 个模块,原理则是将低照度图像分解为反射光和照射光,通过增强照射光去增强图像 。Wang 等[12]提出的 GLADNet(Low-Light Enhancement Network with Global Awareness)网络,提出了用低光输入去计算全局估计,利用这个估计指导调节光照的方法。Jiang 等[13]所提出的EnlightenGAN(Enlighten Generative Adversarial Network),该网络是一种生成对抗网络,可以在不需要低/正常光图像对的情况下进行训练,降低了网络对数据集的要求。还有近些年的一些深度学习网络虽然能在一定程度上完成低照度图像处理的任务,但这些网络大多采用单阶段的编码器-解码器的结构去增强图像,因而在进行下采样的时候通常会损失一些边缘特征,这些特征在上采样时并没有办法恢复,进而处理后的图像会丢失细节信息,并且这种单阶段学习效率不高。
经过前期调研发现与广泛应用的单阶段网络相比,多阶段网络会更好地保留原图像细节,并且上阶段的特征信息有助于丰富下一阶段的特征信息。例如,Lim 等[14]发表的DSLR(Deep Stacked Laplacian Restorer)网络,利用多个阶段去处理图像并级联各阶段处理的图像信息,从结果上看图像的细节保留比单阶段的网络更加完整。Zamir 等[15]发表的MPRNet(Multi-stage Progressive image Restoration)网络,利用分阶段分步处理图像,每个阶段作为下一阶段的先决条件,得到的结论是该网络结构可以增强网络的泛化能力。
综上,本文提出了一个多阶段多尺度融合网络,用于逐级学习并增强低照度图像。与之前的一些低照度图像增强网络相比,本文提出的低照度图像增强网络属于多阶段网络,利用分步的方式去逐步增强图像。
在数据集方面,因为低照度真实图像的数据集的收集非常困难所以目前用的低照度数据集大多由合成图像组成,为提高网络参数的优化效果,本文在LOL 真实数据集[11]的基础上再扩充了10 027 对合成图片;
为了验证本文提出的网络架构的有效性,通过与之前一些经典算法和经典网络进行主观性和客观性的对比实验。
本文设计了一个多阶段网络MMCA-Net(Multi-scale Multi-stage Coordinate Attention Network)用于解决单阶段网络模块造成的细节丢失的问题。该网络共分3 个阶段,每个阶段都包含一个本文设计的CAU(Coordinate Attention-UNet)用于获取和强化该阶段的位置信息和背景信息,并逐级往上传递。这样利用前一阶段强化后的信息与现阶段的输入相级联的方法,将有助于丰富该阶段的特征,从而更好地保留原图像的一些细节,且每个阶段作为下一个阶段的先决条件可以增强网络的泛化能力。
如图1 所示,将原图像通过两次下采样模块得到不同分辨率的图像L1、L2、L3。这里的下采样模块使用双线性插值法,文献[14]中通过实验证实,使用双线性插值法进行下采样时,其scale_factor 参数设定为0.5,即将图像长宽各缩小一半有较好的效果,因此设定每次下采样后的图像长宽为原来的1/2。L1 为原图像,下采样得到的L2 的尺寸是原图像的1/2,L3 的尺寸是原图像的1/4,L1、L2、L3 的通道数都为3。下采样后的图像因为分辨率的减小会大幅减少学习任务的参数量,使得学习成本大幅减小。
图1 MMCA-Net网络架构Fig.1 Network architecture of MMCA-Net
得到L1、L2、L3 之后,第一阶段L3 通过本文改进的Coordinate Attention-UNet 模块处理后得到L3a,这一阶段通过对下采样后的低分辨率图像进行处理,一定程度地对图像进行了增亮且一定程度地恢复了图像背景轮廓。
第二阶段L3a经过上采样模块恢复到与L2 相同尺寸之后进行在特征通道上的融合,之后通过一个1×1 的卷积块进行特征压缩,得到的特征图包含了上一阶段所提取图像的位置信息和特征信息,之后将其作为第二阶段Coordinate Attention-UNet 模块的输入,通过第二阶段的多尺度融合模块提取并强化该阶段的特征信息得到了第二阶段的输出L2a,第二阶段在第一阶段的基础上再一次对图像进行了一定程度增亮,且一定程度地恢复了图像的细节特征。
第三阶具体过程与第二阶段相同,L2a通过上采样模块恢复到与L1 相同尺寸后进行在特征通道上的融合,之后通过1×1 的卷积块,再通过Coordinate Attention-UNet 模块,得到最后的输出L1a(output),L1a和输入的低照度图像尺寸大小一致,这个阶段在对图像进行了增亮的同时恢复了图像更多的背景层细节信息。
本文通过该框架在低分辨率的时候对图像进行一定的增亮和背景轮廓的恢复,在更高的分辨率下对图像进行更进一步的增亮和对图像细节的恢复。如此从“粗”到“细”的增强方式可以在增亮的同时更多地保留图像细节。
1.1 上采样模块与下采样模块
下采样模块和上采样模块采用双线性插值法,其主要操作是以横纵坐标方向分别进行一次线性插值。其原理图为图2,已知4 个像素点A11(x1,y1)、A21(x2,y1)、A12(x1,y2)、A22(x2,y2)。通过单线性插值法在X轴求得B1(x,y1)、B2(x,y2),如式(1)(2),再利用这两个点通过单线性插值法在Y轴方向求得最终像素点P(x,y),表达式为式(3)。
图2 双线性插值法原理Fig.2 Principle of bilinear interpolation method
采用双线性插值法对图像进行下采样和上采样,可以有效保障图像的精度,且采样过程中它不用学习任何参数。
1.2 Coordinate Attention-UNet模块
传统的UNet(U-Network)[16]在进行多尺度融合时只是单纯地将上采样所得到特征图和同层下采样时得到的特征图相融合。考虑到低照度图像所包含的内容不同,图像中物体大小不同,图像中物体边界难以分辨这些问题,直接进行特征融合容易造成信息的遗漏。为了更精准地得到图像的特征信息并满足对图像更高的细节要求,本文引入Coordinate Attention 模块[17]对UNet 进行改进,得到如图3 所示的CAU 模块。将Coordinate Attention 模块作用于UNet[16]中的下采样和上采样之间的跳跃连接上,改进后的CAU 模块将下采样产生的特征信息通过Coordinate Attention 模块强化信息表示之后再与同层上采样产生的特征信息进行特征融合,操作如式(4)所示:
式(4)中:Fid表示第i层下采样后的特征图,Fie表示第i层上采样后的特征图,ϕ表示注意力机制强化,⊕表示Concat操作。
CAU 模块中,Encoder 和Decoder 的每一层都包含两个3×3 卷积和两个ReLU(Rectified Linear Unit)激活函数,表达式如式(5)(6):
其中:ρ表示一个卷积操作之后再通过一个ReLU 激活函数。
图3 所示的下采样采用最大全局池化的方法,使用全局最大池化除了可以方便代替卷积层外,还可以减小因卷积层参数误差而造成的估计均值偏移,可以更好地提取图像的纹理;
且图像领域关注的信息在特征图上的像素值较大,最大池化的作用则是将这些像素值大的信息给保留下来,从而达到去除冗余信息、保留关键信息的目的。考虑到下采样后图像尺寸减小,需要上采样进行图像尺寸的复原,上采样常用插值法或反卷积的方法,使用反卷积进行上采样可以减少人工因素的影响,因而这里采用2×2 的反卷积。网络最后得到了大小为64 ×H×W的特征图,特征图融合了深层和浅层的特征信息,最终通过一个1×1 的卷积进行特征压缩,得到大小为3 ×H×W的增强图像。
图3 Coordinate Attention-UNet模块Fig.3 Coordinate Attention-UNet module
1.3 Coordinate Attention 模块
在一张图像里面,很多信息是无用的,而注意力机制则是为了去关注有用的信息,抑制无用的信息,引入注意力机制则是为了选择聚焦位置产生更具分辨性的特征表示。目前通常用到的注意力机制模块主要有SENet(Squeeze-and-Excitation Network)模 块[18]和CBAM(Convolutional Block Attention Module)[19]模块等。
SENet[18]模块因计算成本低而被广泛应用在各轻量级网络中,其过程分为Squeeze 和Excitation 两步,表达式分别为式(7)和式(8):
式(8)中:Wc1、Wc2代表全连接操作,δ和σ分别代表ReLU 和Sigmoid 激活函数。Squeeze 将H×W×C的矩阵压缩为1 ×1 ×C的矩阵,之后经Excitation 得到所需要的权重s,可以看出因SENet[18]更多地考虑通道间信息的编码而忽视了位置信息,而位置信息对于一些需要捕获目标结构的任务来讲非常重要。
CBAM[19]模块结合了通道注意力机制和空间注意力机制,其表达式分别为式(9)和式(10):
式(9)中:W1和W0为共享模块的权重,式子(10)中分别为平均池化特征和最大池化特征,σ为Sigmoid 激活函数,7×7 为卷积核。CBAM 模块通过减少通道数并使用大尺寸卷积来利用位置信息,这样只能捕捉到局部的相关特征,无法满足对于视觉任务非常重要的长程依赖性。
Hou 等[17]通过实验证明,与SENet[18]和CBAM[19]相比,CA(Coordinate Attention)[17]不仅能捕捉到跨通道的信息,还能得到方向和位置的信息,使得网络更加精准地得到想要关注的信息,且CA 模块非常轻量,可以很灵活地运用于各大架构中。
CA 模块结构如图4 所示,输入X通过尺寸为(H,1)和(1,W)的池化层经全局池化分解为水平、垂直坐标两个方向上的一维特征编码,其过程表达式为式(11)和式(12):
图4 Coordinate Attention 模块Fig.4 Coordinate Attention module
式中:xc(h,i)、xc(j,w)分别表示输入特征图坐标为(h,i)、通道为c的分量和坐标为(j,w)、通道为c的分量分别表示长为h的第c个通道的分量和宽为w的第c个通道的分量。这样沿着两个空间方向进行特征融合而得到一对含有方向信息的特征图,可以使得网络模块不仅能满足一个空间方向的长程依赖,还能保留沿着另一个空间方向的位置信息。
通过共享的1×1 卷积对通道进行降维得到空间信息在水平和竖直方向的中间特征图,其过程表达式为式(13):
式(13)中:F1代表卷积运算,δ代表ReLU 激活函数,f表示对空间信息在水平方向和垂直方向进行编码的中间特征映射。
之后沿着空间维度将其划分为两个单独的张量,通过1×1 卷积和Sigmoid 激活函数得到两个注意力权重值其表达式为式(14)和式(15):
式中:gh、gw表示两者方向的注意力权重值;
σ表示Sigmoid激活函数;
Fh、Fw表示1×1 卷积。
最后通过运用得到的权重与输入相结合得到注意力加强后的特征图,其表达式为:
其中:xc(i,j)表示输入特征图表示两个方向的注意力权重值。
1.4 损失函数
本文所提出的网络由3 个阶段构成,为了从“粗”到“细”恢复低照度图像,本文使用由L1 损失函数和SSIM 损失函数构成的混合损失函数去约束每个阶段的学习任务。
L1 损失函数的表达式为式(17)所示,L1 损失函数又叫平均绝对误差,是一种常用的回归损失函数,是目标值与预测值之差的绝对值之和,表达了平均误差的幅度因此不需要考虑误差的方向。有研究表明L1 损失函数可以比较好地保留图像内容的颜色和亮度,在网络GLADNet[12]中使用L1 损失函数去消除训练过程中的噪声对图像增强的影响。但是L1 损失函数存在一定的缺陷,对于神经网络来讲,它的梯度在极值点的时候会有很大的跃变,即使很小的损失值也会产生很大的误差,这将会影响实验效果,通常在使用L1 损失函数的时候需要将学习速率设为不断衰减的学习速率,这样才可以使误差减小,使得函数趋于收敛。
式(17)中:C、W、H分别代表输入图像的通道数、长度、高度;
y(xc,h,w)代表预测值代表真实值,xc,h,w表示该阶段的输入。
均方误差(Mean Squared Error,MSE)损失函数的表达式如式(18)。和L1 损失函数一样,通常使用在回归损失函数中,MSE 损失函数的曲线光滑连续,也处处可导,而且在伴随着网络训练过程中误差减小,梯度也会减小,如此便可加速收敛过程,因而即便是使用不变的学习速率,也可以很快收敛。但是当真实值和预测值差值大于1 的时候误差也会增大,也就是说MSE 损失函数对差异值较大的点很敏感,当网络训练时MSE 损失函数会赋予这些点更大的权重值,如此便会对其他点造成很大的影响,最终得到的网络训练参数可能会对预测结果产生不好的影响。
式中:C、W、H分别代表输入图像的通道数、长度、高度;
y(xc,h,w)代表预测值代表真实值,xc,h,w表示该阶段的输入。
考虑到L1 损失函数和MSE 损失函数的优缺点,使用L1损失函数和MSE 损失函数结合的混合损失函数训练本文的多阶段网络,使每个阶段的训练既能很好地保留图像内容的颜色和细节,又能使函数很快地收敛。其表达式为式(19):
通过前期调研和参考文献[12]发现式(19)中a设为0.01、b设为1 时函数收敛最快,且得到的预测效果最好。
为了对本文所提出的网络架构进行实验分析,首先对实验环境进行配置:实验在百度的深度学习平台飞桨上面进行,在飞桨平台上运用其开源的Paddle 框架与一些的python库进行网络搭建。实验所用服务器是Tesla V100 的显卡,其内存为32 GB。
2.1 数据集与训练样本
本文实验所采用的数据集为公开数据集LOL 数据集[10],包含了485 对真实场景下的正常/低照度图像。为了增强网络的泛化能力,避免训练出现过拟合现象,通过Photoshop 软件调整正常光图像的曝光率进而得到了10 027 对正常/低照度图像,一共10 512 对图像作为网络训练的数据集,数据集如图5 所示,其中90%作为训练集,10%作为验证集。
图5 数据集图像对Fig.5 Dataset image pairs
2.2 网络训练方法
训练方法:采用Adam[20]梯度优化算法,学习率设为0.001,batch_size 设为64。训练的结束取决于网络是否得到了最优训练参数。为了得到最优训练参数,则需要关注损失函数的变化,如图6 所示为网络训练过程中损失函数的变化曲线。
从图6 中看出当步数大约为8 万步以后训练集和验证集损失函数变化已趋近稳定,当步数超过10 万步之后损失函数几乎不再改变,说明此时的网络参数已趋近最优,此时迭代次数为30,训练结束。最终选择迭代次数为30 次的训练参数作为之后的测试参数。
图6 训练过程中的损失函数变化Fig.6 Loss function changes during training process
2.3 评价指标
为了定量地去评估低照度图像处理的效果,本文使用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和SSIM[21]对图像质量进行评估。PSNR 和SSIM 常被作为评价图像的客观指标,PSNR 单位为dB,数值越大代表失真越小;
SSIM 是衡量两幅图像相似度的指标,从亮度、对比度、结构三个方面评价图像质量,相对于PSNR 指标来讲SSIM 指标更符合人类视觉观察到的直观效果,其数值越大代表图像相似性越高,恢复的图像质量越好。PSNR 和SSIM 的表达式分别如式(20)和式(21)所示:
2.4 消融实验
为验证改进后的CAU 网络效果和多阶段结构的有效性,本文分别做了3 个消融实验。
消融实验一 通过比较在UNet[16]和CAU 网络处理后的图像效果,验证CAU 网络的有效性。如图7 所示,虽然CAU网络在亮度差异较大的区域会有光晕产生,但是从图中方框中可以发现改进后的CAU 网络在细节信息保留方面比UNet[16]网络做得更好。
图7 UNet网络与CAU网络主观图Fig.7 Subjective images of UNet network and CAU network
为了定量说明CAU 网络对于UNet 网络提升了多少,统计它们的峰值信噪比(PSNR)和结构相似性(SSIM)值来进行比较,结果如表1 所示。从表1 中可以看出,CAU 网络相较于UNet 网络在PSNR 值上提高了12.9%,在SSIM 值上提高了16.7%。
表1 UNet网络与CAU网络的峰值信噪比与结构相似性值Tab.1 PSNR and SSIM values of UNet and CAU networks
消融实验二 为了验证CAU 网络中引入坐标注意力机制(CA 模块)[17]的有效性,与引入SENet 模块[18]和引入CBAM[19]模块进行比较,最终效果如图8 所示。可以明显看出图8(b)中引入SENet 模块[18]时得到的主观图有明显的噪点;
图8(c)中引入的CBAM 模块[19]后得到的主观图也有一定程度的失真;
图8(d)中虽然在亮度差异较大的灯光区域会有明显的光晕和黑影出现,但是比较图8(b)~(d)中红框部分,可以明显看出引入坐标注意力机制后得到的图像在保留细节方面做得更加优秀。
图8 引入不同注意力机制模块的主观图Fig.8 Subjective images with different attention mechanism modules introduced
为了定量说明引入坐标注意力机制模块的优越性,统计三种注意力机制模块的PSNR 和SSIM 值来进行比较,结果如表2 所示。
表2 不同注意力机制下的多尺度融合网络的峰值信噪比与结构相似性数值Tab.2 PSNR and SSIM values of multi-scale fusion networks with different attention mechanisms
从表2 中看出引入CA 模块相较于引入SENet 模块和CABM 模块在PSNR 值上分别提高了7.0%、1.4%,在SSIM 值上分别提高了12.9%、2.9%。
消融实验三 分别使用单阶段的CAU 网络,两阶段的CAU 网络和三阶段CAU 网络去处理相同的一批低照度图像。结果如图9 所示:图9(b)为单阶段CAU 网络处理出来的图像,主观上可以看出对低照度图像有增强的效果,但是方框内会出现很明显的光晕和黑影;
如图9(c)所示为两阶段的CAU 网络处理的结果,主观上可以看出相较于单阶段的CAU 网络的增强效果有明显提升,也没有出现黑影,图像更加清晰,但是方框内依然存在光晕;
如图9(d)所示为当网络增加到三阶段的时候,从主观上观察,其图像明显较单阶段CAU 网络和两阶段CAU 网络图像增强的效果更好,且图像细节保留得更完整。
图9 不同阶段Coordinate Attention-UNet网络的主观图Fig.9 Subjective images of Coordinate-Attention UNet network at different stages
为了定量说明三阶段CAU 网络相较于单阶段CAU 和两阶段CAU 的优越性,统计它们的参数量和计算它们的PSNR和SSIM 值来进行比较,结果如表3 所示。
表3 不同阶段CAU网络处理后的峰值信噪比和结构相似性值与网络的参数量Tab.3 PSNR and SSIM values after CAU network processing and number of network parameters at different stages
从表3 中看出,三阶段网络相较两阶段和一阶段网络的参数量有所增长,但是相应的图像质量评价指标也有十分明显的提升。若增加为四阶段网络因为参数量过于庞大,训练成本会非常高,且实验环境暂时无法承担此项任务,因而最终选定三阶段网络为MMCA-Net 网络架构。
2.5 MMCA-Net与其他算法、网络的对比实验
为了评估MMCA-Net 网络的性能,使用相同的数据集进行训练,复现之前的一些经典低照度图像处理的方案(同样训练到当损失函数不在下降,趋于稳定后)用于对比。算法包括了Rahman 等[4]提出的MSR(Multi-Scale Retinex)算法;
Cheng 等[22]提出的直方图均衡化(HE)算法;
Wei 等[11]提出的RetinexNet 网络和还有Lim 等[14]提出的DSLR 网络。测试集源自于公开数据集LOL[11]和SICE[23],最终效果对比如图10所示。从主观效果上可以简单地评判图像的质量,从图中的实验结果可以清楚看出:
1)经过MSR[4]和HE[22]两种传统方法处理的图像颜色保真性差,HE[22]算法处理后的图像在一些关键点对比度会非常低,图像会有很多噪点,MSR 算法在处理一些亮度相差很大的区域会出现光晕现象,且处理之后的图像纹理不清晰,边缘锐化不足。
2)RetinexNet[11]网络虽然能做到对低照度图像增强的功能,但是很明显处理后的图像噪点多,色彩失真非常严重,效果并不好。
3)通过图10 的主观效果可以看出DSLR[14]的增强效果相较于传统方法和RetinexNet[11]来讲是有很大提升的,但是本文所提出的MMCA-Net 在细节保留方面会更加优秀。
图10 原图以及不同方法增强后的效果图Fig.10 Original images and effect images enhanced by different methods
为了定量地评估MMCA-Net 相较于对比方法的优越性,采用PSNR 和SSIM 作为评估各算法、网络效果的评价指标,另外给出网络的参数量用于综合性比较。各算法在测试集上的PSNR 值和SSIM 值以及参数量如表4 所示,从表中可以看出虽然MMCA-Net 网络在参数量上远超于DSLR 网络和RetinexNet 网络,但是相较于2020 年较新的DSLR 网络,MMCA-Net 在PSNR 值提高了11.0%;
SSIM 值提高了6.8%。结果表明本文提出的多阶段注意力网络恢复的图像质量优于之前的四种算法、网络,且图像更加真实、可信。
表4 不同方法的峰值信噪比和结构相似性值与网络的参数量Tab.4 PSNR and SSIM values and number of network parameters of different methods
综上所述,本文提出的MMCA-Net 网络相较于其他4 种算法、网络不论是在主观分析还是客观分析上,本文在低照度图像增强任务上的表现都更为优秀。
针对低照度图像增强过程中因图像内容有重叠且部分区域亮度差异较大,导致图像细节丢失的问题,本文提出了一个注意力机制下的多阶段低照度图像增强网络,该网络主要包含三个阶段,每个阶段包含一个用于提取并强化图像特征信息的多尺度融合模块,三个阶段的输入为不同分辨率的低照度图像,三个阶段的任务各有不同,通过低分辨率图像对背景轮廓进行一定的恢复,再逐步到利用高分辨率图像进行图像细节的恢复,从而由“粗”到“细”地完成低照度图像增强任务。并且本文从主观、客观两方面进行实验分析,验证了网络的有效性。为低照度图像处理任务提供了一种可行有效的方法。此外,虽然本文提出的网络能够在图像增强的同时保留原图像的细节,但是在处理一些手机拍摄的夜间相片时,会因为含噪太多导致增强后的图像含噪点,这也是接下来需要去解决的问题。
猜你喜欢图像增强照度卷积基于3D-Winograd的快速卷积算法设计及FPGA实现北京航空航天大学学报(2021年9期)2021-11-02图像增强技术在超跨声叶栅纹影试验中的应用燃气涡轮试验与研究(2021年6期)2021-08-01水下视觉SLAM图像增强研究海洋信息技术与应用(2020年4期)2021-01-18虚拟内窥镜图像增强膝关节镜手术导航系统中国生物医学工程学报(2019年5期)2019-07-16从滤波器理解卷积电子制作(2019年11期)2019-07-04恒照度智慧教室光环境光源与照明(2019年4期)2019-05-20基于傅里叶域卷积表示的目标跟踪算法北京航空航天大学学报(2018年1期)2018-04-20基于图像增强的无人机侦察图像去雾方法北京航空航天大学学报(2017年3期)2017-11-23体育建筑照明设计中垂直照度问题的研究照明工程学报(2017年3期)2017-07-10一种基于卷积神经网络的性别识别方法电视技术(2014年19期)2014-03-11