-
摘要: 低光照图像增强旨在提高在低光照环境下所采集图像的视觉质量. 然而, 现有的低光照图像增强方法难以在计算效率与增强性能之间达到很好的平衡, 为此, 提出一种基于Retinex先验引导的低光照图像快速增强方法, 将Retinex模型与Gamma校正相结合, 快速输出具有对比度高、视觉效果好和低噪声的图像. 为获取具有良好光照的图像以引导确定与输入图像尺寸大小一致的Gamma校正图, 提出基于Retinex模型的先验图像生成方法. 针对所提先验图像生成方法在极低光照区域中存在颜色失真的问题, 提出一种基于融合的Gamma校正图估计方法, 采用反正切变换恢复极低光照区域的颜色和对比度, 以提升Gamma校正图在极低光照区域的增强性能. 为抑制输出图像的噪声, 考虑到完全平滑的Gamma校正图不会平滑细节纹理的特点, 提出基于域变换递归滤波的Gamma校正图优化方法, 降低输出图像噪声的同时保持颜色和对比度. 实验结果表明, 所提方法不仅在主客观图像质量评价上优于现有大多数主流算法, 而且在计算效率上具有十分显著的优势.Abstract: Low light image enhancement aims to improve the visual quality of images captured in low light environment. However, existing low light image enhancement methods are difficult to achieve a good balance between computational efficiency and enhancement performance. Therefore, a fast low light image enhancement method guided by Retinex prior is proposed. The Retinex model is combined with Gamma correction to quickly output images with high contrast, good visual effects and low noise. To obtain images with good illumination and guide the determination of Gamma correction map with the same size as the input image, a prior image generation method based on Retinex model is proposed. To solve the problem of color distortion in extremely low illumination areas, a fusion-based Gamma correction map estimation method is proposed, which uses arctangent transform to restore the color and contrast of extremely low illumination areas to improve the enhancement performance of Gamma correction map in extremely low illumination areas. To suppress the noise of the output image, considering that the completely smooth Gamma correction map cannot smooth the detail texture, an optimization method of Gamma correction map based on domain transform recursive filtering is proposed, which can reduce the noise and preserve the color and contrast of the output image. The experimental results show that the proposed method not only outperforms most of the existing mainstream algorithms in subjective and objective image quality evaluation, but also has significant advantages in computational efficiency.
-
Key words:
- Low light image enhancement /
- Gamma correction map /
- Retinex model /
- noise suppression
-
发票是财务系统的重要组成部分, 发票的识别和处理是财务人员的首要工作. 人工智能已被广泛应用在人脸识别、车辆识别、物体检测等各个领域, 而基于人工智能的发票识别, 可为财务人员节省大量的时间. 目前发票自动识别根据使用场景不同, 可分为移动客户端、云端和本地客户端. 移动端客户端发票识别是通过手机端的离线SDK, 集成到公司财务系统的APP内, 自动检测发票的边线并拍照识别, 提取发票上的关键信息; 云端发票识别是通过调用云平台的API接口, 将拍照或者扫描的发票图像传送到云平台上进行识别; 而本地客户端识别是识别软件与扫描仪硬件配合使用进行识别. 三种方式本质都是基于识别软件进行的. 由于发票种类繁多, 格式不固定, 有的发票存在手写的内容, 且不同人手写字的风格不一, 因此基于传统数字图像处理的识别软件, 相应识别准确率较低. 随着卷积神经网络的兴起, 包括表格线定位、手写文字识别等问题得到很好的解决. 文献[1]采用卷积神经网络实现增值税发票批量识别, 通过对发票图像进行采集、预处理、字符切割, 基于CNN神经网络进行字符识别, 同时融入人工修改, 提高识别率. 但是发票上的印章对发票识别准确率依旧具有一定影响, 且印章是每张发票必不可少的, 因此如何消除印章也是现在OCR (Optical character recognition)领域的研究热点. 目前大多数研究者对于发票印章的研究主要是印章识别与验证[2-4]. 针对发票印章的去除问题, 若通过印章定位, 而后直接挖除印章则会丢失印章下的发票内容; 若采用过滤颜色的方式来消除, 会导致发票中与印章颜色相近的文字变得模糊不清, 而且不同发票的印章颜色不同. 文献[5]提出一种基于彩色图像的二次分割算法来去除印章, 但是对于发票的要求较高, 需要保证印章的颜色为红色或者蓝色, 票据不能出现明显的扭曲和变形, 字体还需要求是黑色或灰色, 其实用性较差. 文献[6]针对印章覆盖、发票折痕等干扰因素影响发票号码分割的问题, 采用基于数字结构特征的识别算法, 通过对噪声粘连区域进行修复, 解决干扰因素对数字分割的影响, 实现发票号码识别. 但是如何判断噪声区域最小连通面积的阈值是算法关键, 当发票数量增多, 印章颜色深度和位置不统一时, 消除印章干扰则很困难.
各种图像处理软件也可用在印章消除上, 如PhotoShop, 但需要基于软件进行手动处理, 大量发票的印章消除则会新增大量工作量, 反倒得不偿失. 因此研究如何自动消除发票印章, 对提高发票识别准确率具有重要意义. 生成式对抗网络GAN (Generative adversarial network)是Goodfellow等在2014年提出的一种生成式网络[7]. 在GAN提出之前, 常见的生成式网络有最大似然估计法、近似法[8]、马尔科夫链法[9]等. 这些方法的基本步骤是, 先对样本数据进行分布假设, 然后利用数据样本直接对假设分布的参数进行拟合, 这会导致学习到的生成式模型受到限制[10]. 而GAN不同于上述的生成网络, 该方法采用对抗学习方式, 先通过判别器学习生成分布和真实分布之间的差异, 再驱使生成器去缩小差异. GAN相比于其他的生成网络, 对数据的分布不做显性的限制, 从而避免了人工设计网络分布[11]. GAN目前常用于实现图像的风格迁移以及超分辨图像的生成. 本文基于生成对抗网络提出用于消除印章的SealGAN网络. SealGAN借鉴了CycleGAN网络的循环结构, 采用两个独立的分类器来取代判别网络, 并针对印章的特点去设计生成网络, 实现发票图像的带印章到不带印章的风格迁移, 从而达到消除发票印章的效果.
1. 生成式对抗网络和CycleGAN网络
1.1 生成式对抗网络
生成式对抗网络结构如图1所示, 包括一个生成网络(G)和一个判别网络(D). 生成网络用于生成目标图像, 而判别网络用于判断图像是生成的虚假图像还是真实目标图像. 在训练时, 生成网络会在损失函数的牵引下让生成的图像尽可能地逼近目标图像, 判别网络则将生成图像和真实目标图像区分开, 由此构成对抗博弈的训练方式. 通过竞争方式, 生成网络生成的图像会越来越真实, 而判别网络的判别能力也会越来越强[7].
图1中
$ {{L}}_{G} $ 是更新生成网络G的损失,$ {{L}}_{D} $ 是更新判别网络D的损失, 如下式所示:$$ {{L}}_{G}=-\dfrac{1}{m}\displaystyle\sum _{i}^{m}{\rm{log}}\left(D\right(G\left({z}^{i}\right)\left)\right) $$ (1) $$ \begin{split} {{L}}_{D}=\,&-\frac{1}{m}\sum _{i}^{m}[{\rm{log}}\left(D\left({x}^{i}\right)\right)+ \\ &{\rm{log}}\left(1-D\left(G\left({z}^{i}\right)\right)\right)] \end{split}$$ (2) 式中
$ {z}^{i} $ 表示的是第i个输入,$ {x}^{i} $ 表示对应的真实图像. 生成网络和判别网络的损失函数均为交叉熵损失, 只是判别网络的目标是让真实图像的判别结果趋近于1, 生成图像结果趋近于0, 而生成网络则希望生成图像的判别结果趋近于1[7].1.2 CycleGAN网络
生成式对抗网络的概念提出后, 便成为学术界研究的热点. 在此基础上, 一些改进网络结构相继被提出, 如引入卷积神经网络的DCGAN[12], 用于生成超分辨图像的SRGAN、LapGAN[13-14], 用于风格迁移的pix2pix、cVAE-GAN[15-16]. 但是大部分生成式对抗网络都要求待处理图像和目标图像一一匹配. 针对带印章的发票, 则很难获取印章图像与其对应的无章图像. 2017年, 伯克利大学的研究团队在ICCV上提出了CycleGAN网络, 其最大特点是不需要待处理图像和目标图像一一匹配, 只需要两个分布不同的数据集即可实现数据集之间的相互风格迁移.
CycleGAN的基本思想是采用两个基础的生成式对抗网络, 采用循环的方式训练, 其网络结构如图2所示[17].
假设有两个不同分布的数据集A与B, CycleGAN中包含两个基础GAN网络, 一个负责把A类数据转化成B类数据, 记作
$ {GAN}_{A\; to\; B} $ , 另一个负责把B类数据转化成A类数据, 记作$ {GAN}_{B\; to\; A} .$ 设原始的A类图像为$ {X}_{A} $ , 通过$ {GAN}_{A\; to\; B} $ , 可以得到原始图像对应的B类风格图像$ {X'}_{B} $ . 如果采用传统图像对模式, 则存在$ {X}_{A} $ 对应的真实图像$ {X}_{B} $ , 这时只需将$ {X'}_{B} $ 和$ {X}_{B} $ 做均方差之类的损失计算, 通过反向传播更新生成网络参数即可驱使生成式网络生成内容相匹配的图像. 当无法获取图像对时, CycleGAN则把生成的$ {X'}_{B}$ 输入$ {GAN}_{B\;to\;A} $ , 生成相应的A类图像$ {X'}_{A} $ , 换言之就是试图把生成的$ {X'}_{B} $ 还原成原图像$ {X}_{A} $ , 此时计算$ {X}_{A} $ 和$ {X'}_{A} $ 之间的损失即可反向传播去更新两个生成对抗网络. 这种循环的训练模式巧妙地实现了不存在图像对时的两类数据集之间相互转化.2. 基于CycleGAN改进的SealGAN网络
2.1 SealGAN网络结构
SealGAN网络结构如图3所示,
$ {GEN}_{A \;to \;B} $ 和$ {GEN}_{B\; to\; A} $ 是生成式对抗网络中抽取出来的生成网络, 采用循环训练的方式. 与CycleGAN网络相比, 本文所提出的SealGAN中, 每个生成网络并没有配备相应的专属判别网络, 而是采用原始图像和所有生成图像单独训练了两个分类器, 其中$ {Classifier}_{AB} $ 用于区分A类和B类数据,$ {Classifier}_{RF} $ 用于区分真实图像和生成图像, 然后将两个分类器所计算出的损失加入到总损失中来更新整体网络的参数.在CycleGAN网络中, 采用
$ {GAN}_{A\; to\; B} $ 和$ {GAN}_{B\; to\; A} $ 两个基础的生成式对抗网络进行循环训练, 且有各自的判别网络. 以$ {GAN}_{A\; to\; B} $ 为例, 它的判别网络既需要判断输入图像是属于A类还是B类, 还需要判断输入图像是生成图像还是原始真实图像. 其实, 生成对抗网络中的判别网络是一个分类器, 对于分类器而言, 分类要求越高则分类效果越差, 而且两个判别网络虽然相互独立, 但是分类要求相似, 采用的训练样本交集较大. 因此本文所提出的SealGAN网络采用两个独立的分类器取代两个判别网络, 一个分类器用于区分A类和B类数据, 另一个分类器用于区分生成图像和真实图像. 相当于用两个独立的分类器来取代原本的判别网络, 网络整体参数数量没有太大变化, 但是对于单个分类器其分类要求降低, 分类效果更好.2.2 SealGAN网络中的生成网络
CycleGAN中有两种生成网络结构, 残差网络ResNet结构和UNet结构. ResNet结构用于解决层数较深的网络难以训练的问题. 在ResNet结构提出之前, 研究人员在提升网络性能上往往是单纯的叠加网络层数. 尽管网络层数的增加能够提高网络的特征容量, 理论上能更好地对样本进行拟合. 但是实际训练中, 当网络层数过大时, 参数的训练难度也大幅提升, 过分引入的卷积层和非线性激活不仅无法提升网络性能, 而且还难以维持浅层网络所达到的效果, 从而出现了模型退化问题[18]. ResNet结构的核心是采用了跨层连接思想, 引入了捷径连接的概念[19]. 残差网络结构如图4所示, 由于捷径连接的存在, 在训练过程中, 拟合的不再是目标分布, 而是目标分布和上一层网络输出之间的残差. 当浅层网络能够达到较好效果时, 残差趋近于零. 尽管在拟合残差时也引入了卷积和非线性激活, 但是要想拟合零只需要把所有参数都趋向零即可, 网络训练易于实现. 因此, ResNet结构的引入能够在加深网络层数, 提高网络拟合能力的同时, 也能保证达到浅层网络的效果, 从而消除网络退化问题. 图4中
$ F\left(x\right) $ 为待拟合的残差函数,$ H\left(x\right) $ 为待拟合的完整目标函数.UNet结构常用于图像分割领域, 其网络结构如图5所示. UNet结构包括下采样和上采样的过程. 在上采样过程中, 先把下采样和上采样中尺度相同的层拼接在一起, 再进行卷积和反卷积操作. 上采样层和下采样层之间的连接是UNet结构的亮点, 这些连接使得在上采样过程中可保留了更多的原始图像的纹理信息[20].
本文提出的SealGAN网络中, 生成网络结合ResNet和UNet两种结构, 搭建了一个下采样−精炼−上采样的网络结构, 如图6所示. 由于在消除印章的同时, 也希望能尽可能地保留印章下的内容, 而UNet结构的优势正是能更多地保留原始图像纹理信息, 因此在SealGAN网络的生成网络中, 上下采样部分采用了UNet结构, 而精炼部分采用了ResNet结构以保证网络的效果.
3. 实验结果与讨论
3.1 网络参数设置
输入图像的尺寸统一缩放为
$ 256\times 256 $ , 并把图像像素归一化到[−1, 1]区间. 为了保证消除印章后能够尽可能保留印章下的内容, 下采样通道数应多于上采样通道数, 以保证在上采样时能够有足够多的原始图像信息. 多次实验发现, 下采样的通道数与上采样的通道数的比例设置为1.5 : 1时效果最佳. 在生成网络中, 除了输出层, 其余层的激活函数均采用LeakyReLU.$$ {\rm{\sigma }}_{LeakyReLU}\left(x\right)=\left\{\begin{aligned}&x,\qquad\;\;\;{\rm{if}} \;x>0\\ &0.2x,\;\;\;\;\;\;{\rm{else}}\end{aligned}\right. $$ (3) 输出层采用tanh激活函数, 保证输出结果在[−1, 1]区间内.
$$ {\rm{\sigma }}_{{\rm{tanh}}}\left(x\right)=\dfrac{{\rm{sinh}}x}{{\rm{cosh}}x}=\dfrac{{{\rm{e}}}^{x}-{{\rm{e}}}^{-x}}{{\rm{{e}}}^{x}+{{\rm{e}}}^{-x}} $$ (4) 分类器网络前四层的激活函数采用LeakyReLU, 最后一层没有激活. 生成网络以及分类器的相关参数如表1所示.
表 1 生成网络和分类器参数表Table 1 Parameters of the generative network and classifier生成网络 分类器 下采样 精炼 上采样 7×7 conv, 96 Residual_block(3×3, 384) ×7 4×4 deconv, 256, ×2 4×4 conv, 64, /2 4×4 conv, 192, /2 4×4 deconv, 256, ×2 4×4 conv, 128, /2 4×4 conv, 384, /2 4×4 deconv, 256, ×2 4×4 conv, 256, /2 4×4 conv, 384, /2 4×4 deconv, 256, ×2 4×4 conv, 512, /2 4×4 conv, 384, /2 4×4 deconv, 128, ×2 4×4 conv, 1 4×4 conv, 384, /2 4×4 deconv, 64, ×2 4×4 conv, 384, /2 7×7 conv, 3 3.2 损失函数以及权重
损失函数包括两个分类器的损失
${Loss}_{AB}$ 、${Loss}_{RF} $ 和一个循环回来的图像之间的像素损失$ {Loss}_{G} $ . 设z为原始图像, G为生成网络, D是分类器, A为带印章图像, B对应的无印章图像. 原始的生成式对抗网络所使用的损失均为交叉熵损失, 在最近的研究中发现, 采用交叉熵损失存在梯度消失和模型坍塌的风险[21]. 相比于交叉熵损失, 最小二乘损失效果更佳[22]. 因此, SealGAN采用了最小二乘损失替换了交叉熵损失. 除此以外, 在计算生成图像和原始图像的内容损失时, 也不再使用常见的L2损失, 而是采用L1损失, 因为L2损失驱动下的生成图像更为模糊. 在训练分类器时, 损失函数如式(5)、(6)所示. 当训练生成网络时, 损失函数如式(7)、(8)、(9)所示. 其中,$ {Loss}_{AB} $ 和$ {Loss}_{RF} $ 的权重为1,$ {Loss}_{G} $ 的权重为10时, 生成效果最佳.$$ {Loss}_{AB}=\sum {\{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)-1\right)}^{2}\} $$ (5) $$ \begin{split} {Loss}_{RF}=&\sum \{{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)\right)}^{2}+ \\ &{\left(D\left(G\left({z}_{A}\right)\right)-1\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)-1\right)}^{2}\} \end{split}$$ (6) $$ {Loss}_{AB}=\sum \{{\left(D\left(G\left({z}_{A}\right)-1\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (7) $$ {Loss}_{RF}=\sum \{{\left(D\left(G\left({z}_{A}\right)\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (8) $$\begin{split} {Loss}_{G}=\,&\sum \{\left|{z}_{A}-{G}_{BtoA}\left({G}_{AtoB}\left({z}_{A}\right)\right)\right|+ \\ &\left|{z}_{B}-{G}_{AtoB}\left({G}_{BtoA}\left({z}_{B}\right)\right)\right|\} \end{split} $$ (9) 3.3 网络性能综合评价
为了能够更好地评价网络的性能, 本文提出针对印章消除的综合评价指标Evaluation-score (ES), 包含风格评价指标Class-score (CS1)和内容评价指标Content-score (CS2), 如下式所示.
$$ ES={\rm{\alpha }}\times{CS}_{1}+{\rm{\beta }}\times{CS}_{2} $$ (10) 式中的
$ {\rm{\alpha }} $ 和$ {\rm{\beta }} $ 是超参数, 可基于需求重要性进行调整, 本文实验中$ {\rm{\alpha }} $ 和$ {\rm{\beta }} $ 均为1.风格评价指标需要搭建一个分类网络, 采用的训练样本是真实的发票样本, 包含带印章和不带印章的样本. 本论文所搭建的分类网络借鉴GoogleNet网络结构[23], 损失函数采用余弦损失函数, 目标是让带印章样本的输出趋向于0, 不带印章样本的输出趋向于1. 采用余弦损失函数能够更好地增大类间距离, 公式如式(11)所示[24]. 将生成的图像通过训练好的分类网络, 所得到的结果即为CS1, 得分越高, 则消除印章的效果越好.
$$ {\rm{L}}_{cos}=\frac{1}{N}\sum _{i}-\log\frac{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}}{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}+\displaystyle\sum _{j\ne i}{{\rm{e}}}^{s{\rm{cos}}\left({\theta }_{i,j}\right)}} $$ (11) 内容评价指标则是利用生成图像和原带章图像之间的均方根误差计算的, 均方根误差越小, 意味着保留的内容越多. 定义的内容评价指标如下:
$$ {CS}_{2}=\frac{1}{{\rm{log}}\left(1+\sqrt{\dfrac{\displaystyle\sum {\left({x}_{i}-{y}_{i}\right)}^{2}}{N}}\right)} $$ (12) 3.4 结果与讨论
训练图像一共有六千余张发票图, 其中带印章样本和不带印章样本的比例约为1 : 1, 印章样本包含了出租车票印章、增值税发票印章、高速公路收费票据印章、定额发票印章以及各类企业单位加盖的公章. 在训练网络过程中, 为选择最佳的训练集和测试集比例, 对CycleGAN-ResNet网络和CycleGAN-UNet网络, 以及本文所提的SealGAN网络等三种网络, 采用不同的训练集和测试集划分比例, 包括7 : 3、8 : 2和9 : 1三种, 进行对比实验, 并基于网络性能综合评价指标ES进行评价. 三种网络不同数据集划分比例的综合评价指标如图7所示.
由图7可知, 随训练集和测试集比例增大, 网络综合性能评价指标也在提升. 为了让每种网络效果达到最佳, 因此在论文实验中采用训练集和测试集比例为9 : 1分布进行实验比对.
本文分别使用了文献[5]的二次分割方法、采用ResNet和UNet生成网络的CycleGAN网络, 以及SealGAN网络, 进行发票印章消除实验. 训练模型时, 针对三种常见的优化器Momentum、RMSProp和Adam进行实验对比, 最终选择稳定性最佳的Adam优化器. 每种网络均训练了20个Epoch, Batch Size均为4. 学习率的初始值是0.0002, 每训练一个Epoch, 学习率下降10 %. 在CycleGAN模型中, 针对生成器和判别器不同的损失权重比, 包括1 : 1, 5 : 1, 10 : 1和15 : 1, 通过网络综合评价指标ES进行测试对比, 可知10:1为最佳损失权重比. 基于上述的参数设定进行实验, 图8是四种方法对发票印章消除的效果.
由图中可知, 采用二次分割的方法效果最差, 由于方法的核心思想是对颜色进行阈值分割来获取印章部分再进行修改, 所以当发票颜色复杂时, 对印章部分的定位不完整, 导致印章消除不全, 而且对于获取到的印章部分采用直接填充背景方法, 对发票内容造成影响. 采用ResNet生成网络的CycleGAN, 生成的结果比较模糊, 色彩与原图相比, 色差巨大; 除此以外, 内容丢失也很严重. 采用UNet生成网络的CycleGAN, 由于UNet在进行上采样时融合了下采样层的特征, 保证了上采样过程中保留更多的原始信息, 因此色彩问题得到解决, 但是依旧有明显的内容丢失, 特别是当内容的颜色与印章的颜色相近时. 基于SealGAN网络的印章消除, 采用了下采样−精炼−上采样的生成结构, 而且上采样过程也融入了下采样层的原始信息, 因此色差问题基本不存在, 生成的结果相比于前两个网络的实验结果要清晰很多. 除此以外, 由于SealGAN并不是简单地用两个基础GAN网络搭建的循环结构, 而是用两个专门的分类器来替代判别器, 其中一个分类器专门区分真实样本和生成样本, 另一个专门区分带章样本和不带章样本. 这种替换使得网络能够更好地学习到哪些部分属于印章, 哪些部分不属于印章, 因此SealGAN网络可更好地保留非章内容.
三种不同网络消除发票印章的评价如表2所示, 可知SealGAN具有最高得分.
表 2 三种网络性能评价指标Table 2 Performance evaluation indices of three kinds of network网络类型 CS1 CS2 $ ES $ 二次分割 0.340 0.991 1.331 CycleGAN-ResNet 0.678 0.699 1.377 CycleGAN-UNet 0.703 0.679 1.382 SealGAN 0.699 0.740 1.439 4. 结语
本文针对发票上消除印章的问题, 分析了CycleGAN网络的优缺点, 并基于此进行相应改进, 提出SealGAN网络结构, 设计了包括风格评价和内容评价的网络综合评价指标. SealGAN网络用两个独立的分类器来取代原本的判别网络, 可降低单个分类器的分类要求, 提高网络的学习效果, 同时生成网络结合ResNet和Unet两种结构, 实现下采样−精炼−上采样的过程, 能够生成更加清晰的图像. 基于发票印章消除实验, 与原始的CycleGAN进行对比可看出, 本文所提出的SealGAN无论是在模糊程度、生成色彩等图像细节上, 还是内容的保留程度上都要明显优于原始的CycleGAN网络, 且综合评价指标高于CycleGAN网络, 实验结果表明了所提出的SealGAN网络的有效性. 未来可进一步提高非章内容的保留效果, 尤其是当印章与印章下的发票内容颜色很相近时, 并可针对发票复印件进行印章消除研究.
-
表 1 不同方法在不同低光照数据集中的CEIQ值
Table 1 CEIQ values of different methods in different low light datasets
NPEA[34] LIME[8] MF[9] LECARM[35] STAR[36] SCI[16] 所提方法 DCIM 3.399 3.358 3.145 3.109 3.162 3.185 3.063 Fusion 3.405 3.399 3.428 3.405 3.387 3.340 3.358 NPE 3.784 3.478 3.499 3.497 3.484 3.523 3.429 VV 3.485 3.512 3.342 3.321 3.316 3.345 3.258 LIME 3.426 3.490 3.181 3.184 3.046 3.193 2.990 Darkface 3.198 3.246 2.779 2.716 2.438 2.407 2.496 平均值 3.449 3.413 3.229 3.205 3.139 3.165 3.099 表 2 不同方法在不同低光照数据集中的LOE值
Table 2 LOE values of different methods in different low light datasets
NPEA[34] LIME[8] MF[9] LECARM[35] STAR[36] SCI[16] 所提方法 DCIM 753.2 857.5 782.2 770.0 590.9 777.6 581.0 Fusion 564.9 803.6 614.2 681.7 527.4 703.1 523.0 NPE 731.2 847.6 750.1 845.2 549.3 849.7 588.1 VV 563.3 799.3 517.3 596.5 369.3 619.8 347.6 LIME 540.9 608.8 661.0 687.4 537.9 678.1 557.1 Darkface 955.8 942.1 883.9 428.6 621.8 458.9 260.8 平均值 684.9 809.9 701.4 668.2 532.7 681.2 476.2 表 3 不同方法在不同低光照数据集中的NL值
Table 3 NL values of different methods in different low light datasets
NPEA[34] LIME[8] MF[9] LECARM[35] STAR[36] SCI[16] 所提方法 DCIM 1.156 1.707 0.578 0.485 0.491 1.099 0.358 Fusion 0.561 0.715 0.509 0.599 0.597 0.510 0.325 NPE 0.778 0.908 0.690 0.685 0.688 0.623 0.526 VV 0.764 0.836 0.549 0.637 0.663 0.539 0.459 LIME 1.036 1.074 0.872 0.733 0.722 0.744 0.619 Darkface 2.019 2.586 1.585 1.157 1.147 1.084 0.789 平均值 1.052 1.304 0.797 0.716 0.718 0.766 0.512 表 4 不同方法处理不同图像尺寸的运行时间 (s)
Table 4 Running time for different image sizes processed by different methods (s)
-
[1] 徐少平, 张贵珍, 林珍玉, 刘婷云, 李崇禧. 一种多图像局部结构化融合的低照度图像增强算法. 自动化学报, 2022, 48(12): 2981−2995Xu Shao-Ping, Zhang Gui-Zhen, Lin Zhen-Yu, Liu Ting-Yun, Li Chong-Xi. A multi-image local structured fusion-based low-light image enhancement algorithm. Acta Automatica Sinica, 2022, 48(12): 2981−2995 [2] 鞠明, 李成, 高山, 穆举国, 毕笃彦. 基于向心自动波交叉皮质模型的非均匀光照图像增强. 自动化学报, 2011, 37(7): 800−810Ju Ming, Li Cheng, Gao Shan, Mu Ju-Guo, Bi Du-Yan. Non uniform-lighting image enhancement based on centripetal autowave intersecting cortical model. Acta Automatica Sinica, 2011, 37(7): 800−810 [3] Kim T, Paik J. Adaptive contrast enhancement using gain-controllable clipped histogram equalization. IEEE Transactions on Consumer Electronics, 2008, 54(4): 1803−1810 doi: 10.1109/TCE.2008.4711238 [4] Arici T, Dikbas S, Altunbasak Y. A histogram modifcation framework and its application for image contrast enhancement. IEEE Transactions on Image Processing, 2009, 18(9): 1921−1935 doi: 10.1109/TIP.2009.2021548 [5] Farid H. Blind inverse gamma correction. IEEE Transactions on Image Processing, 2001, 10(10): 1428−1433 doi: 10.1109/83.951529 [6] Huang S C, Cheng F C, Chiu Y S. Efficient contrast enhancement using adaptive gamma correction with weighting distribution. IEEE Transactions on Image Processing, 2013, 22(3): 1032−1041 [7] Land E H, McCann J J. Lightness and Retinex theory. Journal of the Optical Society of America, 1971, 61(1): 1−11 doi: 10.1364/JOSA.61.000001 [8] Guo X J, Li Y, Ling H B. LIME: Low-light image enhancement via illumination map estimation. IEEE Transactions on Image Processing, 2017, 26(2): 982−993 doi: 10.1109/TIP.2016.2639450 [9] Fu X Y, Zeng D L, Huang Y, Liao Y H, Ding X H, Paisley J. A fusion-based enhancing method for weakly illuminated images. Signal Processing, 2016, 129: 82−96 doi: 10.1016/j.sigpro.2016.05.031 [10] Li M D, Liu J Y, Yang W H, Sun X Y, Guo Z M. Structure-revealing low-light image enhancement via robust Retinex model. IEEE Transactions on Image Processing, 2018, 27(6): 2828−2841 doi: 10.1109/TIP.2018.2810539 [11] Li J J, Feng X M, Hua Z. Low-light image enhancement via progressive-recursive network. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(11): 4227−4240 doi: 10.1109/TCSVT.2021.3049940 [12] Lv F F, Li Y, Lu F. Attention guided low-light image enhancement with a large scale low-light simulation dataset. International Journal of Computer Vision, 2021, 129: 2175−2193 doi: 10.1007/s11263-021-01466-8 [13] Lu K, Zhang L H. TBEFN: A two-branch exposure-fusion network for low-light image enhancement. IEEE Transactions on Multimedia, 2021, 23: 4093−4105 [14] Guo C L, Li C Y, Guo J C, Loy C C, Hou J H, Kwong S, et al. Zero-reference deep curve estimation for low-light image enhancement. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020. 1777−1786 [15] Zhao Z J, Xiong B S, Wang L, Ou Q F, Yu L, Kuang F. RetinexDIP: A unified deep framework for low-light image enhancement. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 32(3): 1076−1088 doi: 10.1109/TCSVT.2021.3073371 [16] Ma L, Ma T Y, Liu R S, Fan X, Luo Z X. Toward fast, flexible, and robust low-light image enhancement. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, USA: IEEE, 2022. 5627−5636 [17] Xu H T, Zhai G T, Wu X L, Yang X K. Generalized equalization model for image enhancement. IEEE Transactions on Multimedia, 2014, 16(1): 68−82 doi: 10.1109/TMM.2013.2283453 [18] Pisano E D, Zong S Q, Hemminger B M, DeLuca M, Johnston R E. Contrast limited adaptive histogram equalization image processing to improve the detection of simulated spiculations in dense mammograms. Journal of Digital Imaging, 1998, 11: Article No. 193 doi: 10.1007/BF03178082 [19] Rahman S, Rahman M M, Abdullah-Al-Wadud M, Al-Quaderi G D, Shoyaib M. An adaptive gamma correction for image enhancement. EURASIP Journal on Image and Video Processing, 2016, 2016(1): Article No. 35 [20] Yang K F, Li H, Kuang H L, Li C Y, Li Y J. An adaptive method for image dynamic range adjustment. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 29(3): 640−652 [21] Jeong I, Lee C. An optimization-based approach to gamma correction parameter estimation for low-light image enhancement. Multimedia Tools and Applications, 2021, 80: 18027−18042 doi: 10.1007/s11042-021-10614-8 [22] Jobson D J, Rahman Z, Woodell G A. Properties and performance of a center/surround Retinex. IEEE Transactions on Image Processing, 1997, 6(3): 451−462 [23] Jobson D J, Rahman Z, Woodell G A. A multi-scale Retinex for bridging the gap between color images and the human observation of scenes. IEEE Transactions on Image Processing, 1997, 6(7): 965−976 doi: 10.1109/83.597272 [24] Dabov K, Foi A, Katkovnik V, Egiazarian K. Image denoising by sparse 3-D transform-domain collaborative filtering. IEEE Transactions on Image Processing, 2007, 16(8): 2080−2095 doi: 10.1109/TIP.2007.901238 [25] Fu X Y, Zeng D L, Huang Y, Zhang X P, Ding X H. A weighted variational model for simultaneous reflectance and illumination estimation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016. 2782−2790 [26] Ren W Q, Liu S F, Ma L, Xu Q Q, Xu X Y, Cao X C, et al. Low-light image enhancement via a deep hybrid network. IEEE Transactions on Image Processing, 2019, 28(9): 4364−4375 doi: 10.1109/TIP.2019.2910412 [27] Lore K G, Akintayo A, Sarkar S. LLNet: A deep autoencoder approach to natural low-light image enhancement. Pattern Recognition, 2017, 61: 650−662 doi: 10.1016/j.patcog.2016.06.008 [28] Lv F F, Lu F, Wu J H, Lim C. MBLLEN: Low-light image/video enhancement using CNNs. In: Proceedings of the 29th British Machine Vision Conference. Newcastle, UK: BMVA, 2018. 1−13 [29] Li C Y, Guo J C, Porikli F, Pang Y W. LightenNet: A convolutional neural network for weakly illuminated image enhancement. Pattern Recognition Letters, 2018, 104: 15−22 doi: 10.1016/j.patrec.2018.01.010 [30] Jiang Y F, Gong X Y, Liu D, Cheng Y, Fang C, Shen X H, et al. EnlightenGAN: Deep light enhancement without paired supervision. IEEE Transactions on Image Processing, 2021, 30: 2340−2349 doi: 10.1109/TIP.2021.3051462 [31] Fan G D, Fan B, Gan M, Chen G Y, Chen C L P. Multiscale low-light image enhancement network with illumination constraint. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 32(11): 7403−7417 doi: 10.1109/TCSVT.2022.3186880 [32] Lempitsky V, Vedaldi A, Ulyanov D. Deep image prior. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 9446−9454 [33] Gastal E S L, Oliveira M M. Domain transform for edge-aware image and video processing. In: Proceedings of the Special Interest Group on Computer Graphics and Interactive Techniques Conference. Vancouver, Canada: ACM, 2011. 1–12 [34] Wang S H, Zheng J, Hu H M, Li B. Naturalness preserved enhancement algorithm for non-uniform illumination images. IEEE Transactions on Image Processing, 2013, 22(9): 3538−3548 doi: 10.1109/TIP.2013.2261309 [35] Ren Y R, Ying Z Q, Li T H, Li G. LECARM: Low-light image enhancement using the camera response model. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 29(4): 968−981 doi: 10.1109/TCSVT.2018.2828141 [36] Xu J, Hou Y K, Ren D W, Liu L, Zhu F, Yu M Y, et al. STAR: A structure and texture aware Retinex model. IEEE Transactions on Image Processing, 2020, 29: 5022−5037 doi: 10.1109/TIP.2020.2974060 [37] Yang W H, Yuan Y, Ren W Q, Liu J Y, Scheirer W J, Wang Z Y, et al. Advancing image understanding in poor visibility environments: A collective benchmark study. arXiv preprint arXiv: 1904.04474, 2019. [38] Yan J, Li J, Fu X. No-reference quality assessment of contrast-distorted images using contrast enhancement. arXiv preprint arXiv: 1904.08879, 2019. [39] Dong L, Zhou J T, Tang Y Y. Noise level estimation for natural images based on scale-invariant kurtosis and piecewise stationarity. IEEE Transactions on Image Processing, 2017, 26(2): 1017−1030 doi: 10.1109/TIP.2016.2639447 -