-
摘要: 针对现有去雾后图像质量评价算法少、针对性弱和有效性差等问题, 本文提出一种基于分类学习的去雾后图像质量评价算法.该算法通过分析去雾后图像本身所蕴含的质量特征, 提取出基于图像增强、图像复原、统计先验以及人类视觉系统 (Human visual system, HVS) 的度量指标; 并在本文数据库基础上, 利用支持向量机 (Support vector machine, SVM) 将质量评价问题转换为分类问题.实验结果表明, 该算法与已有评价方法相比, 在获得高效分类评价结果的同时, 具有较好的实用性和主观一致性.Abstract: Since existing quality assessment methods suffer from poor pertinence and low efficiency, a novel quality assessment method based on classified learning for dehazed images is proposed. In this paper, firstly the metrics interms of image enhancement, image restoration, statistical prior, and human visual system are extracted by analyzing qualitative characteristics of images after haze removal. Then the quality assessment problem is converted to the classification problem by means of support vector machine using our database. Experimental results demonstrate that compared with other state-of-the-art methods the proposed method is highly efficient and practical with subjective and objective consistency.
-
由于受雾天退化现象的影响, 可见光成像系统成像质量严重下降, 而改善雾天图像质量的去雾算法已成为当前研究的一个热点[1-3]; 作为去雾算法效能评估的关键环节, 去雾后图像的质量评价有着极高的物理意义和现实价值.
目前, 国内外学者已经在图像质量评价方面进行了大量研究, 但几乎都是针对传统的失真图像进行的, 如压缩失真、噪声污染、高斯模糊和码流丢失等[4]; 而去雾后图像质量评价研究仅仅处于起步阶段, 有许多问题尚未被发现和解决.图像质量评价方法可分为主观评价和客观评价:主观评价容易受个体的环境以及心理因素的影响而带来评价结果的波动; 而客观评价具有较高的可靠性, 并且更加高效、自动、易于系统实现.在早期的一些去雾算法效能评估中用到的主要是主观评价方法[5-7]; 随着对去雾算法的深入研究, 结合去雾后图像无原始真实图像作为参考这一特点, 一些无参考型图像质量指标被直接应用到去雾后的图像质量评价中. 2009年, Tarel等[8]将法国学者Hautiére等[9]提出的基于可见边缘的盲对比度增强评价算法直接应用于去雾后图像的质量评价中, 其对图像的结构信息敏感, 但无法评价细节过度恢复的图像.在Hautiére等基础上, 郭璠等[10]于2012年将去雾图像的色彩质量评价引入其中, 建立了CNC (Contrast-naturalness-colorfulness) 综合评价体系, 较为全面的度量了去雾后图像质量, 但其与Hautiére等的评价指标相似, 同样受3种指标的制约, 难以进行综合评定. 2011年, 李大鹏等[11]采用综合隶属度法则将图像有效细节强度、色调还原程度和结构信息进行组合; 忽视了各分量权重, 虽取得了一定效果, 但对失真图像质量评价无效. 2014年, Wang等[12]直接将DIIVINE[13]指标用于去雾后的质量评价当中, 其忽视了雾对人眼视觉愉悦性的影响, 容易造成客观评价结果与人眼主观感知不一致现象.
综上所述, 现有去雾后图像的质量评价算法只是将通用的图像质量评价算法直接应用[14-15], 而未进行有针对性的调整, 导致现有算法无法有效地评价去雾后图像的质量, 难以达到主客观一致的质量评价要求.因此, 本文在借鉴前人研究基础上, 针对去雾后图像缺乏可参考标准、需满足人眼视觉认知以及容易过度复原等问题; 提出一种基于分类学习的去雾后图像质量评价算法:将去雾后图像基于图像增强、图像复原、统计先验以及人类视觉系统 (Human visual system, HVS) 的特征进行分析和抽取, 在此基础上, 根据研究去雾算法的经验, 建立了本文图像数据库, 通过对数据库的学习和测试验证了本文算法效能, 并且确保了评价结果与人类主观认知相一致.
1. 去雾后图像质量特征
为学习算法的第一步, 本文首先对去雾后图像可能的质量特征进行估计, 从以下4个角度出发进行估计.
1.1 基于图像增强的特征
基于增强的去雾后图像特征信息在被强化的同时.其含有的噪声水平也将被同步放大 (如图 1所示, 图中 $\sigma$ 表示噪声水平[16]).而梯度虽然是描述图像的结构特征的一项重要技术指标, 但其容易受噪声的影响, 所以本文将局部梯度结构信息和可见边缘强度用于基于图像增强的特征估计.
图像的局部梯度结构信息能够在描述图像结构信息的同时尽可能地减小噪声的影响[17], 定义为
$ \begin{align} T_1 = \frac{{(\lambda_1- \lambda_2)}^4}{{(\lambda_1+ \lambda_2)}^2} \end{align} $
(1) 其中, $\lambda_1$ 和 $\lambda_2$ 可由式 (2) 的奇异值分解得到; 全局 ${T}_1$ 的计算是将彩色图像是转换到HSV色彩空间, 然后对亮度图像 ({V}分量) 取7 $\times$ 7的子块, 求取每一子块的 ${T}_1$ , 最后进行全局平均, 数值越大说明图像增强后的纹理信息越丰富.
$ \begin{align} C_1 = {\boldsymbol G}_L^{\rm T}(w){\boldsymbol G}_L(w)={\boldsymbol U} \begin{pmatrix} \lambda_1 & \\ &\lambda_2 \end{pmatrix} \begin{pmatrix} {\boldsymbol v}_1 &{\boldsymbol v}_2 \end{pmatrix} \end{align} $
(2) 其中, ${\boldsymbol G}_L(w)=[{\boldsymbol g}_x, {\boldsymbol g}_y]$ 表示在邻域 $w$ 内的局部梯度向量, ${\boldsymbol g}_x$ 和 ${\boldsymbol g}_y$ 表示邻域 ${w}$ 内的水平和垂直梯度分别沿图像的横轴和纵轴方向进行映射得到的水平和垂直列向量.
可见边缘强度用于表征增强后图像的边缘水平, 本文将其定义为
$ \begin{align} T_2 = \frac{{I_s}}{{M}} \end{align} $
(3) 其中, $M$ 为图像中像素点总数; $I_s$ 为可见边缘像素点数目总和, 是图像经sobel算子检测后的边缘像素点的集合; $T_2$ 反映一幅图像的整体边缘强度水平, 数值越大说明边缘越丰富, 增强的结果也就越理想.
1.2 基于图像复原的特征
基于复原的去雾图像特征表现为雾的去除程度和色彩复原程度.本文借鉴基于图像复原算法的暗通道先验 (Dark channel prior, DCP)[1]思想, 认为图像中DCP所占比例能够直接反映雾的去除程度[15], 如果DCP所占比例越大, 则雾去除得越彻底 (如图 2 (b) 所示), 该比例定义为
$ \begin{align} T_3 = \frac{{I_D}}{{M}} \end{align} $
(4) 其中, $I_D$ 为获取的DCP图像中亮度值小于25的素点数目总和.
文献[11]认为好的图像复原结果, 应该使原图像和复原图像直方图的形状大体上应保持一致 (图 2 (c) 所示), 因此, 本文利用去雾前后图像直方图的相关系数, 作为色彩复原程度的度量:
$ \begin{align} T_4 = \frac{{\sum\limits_{k}(h_k'-\overline{h'})(h_k-\overline{h})}} {{\sqrt{\sum\limits_{k }(h_k'-\overline{h'})^2\sum\limits_{k }(h_k-\overline{h})^2}}} \end{align} $
(5) 其中, $h$ 和 $h'$ 分别为去雾前后图像的直方图分布; $T_4$ 反映图像的色彩复原程度, 数值越大, 说明其色彩复原效果越好.
1.3 有雾图像统计先验特征
受大气退化现象影响而形成的有雾图像, 由于其求解的非适定性, 伴随各种求解算法研究, 产生了诸多的先验信息.本文基于大量去雾前后图像的统计分析, 抽取了能够反映图像质量的两种统计先验特征:图像色度梯度直方图分布特性和色度信息熵特性.
通过对100幅有雾图像进行去雾前后的统计分析发现:图像在去雾前后的色度梯度直方图分布是恒定性的.以图 3 (a) 为例, 得到图像去雾前后色度梯度直方图分布, 可以发现其分布服从指数分布, 区别只存在于归一化系数 $s$ 会随着雾的去除而变大 (图 3 (b) 是以垂直方向梯度的绿色通道为例进行说明, 其他通道也具有相似的特性). 图 3 (c) 是100幅图像去雾前后的色度梯度函数与拟合的指数分布函数的均方根误差 (Mean square error, MSE) 结果, 可以发现其MSE的数值均处于很低的数量级, 说明其具备良好的拟合一致性, 满足文中假设.因此, 本文利用 $T_5=s$ 进行图像色度梯度直方图特征估计, 数值越大说明雾去除得越彻底.
在HSV色彩空间, 通过观察一幅图像在去雾前后的色调 (Hue, $H$ )、饱和度 (Saturation, $S$ ) 和亮度 (Value, $V$ ) 分量的变化可得: $H$ 和 $V$ 分量在去雾前后基本保持一致; 而 $S$ 分量会有较明显变化, 它的信息量会随着雾的去除而显著增加 (如图 4 (c)所示).进而, 对100幅有雾图像进行去雾前后 $S$ 分量信息量统计分析, 可以发现去雾后图像 $S$ 分量信息熵要比去雾前的高 (如图 4 (e)所示).
因此, 本文定义出的色度信息熵特征为
$ \begin{align} T_6 = \frac{{-\sum\limits_{i=0 }^{255}p(i){\rm lg}(p(i))}}{{m}} \end{align} $
(6) 其中, $p(i)$ 表示亮度为 $i$ 的像素点概率密度; $m$ 为归一化因子, 文中取22.
1.4 基于HVS的特征
基于HVS的对比敏感度函数 (Contrast sensitivity function, CSF), 表示HVS对视觉激励信号的敏感程度.根据不同的实验能够得到不同的CSF, 但基本上都是由方位和空间频率的函数来表示, 并且具有一定的带通特性.本文采用文献[18]在实验中提出的CSF模型定义出基于HVS的特征, 数值越大说明人类视觉系统对其越敏感, 如下式所示:
$ \begin{align} T_7 =2.6\times(0.192+0.114f^*)^{[-(0.114f^*)^{11}]} \end{align} $
(7) 其中, $f^*$ 为空间频率, 在0到0.5之间取值 (周期/度), 可由式 (8) 定义:
$ \begin{align} f^* = \frac{{(f-f_{\rm min})}}{{2\times(f_{\rm max}-f_{\rm min})}} \end{align} $
(8) 其中, $f=(f_x^2+f_y^2)^{1/2}$ , $f_x$ 和 $f_y$ 分别为水平和垂直方向空间频率; $f_{\rm max}$ 和 $f_{\rm min}$ 为 $f$ 的最大和最小值.
2. 本文算法实现
针对去雾后图像质量评价的应用需求, 本文在对成熟的去雾算法Fattal[6]、He等[1]和Tang等[19]的研究基础上, 首先, 建立了分类去雾图像质量评价数据库, 并抽取了对应图像的特征, 形成了样本序列; 之后, 利用支持向量机 (Support vector machine, SVM) 对去雾后图像的质量特征进行分类质量评价, 算法的难点在于质量评价数据库的建立.
2.1 去雾后图像质量评价数据库的建立
通过对现有图像去雾及其质量评价算法的研究发现, 由于去雾后图像的对比度、色彩复原度、雾的残存程度以及色调一致性等多个影响去雾后图像质量的因素难以统一衡量, 导致无法建立标准的数据库.因此, 本文结合通用的去雾算法性能分析, 基于如下的假设建立了分类数据库: ① Tang的去雾效果 $ > $ ② He的去雾效果 $ > $ ③ Fattal的去雾效果 (如图 5所示, “ $ > $ ”表示优于).
本文选取了11幅有雾图像, 分别利用①、②和③处理得到相应的去雾后图像, 将①、②和③生成的图像进行两两组合, 最终得到33对去雾后图像的集合 $Q$ ( $Q={Q_1, Q_2, Q_3}$ , 其中 $Q_1$ =① ③、 $Q_2$ =① ②和 $Q_3$ =② ③.为了进一步扩展数据库, 对每一对图像对应随机选取不重叠的100幅 $n\times n$ 的图像子块 ( $n$ 在文中取图像长和高中最小值的1/10), 这样就能够得到3 300对图像的集合 $Q'$ , 并且每对图像中都有一幅图像去雾效果优于另一幅.对每一对图像均求取如下的特征矩阵:
$ \begin{align} t(j) = T(x_j)-T(y_j) \end{align} $
(9) 其中, $j$ 表示第 $j$ 对图像, $j$ =0, 1, 2, $\cdots$ , 3 300; $x_j$ 和 $y_j$ 代表第 $j$ 对图像的两幅图像; $T(x)=[T_1(x) \ \ T_2(x) \ \ T_3(x) \ \ T_4(x) \ \ T_5(x) \ \ T_6(x) \ \ T_7(x)]$ .最后, 就可以求得每对图像的标签矩阵 $L(j)$ ∈ ${(-1, +1)}$ , +1表示去雾后图像 $x_j$ 优于 $y_j, -1$ 表示去雾后图像 $y_j$ 优于 $x_j$ (其映射关系如表 1所示, 表中的取值为 $L(j)$ 的对应结果).对图像集合 $Q'$ 进行标签映射, 得到 $1 650$ 个正样本和相同数量的负样本, 其标签矩阵记为 $L^+$ 和 $L^-$ , 对应的特征矩阵记为 $t^+$ 和 $t^-$ .
表 1 标签矩阵 $L(j)$ 与 $x_j$ 、 $y_j$ 的映射关系Table 1 The mapping relationships between $L(j)$ and $x_j$ , $y_j$$x_j:y_j$ ① ② ③ ① -- +1 +1 ② -1 -- +1 ③ -1 -1 -- 2.2 基于分类学习的质量评价
通过前文的特征提取以及数据库的建立, 本文将去雾后图像的质量评价问题转换为分类学习问题. SVM作为分类领域中最好的算法之一, 它基于结构风险最小化和VC(Vapnik-Chervonemkis) 维理论, 根据有限的原始样本信息在模型的学习能力和复杂性之间寻求最佳解决方案, 在高维空间中寻求一个超平面作为进行分类, 以保证最小的分类错误率 (如图 6所示).对于训练样本 ${t(N), L(N)}$ , 如果超平面能够将正负样本分为两类, 则最佳超平面应使两类样本到超平面最小距离之和最大, 等效为求解下式[20]:
$ \begin{align} &{\rm min}\frac{{\|\tilde{w}\|^2}}{{2}}+C\sum\limits_{j=1 }^{N}\xi_j\notag\\ &{\rm s. t.}\quad L(j)=[(\tilde{w}t(j)+b)]-1\geq0, \notag\\ &\qquad\ \ \xi_j\geq0, \ j=1, 2, \cdots, N \end{align} $
(10) 式 (10) 中, $\xi_j$ 为误差项, $C$ 为惩罚函数, $N$ 为选取的样本数目.求解上式, 得到决策函数:
$ \begin{align} f(t)={\rm sgn}\left[\sum\limits_{j=1 }^{N}a_jL(j)k(t(j), t)+b\right] \end{align} $
(11) 其中, $a_j$ 为 $t(j)$ 的Lagrange乘子; $k(x, y)$ 为核函数, 文中选用Gauss径向基核函数:
$ \begin{align} k(x, y)={\rm exp}(-\gamma\parallel{x-y}\parallel^2) \end{align} $
(12) 在利用SVM进行分类训练之后, 可直接对任意两类算法在同一幅图像下去雾的效果分类, 从而得到其优劣指标, 进而达到去雾后效果的评价及去雾算法效能评估的目标.此外, 在进行多个去雾后图像的质量评价时, 可以结合本文算法, 采用“冒泡法”进行质量等级排序.
3. 实验结果及其分析
本文实验随机选取165个正样本和165个负样本形成训练样本集 (占总样本数目的10 %); 剩下的3 000个样本作为测试样本集 (占总样本数目的90 %).由于测试样本数目远大于训练样本数目, 测试的精度可以看作是学习算法真实泛化能力的体现.本文为了使所建立的数据库更具普适性, 选用的图像都是处理效果较好的算法结果, 这就使得到的质量特征虽有差别, 但数值较为接近, 因此, 在进行分类学习之前, 对所得到的图像特征矩阵进行非线性的指数拉伸, 使其更加具有可分性.
为了验证所提出的方法, 本文设计了基于LIBSVM软件包[21]的Matlab程序进行实验验证.实验环境为Windows 7系统下, 配置Pentium E5300双核2.6 GHz的CPU, 内存为2 GB, 利用Matlab2010a运行程序.实验中, 分别进行了纵向和横向2组比较:纵向比较是将本文分类的正确概率与前文提出的7种质量特征进行效果分类的正确率 (正确率指的是训练样本被正确分类的比例, 下同) 进行比较 (表 2所示); 由于去雾后图像质量评价算法的稀缺 (文献[8, 10]为专用的去雾后图像质量评价算法, 但其结果受多个性能评价指标的影响, 难以综合评定), 因此本文在进行横向比较时, 是将本文结果与三种通用的无参考型质量评价算法在本文数据下进行比较 (表 3所示).实验中, SVM的参数 $C = 10$ , $\gamma = 0.1$ .
表 2 纵向实验结果Table 2 The results of vertical experiment类别 正确率 (%) $T_1$ 70.7333 $T_2$ 65.5667 $T_3$ 73.8000 $T_4$ 67.7667 $T_5$ 62.9333 $T_6$ 68.9667 $T_7$ 72.2000 本文 97.3030 从表 2的实验结果可以看出, 本文算法性能要远远优于各个特征单独评价时的结构, 这就进一步验证了本文算法对去雾后图像质量特征衡量的全面性.
从表 3的实验结果可以看出 (表中文献[4]及本文算法运算时间为不包含样本特征生成和训练时间的3 000个测试样本运算总时间), 选用的三种通用无参考型图像质量评价算法虽然取得了较好的结果, 并且在一定程度上能够区分去雾后图像质量的好坏; 但还不能达到本文分类算法的效率.这正是由于通用的无参考型图像质量评价算法仅仅是从图像的结构失真、色彩失真以及视觉认知上出发进行算法构建, 而未考虑雾的去除程度对图像质量的影响导致的.
为了进一步验证本文算法效能, 本文在已知原始有雾图像 $I(x)$ , 并利用文献[1]求得大气传递图 $d(x)$ (代表雾天图像的衰减程度) 基础上, 通过引入参数 $\alpha$ 来模拟雾天退化过程.原始雾天退化模型如下所示:
$ \begin{align} I(x)=J(x)d(x)+A(1-t(x)) \end{align} $
(13) 其中, $A$ 为大气光强度, 一般被认为是图像中最亮点的亮度值.对上式进行变换, 可得本文模拟去雾模型:
$ \begin{align} J(x)=A+\frac{{I(x)-A}}{{d'(x)}} \end{align} $
(14) 其中, $d'(x)=\alpha{d(x)}$ .当 $\alpha$ =1时, 上式表示正常的去雾过程; 当 $\alpha>1$ 时, 模拟大气传递图 $d'(x)$ 会被放大, 导致去雾不足; 当 $\alpha < 1$ 时, 模拟大气传递图 $d'(x)$ 会被缩小, 导致去雾过度.去雾不足和过度都会导致去雾后图像质量下降.因此, 本文通过变化 $\alpha$ 的值, 来模拟不同质量的去雾后图像 (如图 7和图 8所示).
图 7和图 8的区别在于, 图 7的平均亮度值要比图 8的高; 而经由式 (14) 去雾后图像的一个显著特点就是其平均亮度会降低[15].因此, 在 $\alpha$ 取值相同情况下会导致不同的降质现象:去雾过度比去雾不足会给图 8带来更为明显的质量下降; 而去雾不足比去雾过度则会给图 7带来更为明显的质量下降.本文结合主观感知和去雾算法特点, 可以得到参考的图像质量排序, 并用本文算法和横向实验的三种无参考型质量评价算法对图 7和图 8的去雾后图像质量水平进行排序, 结果如表 4和表 5所示.
表 4和表 5的实验结果表明, 本文算法的排序优于其他几种算法, 究其原因, 主要是已有算法的局限性所致 (忽略了图像的雾天特性); 此外, 已有算法抽取的主要是图像的一些底层特征, 而本文算法是将去雾后图像的高级特征 (效果明显的专用特征) 与成熟度高的SVM进行结合得到的产物.
4. 总结
本文从现有无参考型图像质量评价算法对去雾后图像质量评价的先天性缺陷出发, 提出一种基于分类学习的去雾后图像质量评价算法, 在建立去雾后图像质量评价数据库的基础上, 将去雾后图像质量特征分析与分类学习思想融合, 从而将图像质量评价问题转换为图像分类问题, 进而利用成熟的SVM分类算法对去雾后图像质量进行评价分级.通过纵向和横向的对比实验, 表明了本文算法的优越性, 但由于数据库的有限性, 对于多幅去雾后图像的质量评价问题, 还只能利用“冒泡法”解决.因此, 建立标准的、拥有人眼主观打分评价指标的去雾后图像质量评价数据库, 将是本文下一步研究的重点.
-
表 1 标签矩阵 $L(j)$ 与 $x_j$ 、 $y_j$ 的映射关系
Table 1 The mapping relationships between $L(j)$ and $x_j$ , $y_j$
$x_j:y_j$ ① ② ③ ① -- +1 +1 ② -1 -- +1 ③ -1 -1 -- 表 2 纵向实验结果
Table 2 The results of vertical experiment
类别 正确率 (%) $T_1$ 70.7333 $T_2$ 65.5667 $T_3$ 73.8000 $T_4$ 67.7667 $T_5$ 62.9333 $T_6$ 68.9667 $T_7$ 72.2000 本文 97.3030 表 3 横向实验结果
Table 3 The results of horizontal experiment
-
[1] He K M, Sun J, Tang X O. Single image haze removal using dark channel prior. In:Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, USA:IEEE, 2009. 1956-1963 [2] 刘海波, 杨杰, 吴正平, 张庆年, 邓勇.基于暗通道先验和Retinex理论的快速单幅图像去雾方法.自动化学报, 2015, 41(7):1264-1273 http://www.aas.net.cn/CN/abstract/abstract18700.shtmlLiu Hai-Bo, Yang Jie, Wu Zheng-Pin, Zhang Qing-Nian, Deng Yong. A fast single image dehazing method based on dark channel prior and Retinex theory. Acta Automatica Sinica, 2015, 41(7):1264-1273 http://www.aas.net.cn/CN/abstract/abstract18700.shtml [3] 吴迪, 朱青松.图像去雾的最新研究进展.自动化学报, 2015, 42(2):221-239 http://www.aas.net.cn/CN/abstract/abstract18603.shtmlWu Di, Zhu Qing-Song. The latest research progress of image dehazing. Acta Automatica Sinica, 2015, 42(2):221-239 http://www.aas.net.cn/CN/abstract/abstract18603.shtml [4] 南栋, 毕笃彦, 查宇飞, 张泽, 李权合.基于参数估计的无参考型图像质量评价算法.电子与信息学报, 2013, 35(9):2066-2072 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201309006.htmNan Dong, Bi Du-Yan, Zha Yu-Fei, Zhang Ze, Li Quan-He. A no-reference image quality assessment method based on parameter estimation. Journal of Electronics and Information Technology, 2013, 35(9):2066-2072 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201309006.htm [5] Tan R T. Visibility in bad weather from a single image. In:Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, USA:IEEE, 2008. 1-8 [6] Fattal R. Single image dehazing. ACM Transactions on Graphics, 2008, 27(3), doi: 10.1145/1360612.1360671 [7] Kopf J, Neubert B, Chen B, Cohen M, Cohen-Or D, Deussen O, Uyttendaele M, Lischinski D. Deep photo:model-based photograph enhancement and viewing. ACM Transactions on Graphics, 2008, 27(5), doi: 10.1145/1409060.1409069 [8] Tarel J P, Hautiére N. Fast visibility restoration from a single color or gray level image. In:Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto, Japan:IEEE, 2009. 2201-2208 [9] Hautiére N, Tarel J P, Aubert D, Dumont É. Blind contrast enhancement assessment by gradient ratioing at visible edges. Image Analysis and Stereology Journal, 2008, 27(2):87-95 doi: 10.5566/ias.v27.p87-95 [10] 郭璠, 蔡自兴.图像去雾算法清晰化效果客观评价方法.自动化学报, 2012, 38(9):1410-1419 doi: 10.3724/SP.J.1004.2012.01410Guo Fan, Cai Zi-Xing. Objective assessment method for the clearness effect of image defogging algorithm. Acta Automatica Sinica, 2012, 38(9):1410-1419 doi: 10.3724/SP.J.1004.2012.01410 [11] 李大鹏, 禹晶, 肖创柏.图像去雾的无参考客观质量评测方法.中国图象图形学报, 2011, 16(9):1753-1757 http://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201109030.htmLi Da-Peng, Yu Jing, Xiao Chuang-Bai. No-reference quality assessment method for defogged images. Journal of Image and Graphics, 2011, 16(9):1753-1757 http://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201109030.htm [12] Wang Y K, Fan C T. Single image defogging by multiscale depth fusion. IEEE Transactions on Image Processing, 2014, 23(11):4826-4837 doi: 10.1109/TIP.2014.2358076 [13] Moorthy A K, Bovik A C. Blind image quality assessment:from natural scene statistics to perceptual quality. IEEE Transactions on Image Processing, 2011, 20(12):3350-3364 doi: 10.1109/TIP.2011.2147325 [14] Gao Y Y, Hu H M, Wang S H, Li B. A fast image dehazing algorithm based on negative correction. Signal Processing, 2014, 130:380-398 [15] Nan D, Bi D Y, Liu C, Ma S P, He L Y. A Bayesian framework for single image dehazing considering noise. The Scientific World Journal, 2014, 2014:651986 [16] Liu X H, Tanaka M, Okutomi M. Noise level estimation using weak textured patches of a single noisy image. In:Proceedings of the 19th IEEE International Conference on Image Processing. Orlando, Florida, USA:IEEE, 2012. 665-668 [17] 邵宇, 孙富春, 刘莹.基于局部结构张量的无参考型图像质量评价方法.电子与信息学报, 2012, 34(8):1779-1785 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201208000.htmShao Yu, Sun Fu-Chun, Liu Ying. A no-reference image quality assessment method using local structure tensor. Journal of Electronics and Information Technology, 2012, 34(8):1779-1785 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201208000.htm [18] Mannos J L, Sakrison D J. The effects of a visual fidelity criterion of the encoding of images. IEEE Transactions on Information Theory, 1974, 20(4):525-536 doi: 10.1109/TIT.1974.1055250 [19] Tang K T, Yang J C, Wang J. Investigating haze-relevant features in a learning framework for image dehazing. In:Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA:IEEE, 2014. 2995-3002 [20] 张凯军, 梁循.一种改进的显性多核支持向量机.自动化学报, 2014, 40(10):2288-2294 http://www.aas.net.cn/CN/abstract/abstract18503.shtmlZhang Kai-Jun, Liang Xun. An improved domain multiple kernel support vector machine. Acta Automatica Sinica, 2014, 40(10):2288-2294 http://www.aas.net.cn/CN/abstract/abstract18503.shtml [21] Chang C C, Lin C J. LIBSVM:a library for support vector machines[Online], available:http://www.csie.ntu.tw/cjlin/libsvm, 2007, January 1 [22] Saad M A, Bovik A C, Charrier C. Blind image quality assessment:a natural scene statistics approach in the DCT domain. IEEE Transactions on Image Processing, 2012, 21(8):3339-3352 doi: 10.1109/TIP.2012.2191563 -