A Complementary Color Wavelet-based Measure on Color Image Sharpness Assessment for Autofocus
-
摘要: 针对彩色图像的自动聚焦, 本文提出了一种新的清晰度评价测度. 该测度借助于互补色小波变换, 在互补色小波域, 利用融合互补色算子的层级最大能量和层级统计分布扩散度的乘积来描述本文的清晰度. 分析表明: 融合互补色算子, 可提取待评价彩色图像在颜色、亮度、方向、尺度和各通道分量间的相互信息等方面的相关特征. 这样, 其层级的最大能量就反映了这些被提取相关特征中最显著特征的清晰程度, 而其统计分布的扩散度, 就衡量了其清晰度特征分布的离散程度. 那么利用它们来共同表征清晰度的测度, 就使得本文所提的测度能随图像清晰程度的增加而增加. 在LIVE/IVC数据库上与多种经典方法的对比结果表明: 本文提出的测度具有最高的聚焦精度0.0373/0.0246、分辨率1.6132/0.4771和最好的无偏稳定性.Abstract: In this paper, a new measure on color image sharpness assessment for autofocus is proposed. By means of the complementary color wavelet transform (CCWT), the scale maximum energy and statistical distribution variabilities of the fusion complementary color operators in CCWT domain are combined into an image sharpness assessment measure by their product. The analyses show that the complementary color operators can extract the characteristics of the color, brightness, scales, directions and mutual information among the channels in a color image. In this way, the sharpness of the most significant feature in these extracted characteritics is revealed by the scale maximum energy of the complementary color operators. The dispersion degree of the features related to the sharpness of an image is disclosed by the distribution variabilities of the operators. As a result, the proposed measure in this paper can increase with the increase of the image sharpness. The simulation results on the LIVE/IVC database show that the proposed measure is of the highest focusing accuracy 0.0373/0.0246 and resolution 1.6132/0.4771, and the best unbiased stability comparison with the classical methods reported in literature.
-
Key words:
- Sharpness assessment /
- complementary color wavelet /
- color image /
- maximum energy /
- variability
-
自动聚焦技术已经广泛应用于摄像、视频监控、医学显微镜、机器人视觉等图像获取场合[1]. 近几十年来, 国内外文献大量报道了主动式和/或被动式自动聚焦技术的研究, 主动式自动聚焦一般是通过测距(诸如激光和红外等), 并结合相关数学模型的计算来实现聚焦, 而被动式则主要利用图像处理技术, 即通过分析图像自有信息来进行焦点的搜索调节[1-2]. 目前, 受聚焦硬件或成本限制, 绝大多数摄影摄像装置利用图像分析技术来实现自动聚焦, 而其核心则是数字图像的清晰度评价测度/方法[1].
一般说来, 越清晰的图像其细节越丰富[2-4], 具体体现为存在越多的高频分量[5], 越大的像素梯度[6-7]、差分[8-10]或方差等. 文献[4]和[9]的研究表明: 当这些描述参数化后的值, 即清晰度评价测度/方法达到最大/小时, 图像就最清晰, 即聚焦系统就处于最佳的聚焦位置. 清晰度评价测度性能的好坏就决定了聚焦效果的优劣, 因为其性能表征了评价的灵敏度(精度、分辨率)和稳定性.
目前, 文献报道的图像聚焦清晰度评价方法主要分为三类: 1)统计类方法, 其主要是利用统计熵来衡量图像内像素值分布的丰富度或能量分布的均匀度. 文献[4]报道了四种采用像素值的不同加权统计熵的清晰度评价方法; 文献[2]报道了统计能量熵的方法; 而文献[3]则报道了利用关键信息统计熵的清晰度评价方法. 然而, 当聚焦图像含有较少的统计柱(Bins) (如周期图像)时, 这类评价将失效[4]. 2)空域类方法, 其清晰度评价方法主要利用像素值之间的梯度、差分、方差和奇异值等特征来表征, 尽管它们可弥补统计熵方法在评价周期图像时的失效缺陷, 但其性能仍差强人意[10]. 这些方法主要有: 文献[6]和[7]报道的Tenengrad梯度能量, 结合最大梯度能量和梯度方差的评价方法; 文献[8]报道的采用灰度差分绝对值之和(Sum modulus difference, SMD)的方法; 文献[9]报道的间距可变拉普拉斯算子(Sum modified Laplacian, SML)的清晰度评价方法; 文献[10]在文献[8]基础上, 提出的水平和垂直方向灰度差分乘积的方法; 文献[11]则给出了利用显著区域奇异值(Singular value decomposition based on saliency detection, Sd-Svd)差异的清晰度评价方法等. 3)变换域类方法, 这类清晰度评价方法利用变换域的高频分量来衡量清晰度. 如文献[12]报道的基于DCT变换的清晰度评价方法, 由于其存在近焦点失效问题[1], 因此, 文献[1]在此基础上报道了加窗局部细节分析的方法; 借助小波变换对细微细节的定位分析, 文献[13]和[14]报道了利用小波变换高频能量的清晰度评价方法; 在文献[13]的基础上, 借助聚焦过程中高低频能量变化相反的趋势, 文献[15]报道了采用高低频能量比的清晰度评价方法, 而文献[16]给出了利用梯度方向加权的小波包评价方法; 文献[17]报道的基于DCT域的自适应加权尺度和方向特征的评价方法.
在人类视觉系统的感知中, 颜色具有非常重要的作用, 这是因为图像的任何变化, 包括边缘、连接和角点, 都可归结为颜色的变化[18]. 由于图像的最终接收者是人类视觉系统, 因此, 图像处理问题的解决办法应遵循人眼视觉特性. 传统的彩色图像处理技术或是将彩色图像灰度化, 或是针对三通道进行相同处理后合成, 这也就意味着忽略色度信息的清晰度评价方法有可能会丢失重要的细节信息, 而各通道分量分别进行相同处理后再合成的方法, 则可能丢失通道分量之间的相关信息而使得细节分析不精确, 以致难以进一步提高聚焦性能.
针对现有自动聚焦技术的缺陷, 本文借助于互补色小波变换(Complementary color wavelet transform, CCWT)[19], 在互补色小波域内, 利用融合互补色算子的层级最大能量和层级统计分布扩散度的乘积给出了一种新的清晰度评价测度. 分析表明: 融合互补色算子, 可提取待评价彩色图像在颜色、亮度、方向、尺度和各颜色通道分量间相互信息等的相关特征. 这样, 融合互补色算子的层级最大能量就反映了这些被提取的特征中最显著特征的清晰程度. 而融合互补色算子的层级分布扩散度, 就衡量了与图像清晰度相关特征分布的离散程度. 因此本文利用它们来描述清晰度的测度就可使其随图像清晰程度的增加而增加. 此外, 即使在传统小波域利用本文的方法来表征清晰度, 其给出的性能也可与文献报道方法的评价性能相比拟. 而在互补色小波域, 由于互补色具有更好的细节提取能力[19], 因此其性能可进一步得到提升. 在LIVE及IVC图像数据库中进行的仿真实验, 验证了所提测度的优越性和有效性.
本文余下内容组织如下: 第1节将简述互补色小波及其互补色算子. 第2节将在互补色小波变换的基础上, 给出本文所提出的彩色图像清晰度评价测度. 第3节将对本文测度和多种经典清晰度评价方法在LIVE/IVC数据库上进行精度、分辨率以及稳定性的性能分析和比较. 最后, 第4节将总结全文.
1. 互补色小波简介
本节将对本文需要的互补色小波进行简介, 详细请参考文献[19].
在人类视觉系统中, 颜色信号在视网膜上的视觉细胞中是以三原色红、绿、蓝(RGB)的形式存在的, 而在视网膜深处的神经节细胞中则以互补色的形式存在[19]. 色环是HSI颜色空间中全饱和度和半强度的颜色表示, 而互补色为色环上两种相位差为
$\pi $ 的颜色对[20-21]. 三原色红、绿、蓝则如图1 (b)所示, 它们分别位于色环$0,2\pi /3,4\pi /3$ 的方向上, 两两之间的相位差分别为$2\pi /3$ , 对应的互补色则位于色环上与其具有$ \pi $ 相位差的方向上, 这样沿RGB三色轴及亮度轴的互补色就分别为红−青, 绿−品红, 蓝−黄, 黑−白四对互补色[19].基于互补色理论, 文献[19]利用色环上RGB轴的相位关系和小波变换, 设计了一组相对相位差为
$2\pi /3$ 的一维互补色小波族${\psi ^{{\theta _0}}},{\psi ^{{\theta _0}{\rm{ + }}2\pi /3}},{\psi ^{{\theta _0}{\rm{ + }}4\pi /3}},$ 其中初始相位为,${\theta _0}{\rm{ = }}0,$ $2\pi /3$ 或$4\pi /3$ , 以满足互补色小波在单通道信号处理时的复(数)小波特性, 以及小波变换所需的抗混叠效应[19, 22].在互补色小波中, 当将
${\psi ^{{\theta _0}}},{\psi ^{{\theta _0}{\rm{ + }}2\pi /3}},{\psi ^{{\theta _0}{\rm{ + 4}}\pi /3}}$ 所示颜色小波基分别记为${\psi ^R},{\psi ^G},{\psi ^B}$ , 并将彩色信号的R, G和B通道分量分别映射到颜色小波基时, 可得到如下小波系数矢量[19]:$$\begin{split} & {{{d}}^R} = {{r}} * {\psi ^R} \\ \\ & {{{d}}^G} = {{g}} * {\psi ^G} \\ \\ &{{{d}}^B} = {{b}} * {\psi ^B} \\ \end{split} $$ (1) 式中*表示卷积运算,
${{r}},{{g}}$ 和${{b}}$ 分别表示彩色信号的R, G和B通道分量. 当彩色信号用其他通道分量描述时, 如HSI, 则需将其转换为RGB的描述形式. 引入互补色关系后, 相应的互补色算子定义如下[19]:$$\left[ {\begin{array}{*{20}{c}} {{{{O}}^R}} \\ {{{{O}}^G}} \\ {{{{O}}^B}} \\ {{{{O}}^W}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} 1&{ - 1}&{ - 1} \end{array}} \\ {\begin{array}{*{20}{c}} { - 1}&1&{ - 1} \end{array}} \\ {\begin{array}{*{20}{c}} { - 1}&{ - 1}&1 \end{array}} \\ {\begin{array}{*{20}{c}} 1&1&1 \end{array}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{{{d}}^R}} \\ {{{{d}}^G}} \\ {{{{d}}^B}} \end{array}} \right]$$ (2) 其中,
${{{O}}^R},{{{O}}^G},{{{O}}^B}$ 分别表示红−青, 绿−品红, 蓝−黄互补色算子, 它们可反映颜色信号偏移相应互补色轴的变化情况;${{{O}}^W}$ 是黑−白互补色算子, 它可反映颜色信号偏移黑−白互补色轴的变化情况, 故又称色度算子. 若互补色算子在某局部邻域内无变化, 则表明颜色在该局部保持不变或存在的是沿相应互补色轴的变化.在二维互补色小波中, 考虑到小波的多尺度(层级)特性和方向性, 二维互补色小波的互补色算子在层级j、方向n的子带就可分别表示为
${{O}}_j^{R,n}, $ ${{O}}_j^{G,n},{{O}}_j^{B,n},{{O}}_j^{W,n},$ 其中$n \!=\! k\pi /8,k \!=\! 1,2,\cdots,8$ 表示互补色算子在每一层级的全部八个子带的方向, 其如文献[19]中图6所示.2. 清晰度评价的互补色小波法
在传统自动聚焦系统中, 图像清晰度评价方法不是将彩色图像灰度化后进行评价, 就是对彩色图像的RGB通道分别进行相同处理后再合成[18]的方法进行评价. 而彩色图像的灰度化处理过程忽略色度信息, 从而不可避免地导致部分细节信息的丢失, 图2就给出了这样的一个例子, 其中: 图2 (a)是一个亮度值恒定的彩色图像, 2 (b)为其对应的灰度化结果. 从图2 (b)可见: 灰度化的结果丢失了原始彩色图像的细节信息, 即2 (a)的彩色边缘信息. 而三通道的相同处理结果则忽略了色彩通道之间的相关信息, 从而有可能造成细节信息检测的不精确[18-19], 如图3所示, 详细可参见文献[19]. 图3 (a)为原始彩色图像, 图3 (b)为传统小波处理结果, 即三通道相同处理后再合成, 图3 (c)为互补色小波中的黑−白互补色算子的处理结果, 可见, 黑−白互补色算子可检测偏移黑−白互补色轴的色度变化, 因此, 可提取到彩色图像边缘处传统小波无法提取和分析的色度突变信息, 其余互补色算子具有相似的颜色滤波性.
借助互补色小波变换, 并根据四对互补色算子在人类视觉系统中的同等重要性, 本文将对四种互补色算子进行等权融合, 构成融合互补色算子, 然后再利用融合互补色算子的层级最大能量及层级分布扩散度, 来实现对彩色图像的清晰度评价, 其评价测度构建流程如图4所示.
2.1 互补色算子的融合
文献[4]、[9]、[23-24]的研究表明: 聚焦系统的失焦可等效为图像的高斯模糊, 而调焦则是图像能量在小波的不同层级和方向间进行重新分配的过程[25]. 通常, 图像低频分量的能量较大, 这表明其对调焦图像的模糊变化并不敏感, 而图像高频分量的能量较小, 因此对聚焦的模糊变化敏感[1, 12-13, 15]. 就互补色小波变换而言, 其发展出四种互补色算子, 而其各自的子带
${{O}}_j^{R,n},{{O}}_j^{G,n},{{O}}_j^{B,n},{{O}}_j^{W,n},$ 反映的正是各层级各方向的高频分量, 这表明它们可以用来描述聚焦过程中图像的清晰程度.为了描述层级能量和方向子带的变化规律, 假设需要对一大小为
$M \times N$ 的彩色图像进行分析, 则该图像经互补色小波变换后, 其在层级j、方向n的互补色算子的子带${{O}}_j^{ \bullet ,n}$ 的大小为${M_j} \times {N_j}$ , 其中$ \bullet = R,G,B,W$ 分别用来表示红−青, 绿−品红, 蓝−黄和黑−白互补色对, 子带大小满足${M_j} = M/{2^j}, {N_j} = $ $N/{2^j}.$ 方向子带${{O}}_j^{ \bullet ,n}$ 中, 任意位置点(x, y)处的系数记为${{O}}_j^{ \bullet ,n}(x,y)$ .从互补色理论知: 各互补色对人眼视觉产生的是等量刺激, 也就是说四对互补色红−青, 绿−品红, 蓝−黄, 黑−白在人眼中具有相等地位. 因此, 本文针对各互补色算子, 在其对应的各层级各方向的子带
${{O}}_j^{ \bullet ,n}\,( \bullet =R,G,B,W)$ 采取等权的方式进行融合[26], 即, 当记层级j、方向n的融合互补色算子的子带为${{O}}_j^n$ 时, 那么${{O}}_j^n$ 就定义为:$$\begin{split} {{O}}_j^n =\,&\frac{1}{4} \left( {\left| {{{O}}_j^{R,n}} \right| + \left| {{{O}}_j^{G,n}} \right| + \left| {{{O}}_j^{B,n}} \right| + \left| {{{O}}_j^{W,n}} \right|} \right),\\ & {n = \frac {k\pi}{8},k = 1,2,\cdots,8} \\ \end{split} $$ (3) 其中,
$\left| \bullet \right|$ 表示取各互补色算子的绝对值. 在式(3)中, 融合互补色算子的子带${{O}}_j^n$ 内, 任意位置点(x, y)处融合互补色系数记为${{O}}_j^n(x,y)$ 时, 它为四种互补色算子的子带${{O}}_j^{ \bullet ,n}$ 在各自所对应位置(x, y)处的系数${{O}}_j^{ \bullet ,n}(x,y)$ 的绝对值之和, 即:$${{O}}_j^n(x,y) = \frac{1}{4}\sum\limits_ \bullet {\left| {{{O}}_j^{ \bullet ,n}(x,y)} \right|} $$ (4) 式中
$ \bullet $ 表示$R,G,B,W$ 四种互补色对. 通过式(2)四种互补色算子在不同层级的方向子带的融合式(3), 可以发现它包含了与彩色图像的颜色、亮度、方向、尺度和各通道分量间的相互信息等相关的特征.2.2 层级最大能量
在调焦过程中, 随着离焦的模糊, 图像的能量将逐渐由高频层级向低频层级进行扩散[25]. 为分析这种层级能量扩散的变化规律, 在融合互补色算子各层级各方向的子带
${{O}}_j^n$ 内$(j = 1,2;n = k\pi /8,k = $ $ 1,2,\cdots,8)$ , 记任意位置点(x, y)处的融合互补色系数的能量为:$$E_j^n(x,y) = {\left( {{{O}}_j^n(x,y)} \right)^2},{{O}}_j^n(x,y) \in {{O}}_j^n$$ (5) 其中, 能量为融合互补色系数的平方.
既然融合互补色系数能量的大小反映了清晰程度, 那么与文献[7]中梯度最大值反映图像中最清晰细节同理, 就可将方向子带
${{O}}_j^n$ 内能量$E_j^n(x,y)$ 最大的系数${{O}}_j^n(x,y),$ 视为反映彩色图像在层级j方向n的最清晰点, 即最显著的特征点. 随着图像的逐渐模糊, 高频分量将逐渐流失, 此时能量将由高频层级向低频层级进行扩散. 也就是说层级能量减小时, 层级能量的最大值也将相应地减少, 故定义层级j的最大能量MEj为:$$M{E_j} = {E_j} = \frac{1}{8}\sum\limits_{n = 1}^8 {E_j^n} $$ (6) $$E_j^n = \max \left( {E_j^n(x,y)} \right)$$ (7) 式中的8表示融合互补色算子在每一层级的8个子带, 这样式(6)所定义的层级最大能量, 就是8个子带内能量最大值的平均值.
为分析式(6)中层级j的最大能量与图像模糊程度的关系, 以IVC(Flou)数据库[27]中的Boats图像序列, 以及DIV2K数据库[28]中的800类图像为例. 其中, IVC(Flou)中的每一类图像序列中均包含有一幅大小为
$512 \times 512$ 的清晰图像及5幅不同高斯模糊程度的图像. 而DIV2K中含有800幅大小为$512 \times 512$ 的清晰图像, 针对这800幅图像, 本文通过高斯模糊, 为每一幅清晰图像产生24幅不同模糊程度的图像, 以此形成图像序列, 其高斯模糊规律如表1所示, 图像1到图像24的模糊程度递增. 图5 (a)为IVC(Flou)中的Boats图像序列中的清晰图像. 图5 (b)为图5 (a)所对应的Boats图像序列, 在层级$j=1 $ 和2的层级最大能量随图像模糊程度递增的变化趋势. 图5 (c)为DIV2K中的800类图像序列, 在层级$j=1 $ 和2的层级最大能量随模糊递增的变化趋势. 从图5可以发现, 式(6)定义的层级最大能量, 会随模糊程度递增而逐渐降低, 即其可反映图像清晰程度的变化.表 1 图像高斯模糊的方差及窗口大小Table 1 The variance and window size of image Gaussian blur图像 $\sigma _h^2 $ 窗口大小 图像 $\sigma _h^2 $ 窗口大小 1 0.28 3 13 0.964 7 2 0.29 3 14 1 7 3 0.3 3 15 1.1 7 4 0.32 3 16 1.2 9 5 0.33 3 17 1.33 9 6 0.34 3 18 1.67 11 7 0.35 3 19 2 13 8 0.4 3 20 2.33 15 9 0.5 3 21 2.67 17 10 0.66 5 22 3 19 11 0.8 5 23 3.33 21 12 0.906 7 24 3.67 23 通常, 自动聚焦系统存在一定的噪声, 该噪声一般可认为是高斯白噪声[29]. 而在小波域中, 噪声的系数模值一般较小, 而图像的细节系数模值一般较大[29], 这也意味着式(6)定义的层级的最大能量具有一定的抗噪稳定性.
2.3 层级分布扩散度
尽管上述分析表明: 式(6)定义的层级最大能量, 可以反映图像最显著细节特征点的能量随清晰程度的变化, 但它忽略了聚焦图像其他细节的变化, 例如: 变化较剧烈的边缘和较平坦区域等.
在一般情况下, 当彩色图像含有大量较平坦区域, 而只含有少量突变细节时, 其小波系数将呈现重尾分布[26, 30]. 为分析式(3)所定义的融合互补色算子的子带
${{O}}_j^n$ 内系数分布随模糊变化的规律, 选取子带${{O}}_j^n$ 内满足${{O}}_j^n(x,y) \le 80$ 的系数, 构成相应的扩散系数集合$\widetilde {{O}}_j^n.$ 该范围外的系数比重通常较少, 因此就可被视为离群点. 这样, 本文就以扩散系数集合$\widetilde {{O}}_j^n$ 内系数的统计分布特性, 来等效子带${{O}}_j^n$ 内系数的统计分布. 其中, 扩散系数集合$\widetilde {{O}}_j^n$ 的大小$m_j^n$ 为扩散系数的个数. 图6 (a1)$\sim $ 6 (a3)分别给出了LIVE(gblur)数据库[31]中三幅模糊程度递增的Woman hat图像, 即img162, img42, img132. 图6 (b)则针对以上三幅图像, 给出其在第1层级、方向为$n = 8\pi /8$ 的扩散系数集合$\widetilde {{O}}_1^{8\pi /8}$ 的统计分布情况, 其中, 横坐标为扩散系数统计柱(Bin), 其相邻间隔大小为1, 纵坐标为扩散系数在集合中的比重. 图6 (c)为DIV2K中800类图像序列, 在第1层级、方向为$n = 5\pi /8$ 的扩散系数集合$\widetilde {{O}}_1^{5\pi /8}$ 的统计分布, 且其中图像5、图像18和图像24分别对应于表1中的图像5、18和24, 它们的模糊程度是依次递增的, 其余各子带具有相似性质. 从图6可知, 图像越清晰, 那么彩色图像各子带的扩散度就越大.针对扩散系数统计的重尾分布, 图7及表2表明, 此分布可用拉普拉斯分布(正值区域)较好地进行拟合. 就重尾的拉普拉斯分布而言, 其统计分布的扩散度, 可用系数的绝对偏差和来进行度量[32]. 本文中层级j的统计分布扩散度, 就可定义为融合互补色算子在全部8个方向子带的统计分布的绝对偏差和的均值, 即其定义如式
$(8)\sim(10) $ 所示:表 2 DIV2K中层级1、方向为$n = 4\pi /8$ 的子带的真实分布与拟合分布熵差Table 2 In DIV2K, the entropy difference between the empirical distribution and the fitting distribution of the subband with direction$n = 4\pi /8$ in level 1图像 $\Delta H/H$ 图像 $\Delta H/H$ 1 0.0254 13 0.0278 2 0.0253 14 0.0281 3 0.0252 15 0.0290 4 0.0246 16 0.0303 5 0.0243 17 0.0225 6 0.0239 18 0.0367 7 0.0235 19 0.0415 8 0.0224 20 0.0681 9 0.0241 21 0.1853 10 0.0259 22 0.4329 11 0.0265 23 0.8159 12 0.0274 24 1.2271 图 7 Woman hat图像1和图像3在第1层级、方向为$n = \pi /8$ 的扩散系数集合统计的真实分布及拟合分布(实线为真实分布, 虚线为拉普拉斯拟合分布)Fig. 7 Empirical and fitting distribution of diffusion coefficients of woman hat image 1 and image 3 with direction$n = \pi /8$ in level 1 (The solid line is the empirical distribution, and the dashed line is the Laplace fitting distribution)$$\overline {\widetilde {{O}}_j^n} = \widehat i = \mathop {\arg \max }\limits_i ({p_i}) , 0 \le i \le 80$$ (8) $$V_j^n = \frac{1}{{m_j^n}}\sum\limits_{x,y}^{m_j^n} {\left| {\widetilde {{O}}_j^n(x,y) - \overline {\widetilde {{O}}_j^n} } \right|} , \widetilde {{O}}_j^n(x,y) \in \widetilde {{O}}_j^n$$ (9) $$A{V_j} = \overline {{V_j}} = \frac{1}{8}\sum\limits_{n = 1}^8 {V_j^n} $$ (10) 其中,
${p_i}$ 表示扩散系数集合中属于统计柱i的比重,$\overline {\widetilde {{O}}_j^n} $ 为扩散系数集合$\widetilde {{O}}_j^n$ 内的众数,$\widetilde {{O}}_j^n(x,y)$ 为扩散系数集合$\widetilde {{O}}_j^n$ 中任意位置(x, y)的系数.$V_j^n$ 为层级j、方向n的子带统计分布的绝对偏差和, 它将以扩散系数集合的绝对偏差和来等效. AVj为层级j的统计分布的扩散度, 它为该层级全部8个方向子带统计分布绝对偏差和的均值.图8针对DIV2K数据库中800类图像序列, 给出了其融合互补色算子的层级统计分布的扩散度随模糊变化的趋势. 从图8可以看到, 层级统计分布的扩散度随图像模糊递增而减小, 因此, 式(10)也可作为反映图像清晰度的指标之一.
2.4 清晰度评价测度
上述分析已经表明: 式(6)定义的层级最大能量, 以及式(10)给出的层级统计分布的扩散度都与清晰度呈现出正相关的关系; 且在自动聚焦系统中, 图像细节特征主要分布于小波域的层级1和层级2[33], 因此, 本文就定义彩色图像清晰度评价测度MCCWT如下:
$${M_{CCWT}} = \sqrt{{\prod\limits_{j = 1}^2 {{M_{CCWT - j}}} }}$$ (11) $${M_{CCWT {\text{-}} j}} = M{E_j} \cdot A{V_j},\ j = 1,2$$ (12) 其中,
$ \cdot $ 表示相乘运算,${M_{CCWT {\text{-}} j}}$ 为层级测度, 其为第j层的层级最大能量和其统计分布扩散度的乘积, 考虑到细节信息主要存在于层级1和2, 这样, 本文的清晰度评价测度就是当$j=1 $ 和2时的层级测度的几何平均, 即式(11).3. 性能分析和比较
3.1 灵敏度性能评价指标
由清晰度评价测度决定的自动聚焦, 其测度性能的好坏将直接决定自动聚焦的优劣, 而图像的最终接收者是人眼, 那么理想聚焦位置就应该由人眼来确定. 为保证聚焦到理想位置, 清晰度评价测度就应满足无偏性、单峰性及单调性. 这是因为无偏性将保证仅当像平面和焦平面重合时, 清晰度评价测度才能取到最大值; 单峰性表示只有在清晰度评价测度取得唯一极值时, 才可聚焦到理想位置; 而单调性则表示清晰度评价的测度函数, 在其极值点两侧应该是单调递增或递减, 即聚焦只存在唯一的最佳位置[10]. 对于要求高精度的聚焦场合, 还需有必要的灵敏度指标, 用以同时说明聚焦精度和分辨率[15].
受噪声和景深的影响, 实际的聚焦位置通常位于理想位置附近的特定邻域内, 该邻域范围由误差允许的大小e所决定[15]. 为方便计算, 本文取
$e = 1\;{\text{%}}$ . 如图9所示, 图中Sf代表人眼确定的理想聚焦位置,${S_{ - e}},{S_{ + e}}$ 则是误差允许的邻域边界, 聚焦精度指标(Accuracy metrics, AM)是指清晰度评价测度在近焦邻域的灵敏度[15], 即:$$AM = {S_{ + e}} - {S_{ - e}}$$ (13) 聚焦分辨率指标(Resolution metrics, RM)是指清晰度评价测度在整个调焦范围内的灵敏度, 体现的是清晰度评价测度对离焦点的抑制特性, 其定义为[15]:
$$RM = \frac{1}{{{{\left\| M \right\|}_2}}}{\left[ {\sum\limits_{s \in S} {{{(s - {S_f})}^2}{M^2}(s)} } \right]^{1/2}}$$ (14) 其中, S表示可调焦范围, M(s)表示在任意调焦位置点s处清晰度评价测度给出的评价值, 就本文而言其为式(11)给出的值.
3.2 性能仿真实验和比较
为了研究本文所提方法的性能, 并与经典方法的性能进行对比, 本节将利用最广泛使用的LIVE(gblur)数据库[31], 以及IVC(Flou)数据库[27]来等效聚焦过程, 并进行相应的仿真实验. 其中最清晰图像等效为聚焦理想位置所获取的图像, 而模糊程度递增的图像, 则等效为离开理想聚焦位置处所获取的图像. 在LIVE(gblur)数据库中有28类彩色图像序列, 其每类序列中分别含有6幅大小为
$512 \times $ $ 640$ 且模糊程度不同的彩色图像; 而在IVC(Flou)数据库中则有4类彩色图像序列, 其每类序列中含有6幅大小为$512 \times 512$ 且模糊程度不同的彩色图像. 在两个数据库的各类图像序列中, 图像6都是人眼确定的最清晰图像. 为了方便式(13)和(14)所定义的聚焦精度和分辨率的定量比较, 本文视数据库LIVE(gblur)及IVC(Flou)中相邻模糊图像间的位置差为${s_{i + 1}} - {s_i} = 1,$ 其中i为图像对应的位置点.本文所提测度与文献报道的8种经典方法的性能进行比较, 这几种经典方法分别为关键信息熵方法(Entropy)[3], Tenengrad梯度能量方法(Tenengrad)[6], 灰度差分法(SMD)[8], 间距可变拉普拉斯方法(SML)[9], 方差法(Variance)[15], 显著区域的奇异值分解方法(Sd-Svd)[11], 传统小波域高低频能量比方法(DB)[15], 快速图像清晰度方法(FISH)[14]. 同时, 为便于性能的分析与比较, 文中的MDB为在传统小波域, 利用本文清晰度测度的构建方法所给出的新测度, 即基于传统小波变换的层级最大能量和统计分布扩散度来共同描述的新测度, 其相应的测度构建流程图如图10所示. 在灵敏度性能上的定性和定量比较如图11及表3和4所示, 其中, 表3和表4的精度误差允许值
$e = 1\;{\text{%}}$ , 精度和分辨率提升百分比为本文方法较经典方法所提升的比例, 即:表 3 各清晰度评价算法在LIVE数据库gblur图像序列中的聚焦精度和分辨率均值(e = 1%)Table 3 The average of accuracy metrics and resolution metrics of each sharpness assessment method in Gaussian blur image sequences of LIVE (gblur) database (e = 1%)Methods 精度(AM) 精度提升(%) 分辨率(RM) 分辨率提升(%) Entropy[3] 5.4621 99.32 9.0081 82.09 Tenengrad[6] 0.1130 66.99 6.1262 73.67 SMD[8] 0.0756 50.66 6.1054 73.58 SML[9] 0.0543 31.31 3.2748 50.74 Variance[15] 0.5798 93.57 8.6133 81.27 Sd-Svd[11] 0.0380 1.84 2.1322 24.34 DB[15] 0.0950 0.74 6.5152 75.24 FISH[14] 0.0636 41.35 3.9004 58.64 MDB 0.0407 8.35 2.4862 35.11 MCCWT 0.0373 − 1.6132 − 表 4 各清晰度评价算法在IVC数据库Flou图像序列中的聚焦精度和分辨率均值(e = 1%)Table 4 The average of accuracy metrics and resolution metrics of each sharpness assessment method in Gaussian blur image sequences of IVC (Flou) database (e = 1%)Methods 精度(AM) 精度提升(%) 分辨率(RM) 分辨率提升(%) Entropy[3] 2.5343 99.03 9.1027 94.47 Tenengrad[6] 0.0785 68.66 6.2105 92.32 SMD[8] 0.0517 52.42 6.0649 92.13 SML[9] 0.0323 23.84 1.7217 72.29 Variance[15] 0.4067 93.95 8.7291 94.53 Sd-Svd[11] 0.0265 7.17 2.2631 78.92 DB[15] 0.0645 61.86 6.4927 92.65 FISH[14] 0.0404 39.11 2.8601 83.32 MDB 0.0299 17.73 1.6301 70.73 MCCWT 0.0246 − 0.4771 − $$\frac{{X_x} - {X_{CCWT}}}{X_x}\times 100\;{\text{%}}$$ (15) 其中Xx为各经典清晰度评价方法的精度/分辨率, XCCWT为本文方法的精度/分辨率. 从图11可以看出, 在无噪声的情况下, 各方法均满足无偏性, 单峰性及单调性的要求. 表3则表明: 在LIVE数据库中, 本文的清晰度评价测度MCCWT具有最高的聚焦精度0.0373和分辨率1.6132. 表4则进一步表明: 在IVC数据库中, 本文的MCCWT具有最高的聚焦精度0.0246和分辨率0.4771.
表3和表4中的清晰度评价方法DB、FISH、MDB均为小波域的清晰度评价方法, 它们的共同点是利用相同的传统小波来提取高频分量, 也就是说它们选取的细节特征是相同的; 但三者的不同在于测度模型的构建方法, DB利用的是高低频能量比的方法, FISH利用加权高频对数能量的方法, 而MDB则采用本文所提出的层级最大能量和层级分布扩散度相结合的方法. 表3和表4的结果表明: MDB在这三者中具有最好的聚焦精度和分辨率, 这在本文分析正确性的同时, 也证明本文所提出最大层级能量和层级分布扩散度相结合的测度构建方法是有效的. 此外, 在MDB中的传统小波用互补色小波替代时, 由于互补色小波能比传统小波提取更多彩色图像细节特征, 如能提供更多的颜色、亮度、方向、尺度等细节信息[19], 即能更精确描述细节特性, 因此MCCWT较MDB的聚焦精度和分辨率性能有了更进一步的提升. 这再次验证了文献[19]互补色小波的优越性.
至于聚焦分辨率指标RM的提升相对较高而在AM上相对较低, 其主要原因在于: 由于本文利用层级能量最大的像素点来表明聚焦点而忽略其他点, 因此对离焦点就给出了最大的抑制作用, 从而使得RM的提升相对显著. 近焦邻域的灵敏度指标AM由于文献报道的一些方法本身就在一些应用可接受范围内, 因此其提升空间就有限了. 比较表3和表4可以发现: MCCWT的性能优于MDB和文献报道方法, 而MDB的性能则略逊色于文献报道的最好方法, 这表明本文测度性能的提升是本文测度的构建方法和互补色小波共同作用的结果.
为了对不同清晰度评价方法的稳定性进行定量比较, 本文针对LIVE (gblur)数据库中28类图像序列, 分别在其图像2
$\sim $ 图像4中引入不同方差${\sigma _n}^2 $ 的加性高斯白噪声. 其中, LIVE (gblur)的不同图像序列中, 图像6均为人眼确定的最清晰图像. 以不同噪声环境下清晰度评价错误的次数, 即判定图像序列中的图像6非最清晰图像的次数, 来衡量不同噪声环境下无偏稳定性的好坏, 错误次数越少, 表明该清晰度评价测度的无偏稳定性越好, 相应的对比仿真实验结果分别如表5$\sim $ 表7所示. 表5$\sim $ 表7表明: 随着噪声方差的增大, 清晰度评价方法发生错误的可能就越大, 不过, 本文提出的清晰度评价测度MCCWT在这样的环境中一直能保持最好的无偏稳定性. 这正如第2.2节所分析的那样, 式(6)定义的层级最大能量对噪声的干扰具有鲁棒性, 而无偏稳定性恰恰反映的是清晰度评价方法在噪声/景深影响下的鲁棒性[10], 故本文所提出的MCCWT以及利用本文图10流程的MDB无偏稳定性较现有文献报道的方法更好. 至于MCCWT的无偏稳定性优于MDB无偏稳定性的结果则又一次验证文献[19]提出并研究的互补色小波的结论, 即互补色小波在具有比传统小波更好的抗混叠性的同时可提取到更精确的细节特征.表 5 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像2)Table 5 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 2)表 6 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像3)Table 6 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 3)表 7 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像4)Table 7 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 4)为比较各方法的运算复杂度, 本文在Intel Core i7-4770CPU, 3.40 GHz主频, 8 GB内存的计算机上, 采用MATLAB R2017a平台进行了对比实验, 每幅图像的平均计算开销如表8和9所示. 可知, 本文所提出的清晰度评价测度MCCWT, 其聚焦灵敏度提升的同时也带来了运算量的增加, 将在后续研究中进一步考虑优化算法, 降低运算复杂度.
4. 结论
借助于互补色小波, 本文给出了一种新的彩色图像清晰度评价测度及其构建方法. 为了充分而准确地表征和反映待评价彩色图像在颜色、亮度、方向、层级以及各通道分量间的相互信息等相关的特征, 并利用它们来描述聚焦性能, 本文定义了一个层级最大能量来表征最显著点的清晰度, 而图像清晰度相关特征分布的离散程度, 则用层级分布的扩散度来衡量. 因此, 利用它们来描述清晰度的测度就可使其随图像清晰程度的增加而增加. 此外, 即使在传统小波域利用本文的方法来表征清晰度, 其给出的性能就可与文献报道方法的评价性能相比拟. 而在互补色小波域, 由于互补色具有更好的细节提取能力, 因此其性能能进一步得到提升. 在LIVE及IVC图像数据库进行的仿真实验, 验证了提出测度的有效性和优越性.
-
图 7 Woman hat图像1和图像3在第1层级、方向为
$n = \pi /8$ 的扩散系数集合统计的真实分布及拟合分布(实线为真实分布, 虚线为拉普拉斯拟合分布)Fig. 7 Empirical and fitting distribution of diffusion coefficients of woman hat image 1 and image 3 with direction
$n = \pi /8$ in level 1 (The solid line is the empirical distribution, and the dashed line is the Laplace fitting distribution)表 1 图像高斯模糊的方差及窗口大小
Table 1 The variance and window size of image Gaussian blur
图像 $\sigma _h^2 $ 窗口大小 图像 $\sigma _h^2 $ 窗口大小 1 0.28 3 13 0.964 7 2 0.29 3 14 1 7 3 0.3 3 15 1.1 7 4 0.32 3 16 1.2 9 5 0.33 3 17 1.33 9 6 0.34 3 18 1.67 11 7 0.35 3 19 2 13 8 0.4 3 20 2.33 15 9 0.5 3 21 2.67 17 10 0.66 5 22 3 19 11 0.8 5 23 3.33 21 12 0.906 7 24 3.67 23 表 2 DIV2K中层级1、方向为
$n = 4\pi /8$ 的子带的真实分布与拟合分布熵差Table 2 In DIV2K, the entropy difference between the empirical distribution and the fitting distribution of the subband with direction
$n = 4\pi /8$ in level 1图像 $\Delta H/H$ 图像 $\Delta H/H$ 1 0.0254 13 0.0278 2 0.0253 14 0.0281 3 0.0252 15 0.0290 4 0.0246 16 0.0303 5 0.0243 17 0.0225 6 0.0239 18 0.0367 7 0.0235 19 0.0415 8 0.0224 20 0.0681 9 0.0241 21 0.1853 10 0.0259 22 0.4329 11 0.0265 23 0.8159 12 0.0274 24 1.2271 表 3 各清晰度评价算法在LIVE数据库gblur图像序列中的聚焦精度和分辨率均值(e = 1%)
Table 3 The average of accuracy metrics and resolution metrics of each sharpness assessment method in Gaussian blur image sequences of LIVE (gblur) database (e = 1%)
Methods 精度(AM) 精度提升(%) 分辨率(RM) 分辨率提升(%) Entropy[3] 5.4621 99.32 9.0081 82.09 Tenengrad[6] 0.1130 66.99 6.1262 73.67 SMD[8] 0.0756 50.66 6.1054 73.58 SML[9] 0.0543 31.31 3.2748 50.74 Variance[15] 0.5798 93.57 8.6133 81.27 Sd-Svd[11] 0.0380 1.84 2.1322 24.34 DB[15] 0.0950 0.74 6.5152 75.24 FISH[14] 0.0636 41.35 3.9004 58.64 MDB 0.0407 8.35 2.4862 35.11 MCCWT 0.0373 − 1.6132 − 表 4 各清晰度评价算法在IVC数据库Flou图像序列中的聚焦精度和分辨率均值(e = 1%)
Table 4 The average of accuracy metrics and resolution metrics of each sharpness assessment method in Gaussian blur image sequences of IVC (Flou) database (e = 1%)
Methods 精度(AM) 精度提升(%) 分辨率(RM) 分辨率提升(%) Entropy[3] 2.5343 99.03 9.1027 94.47 Tenengrad[6] 0.0785 68.66 6.2105 92.32 SMD[8] 0.0517 52.42 6.0649 92.13 SML[9] 0.0323 23.84 1.7217 72.29 Variance[15] 0.4067 93.95 8.7291 94.53 Sd-Svd[11] 0.0265 7.17 2.2631 78.92 DB[15] 0.0645 61.86 6.4927 92.65 FISH[14] 0.0404 39.11 2.8601 83.32 MDB 0.0299 17.73 1.6301 70.73 MCCWT 0.0246 − 0.4771 − 表 5 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像2)
Table 5 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 2)
表 6 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像3)
Table 6 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 3)
表 7 各清晰度评价算法在LIVE数据库gblur图像序列中的最大值错误次数(噪声存在于图像4)
Table 7 The number of errors in the maximum value of each sharpness assessment method in the Gaussian blur image sequence of LIVE (gblur) database (noise in image 4)
表 8 各清晰度评价算法在LIVE数据库gblur图像序列中的平均运行时间
Table 8 Average running time of each sharpness assessment method in LIVE (gblur) database
-
[1] 谢攀, 张利, 康宗明, 谢时根. 一种基于尺度变化的DCT自动聚焦算法. 清华大学学报(自然科学版), 2003, 43(1): 55−58 doi: 10.3321/j.issn:1000-0054.2003.01.017Xie Pan, Zhang Li, Kang Zong-Ming, Xie Shi-Gen. Window scale-based automatic focus algorithm using DCT transformation. Journal of Tsinghua University (Science and Technology), 2003, 43(1): 55−58 doi: 10.3321/j.issn:1000-0054.2003.01.017 [2] 康宗明, 张利, 谢攀. 一种基于能量和熵的自动聚焦算法. 电子学报, 2003, 31(4): 552−555 doi: 10.3321/j.issn:0372-2112.2003.04.020Kang Zong-Ming, Zhang Li, Xie Pan. Implementation of an automatic focusing algorithm based on spatial high frequency energy and entropy. Acta Electronica Sinica, 2003, 31(4): 552−555 doi: 10.3321/j.issn:0372-2112.2003.04.020 [3] 贾旭, 曹玉东, 孙福明, 崔建江, 薛定宇. 基于无参考质量评价模型的静脉图像采集方法. 电子学报, 2015, 43(2): 236−241 doi: 10.3969/j.issn.0372-2112.2015.02.005Jia Xu, Cao Yu-Dong, Sun Fu-Ming, Cui Jian-Jiang, Xue Ding-Yu. Vein image acquisition method based on quality assessment model without reference. Acta Electronica Sinica, 2015, 43(2): 236−241 doi: 10.3969/j.issn.0372-2112.2015.02.005 [4] Firestone L, Cook K, Culp K, Talsania N, Preston K. Comparison of autofocus methods for automated microscopy. Cytometry, 1991, 12(3): 195−206 doi: 10.1002/cyto.990120302 [5] Choi K S, Lee J S, Ko S J. New autofocusing technique using the frequency selective weighted median filter for video cameras. IEEE Transactions on Consumer Electronics, 1999, 45(3): 820−827 doi: 10.1109/30.793616 [6] Tenenbaum J M. Accummodation in Computer Vision, [Ph. D. dissertation], Stanford University, USA, 1970 [7] Zhan Y B, Zhang R. No-Reference image sharpness assessment based on maximum gradient and variability of Gradients. IEEE Transactions on Multimedia, 2018, 20(7): 1796−1808 [8] Jarvis R A. Focus optimization criteria for computer image processing. Microscope, 1976, 24(2): 163−180 [9] Nayar S K, Nakagawa Y. Shape from focus system. IEEE Tansactions Pattern Analysis and Machine Intelligence, 1994, 16(8): 824−831 doi: 10.1109/34.308479 [10] 李郁峰, 陈念年, 张佳成. 一种快速高灵敏度聚焦评价函数. 计算机应用研究, 2010, 27(4): 1534−1536Li Yu-Feng, Chen Nian-Nian, Zhang Jia-Cheng. Fast and high sensitivity focusing evaluation function. Application Research of Computers, 2010, 27(4): 1534−1536 [11] Li Y J, Di X G. A no-reference infrared image sharpness assessment based on singular value decomposition. In: Proceedings of the 2016 Visual Communication and Image Processing. Chengdu China: IEEE, 2016. 1−4 [12] Baina J, Dublet J. Automatic focus and iris control for video cameras. In Proceedings of the Fifth International Conference Image Processing and its Applications. Edinburgh, UK: IEEE, 1995, 232−235 [13] 菅维乐, 姜威, 周贤. 一种基于小波变换的数字图像自动聚焦算法. 山东大学学报: 工学版, 2004, 34(6): 38−40Jian Wei-Le, Jiang Wei, Zhou Xian. Auto-focusing algorithms of aigital image based on wavelet transform. Journal of Shandong University (Engineering Science), 2004, 34(6): 38−40 [14] Vu P V, Chandler D M. A fast wavelet-based algorithm for global and local image sharpness estimation. IEEE Signal Processing Letters. 2012, 19(7): 423−426 [15] 王义文, 刘献礼, 谢晖. 基于小波变换的显微图像清晰度评价函数及3-D自动调焦技术. 光学精密工程, 2006, 14(6): 1063−1069 doi: 10.3321/j.issn:1004-924X.2006.06.023Wang Yi-Wen, Liu Xian-Li, Xie Hui. A wavelet-based focus measure and 3-D autofocusing for microscope images. Optics and Precision Engineering, 2006, 14(6): 1063−1069 doi: 10.3321/j.issn:1004-924X.2006.06.023 [16] Fan Z G, Chen S Q. Autofocus algorithm based on wavelet packet transform for infrared microscopy. In: Proceedings of the 3rd International Congress on Image and Signal Processing, Yantai, China: IEEE, 2010. 2510−2514 [17] Zhang Z, Liu Y, Tan H. No-reference image sharpness assessment using scale and directional models. In: Proceedings of the 2018 IEEE International Conference on Multimedia & Expo. San Diego, CA, USA: IEEE, 2018. 1−6 [18] Weijer J V D, Gevers T, Bagdanov A D. Boosting color saliency in image feature detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 28(1): 150−156 [19] Chen Y, Li D, Zhang J Q. Complementary color wavelet: A novel tool for the color image/video analysis and processing. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 29(1): 12−27 [20] MacAdam D L. Photometric relationships between complementary colors. Journal of the Optical Society of America, 1938, 28(4): 103−111 doi: 10.1364/JOSA.28.000103 [21] Pridmore R W. Complementary colors theory of color vision: Physiology, color mixture, color constancy and color perception. Color Research & Application, 2011, 36(6): 394−412 [22] Selesnick I W, Baraniuk R G, Kingsbury N C. The dual-tree complex wavelet transform. IEEE Signal Processing Magazine, 2005, 22(6): 123−151 doi: 10.1109/MSP.2005.1550194 [23] Born M, Wolf E, Principles of optics. London: Pergamon, 1965. [24] Pentland P A. A new sense for depth of field. pattern analysis and machine intelligence. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1987, 9(4): 523−531 [25] 陈扬, 李旦, 张建秋. 互补色小波域图像质量盲评价方法. 电子学报, 2019, 47(4): 775−783 doi: 10.3969/j.issn.0372-2112.2019.04.002Chen Yang, Li Dan, Zhang Jian-Qiu. Blind image quality assessment with complementary color wavelet transform. Acta Electronica Sinica, 2019, 47(4): 775−783 doi: 10.3969/j.issn.0372-2112.2019.04.002 [26] 陈扬, 张建秋. 互补色小波域自然场景统计显著图模型. 微电子学与计算机, 2019, 36(3): 17−22, 27Chen Yang, Zhang Jian-Qiu. A naturel scene statistical saliency map model in complementary color wavelet domain. Microelectronics & Computer, 2019, 36(3): 17−22, 27 [27] Ninassi A, Autrusseau F, Callet P L. Pseudo no reference image quality metric using perceptual data hiding. In: Proceedings of the International Society for Optical and Engineering. California, USA: SPIE, 2006. [28] Timofte R, Agustsson E, Gool L V. NTIRE 2017 challenge on single image super-resolution: methods and results. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Honolulu, HI, USA: IEEE, 2017. 1110−1121 [29] 苑津莎, 张冬雪, 李中. 基于改进阈值法的小波去噪算法研究. 华北电力大学学报, 2010, 37(5): 92−97Yuan Jin-Sha, Zhang Dong-Xue, Li Zhong. Wavelet denosing algorithm based on improved thresholding method. Joumal of North China Electric Power University, 2010, 37(5): 92−97 [30] Sendur L, Selesnick I W. Bivariate shrinkage functions for wavelet-based denoising exploiting interscale dependency. IEEE Transactions on Signal Processing, 2002, 50(11): 2744−2756 doi: 10.1109/TSP.2002.804091 [31] Sheikh H R, Wang Z, Cormack L, et al. LIVE image quality assessment database release 2(2005)[Online], available: http://live.ece.utexas.edu/research/quality/, September1, 2011 [32] 方开泰, 许建伦. 统计分布. 北京: 科学出版社, 1987. 277−282.Fang Kai-Tai, Xu Jian-Lun. Statistical Distribution. Beijing Science Press, 1987. 277−282 [33] 刘兴宝, 袁道成. 基于纹理分析的小波变换图像清晰度评价方法研究. 仪器仪表学报, 2007, 28(8): 1508−1513Liu Xin-Bao, Yuan Dao-Cheng. Research on image definition criterion using wavelet transform based on the tex ture analysis. Chinese Journal of Scientific Instrument, 2007, 28(8): 1508−1513 期刊类型引用(4)
1. 夏晓华,柴玉琳,岳鹏举,杨治,秦绪芳. 与图像内容无关的聚焦程度评价方法. 西安交通大学学报. 2025(01): 116-124 . 百度学术
2. 胡跃明,黄丹,于永兴,罗家祥. 面向高密度柔性集成电路封装基板的精密视觉检测算法. 控制理论与应用. 2024(07): 1255-1263 . 百度学术
3. 赵涂昊,夏小东,付茂栗,王觅. 基于改进DFVDFF网络的变焦深度测量. 计算机应用. 2024(S1): 223-228 . 百度学术
4. 简梦真,李旦,张建秋. 基于非均匀入射光成像模型的水下图像复原. 光学学报. 2021(15): 31-40 . 百度学术
其他类型引用(0)
-