2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于轮廓模板和自学习的图像纹理增强超采样算法

肖进胜 庞观林 唐路敏 钱超 邹白昱

肖进胜, 庞观林, 唐路敏, 钱超, 邹白昱. 基于轮廓模板和自学习的图像纹理增强超采样算法. 自动化学报, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458
引用本文: 肖进胜, 庞观林, 唐路敏, 钱超, 邹白昱. 基于轮廓模板和自学习的图像纹理增强超采样算法. 自动化学报, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458
XIAO Jin-Sheng, PANG Guan-Lin, TANG Lu-Min, QIAN Chao, ZOU Bai-Yu. Image Texture Enhancement via Upscaling Algorithm Based on Contour Stencils and Self-learning. ACTA AUTOMATICA SINICA, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458
Citation: XIAO Jin-Sheng, PANG Guan-Lin, TANG Lu-Min, QIAN Chao, ZOU Bai-Yu. Image Texture Enhancement via Upscaling Algorithm Based on Contour Stencils and Self-learning. ACTA AUTOMATICA SINICA, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458

基于轮廓模板和自学习的图像纹理增强超采样算法

doi: 10.16383/j.aas.2016.c150458
基金项目: 

国家自然科学基金 61471272

详细信息
    作者简介:

    庞观林 武汉大学电子信息学院硕士研究生.主要研究方向为数字图像处理.E-mail:pglwhdx@whu.edu.cn;

    唐路敏 武汉大学电子信息学院硕士研究生.主要研究方向为数字图像处理.E-mail:Lumintang@163.com;

    钱超 武汉大学电子信息学院硕士研究生.主要研究方向为视频图像处理.E-mail:qianchao@whu.edu.cn;

    邹白昱 武汉大学电子信息学院硕士研究生.主要研究方向为数字图像处理.E-mail:zby@whu.edu.cn

    通讯作者:

    肖进胜 武汉大学电子信息学院副教授,博士.主要研究方向为视频图像处理,计算机视觉,多媒体网络通信.本文通信作者.E-mail:jsxiao@tom.com

Image Texture Enhancement via Upscaling Algorithm Based on Contour Stencils and Self-learning

Funds: 

National Natural Science Foundation of China 61471272

More Information
    Author Bio:

    Master student at the School of Electronic Information, Wuhan University. His main research interest is digital image processing.E-mail:

    Master student at the School of Electronic Information, Wuhan University. His main research interest is digital image processing.E-mail:

    Master student at the School of Electronic Information, Wuhan University. His main research interest is video and image processing.E-mail:

    Master student at the School of Electronic Information, Wuhan University. His main research interest is digital image processing.E-mail:

    Corresponding author: XIAO Jin-Sheng Ph. D., associate professor at the School of Electronic Information, Wuhan University. His research interest covers video and image processing, computer vision, multimedia network communication. Corresponding author of this paper.
  • 摘要: 提出一种以轮廓模板插值和局部自学习相结合的图像纹理增强超采样算法,有效地恢复了插值图像丢失的细节纹理,抑制了插值图像边缘的扩散.该方法通过局部自相似性在原始低分辨图像中估计高频信息,对轮廓模板插值图像的细节纹理进行了恢复.其中,为了弥补轮廓模板插值缺少先验知识的缺陷,将原始低分辨率图像的高频信息作为先验知识.为了保证估计的高频信息最优,匹配的过程中采用双匹配,相比较于全局搜索和小窗搜索,提高了效率并保证了匹配精度.此外,使用高斯模糊代替了传统提取高频信息的方法,简化了算法的复杂度,提高了准确性和效率.对估计得到的高频信息采用高斯函数加窗,以减小估计出错和重叠区的混叠影响.本文算法的训练库由原始低分辨图像自身和插值图像构成,节省了生成训练库所需的时间和空间.训练库的简化使得高频信息的估计可以多尺度进行,算法效率得到进一步优化.理论分析和实验结果表明,相比传统的基于插值、基于自学习的图像超分辨率方法,本文方法获得更好的实验结果,主观效果得到明显改善,有效地恢复了图像的纹理细节,提高了图像边缘锐度,避免了产生锯齿等人工效应,客观指标得到提高.
  • 图像超分辨率技术是现在图像处理研究的一个重要领域,其在数字高清、~医学图像、卫星图像分析、安全检测等领域有十分广泛的用途.在图像超分辨率技术中,将低分辨率图像放大为高分辨率图像并保留图像的高频信息的超采样技术一直以来都是图像处理领域研究的热点之一[1].目前超分辨率技术主要有基于重建的超分辨率技术和基于学习的超分辨率技术两大类[2-10].基于重建的超分辨率技术存在先验知识少、结果图像纹理细节丢失严重、边缘模糊等问题.比如,Getreuer[4]利用高低分辨率图像的轮廓一致性,选取合适的轮廓模板进行插值得到高分辨率图,提高了插值算法的性能,但纹理细节部分有所缺失、边缘模糊[5].为了克服基于重建的超分辨算法的缺陷,基于学习的超分辨率算法在一些训练样本图像的辅助下,复原出高分辨率图像.但目前基于学习的超分辨率算法多数需要外部的训练库,内存和时间消耗较大,且算法复杂度高,应用受到了限制.针对训练库的问题,文献[6-11]提出使用图像的自相似性,通过自身建立训练库,然后使用基于学习的超分辨率技术进行图像复原,取得了不错的效果. 但基于自相似的图像超采样算法各有自己的不足.Freedman等[6]使用简单的灰度信息作为特征,使得复原效果提升有限; 文献[7-10]使用稀疏表示技术,通过自相似性建立冗余字典或典书(Codebook)进行超分辨率复原,取得不错的效果,但是该算法复杂度较大;Glasner等[11]由输入图像采用金字塔的形式构建训练库,利用图像块的冗余度并结合传统超分辨算法和基于样本的超分辨率算法,得到了较好的算法结果,但是算法容易产生人工痕迹.

    针对传统插值超采样算法和相关的基于学习的超分辨率算法的缺陷[12-13],在考察了局部自相似性学习的超采样方法各自的优势后,本文在轮廓模板插值的基础上,利用原始低分辨率图像的局部自相似性提供先验知识,估计补充高分辨率图像纹理部分,实现了一种基于轮廓模板和局部自学习的图像纹理增强超采样算法.算法以轮廓模板插值得到保持原始图像轮廓的初始插值图像,以低分辨率图像为先验知识,通过二级块匹配学习,估计插值图像丢失的高频信息,然后将估计得到的高频细节信息合成到初始插值图像上,得到纹理增强的超采样图像. 原始低分辨率图像的高频信息作为先验知识,弥补了轮廓模板插值缺少先验知识的缺陷.高斯模糊代替了传统提取高频信息的方法,简化了算法的复杂度,提高了准确性. 采用二级块匹配,相较于传统的全局搜索,在保证匹配精度的同时,提高了效率. 高斯函数加窗,抑制重叠区的混叠影响,同时也减小了估计出错的影响.算法的学习训练库由原始低分辨率图像本身和插值图像组成,进一步简化了由原始低分辨率图像及其变形图像和插值图像组成的学习训练库,使得高频信息的估计在原始低分辨率图像和插值得到的高分辨率图像这一个多尺度进行,相比较于多级多尺度,时间和空间的消耗明显地被减少.本算法综合考虑了超采样图像的轮廓和细节两个部分,理论分析和实验表明本文算法具有较好的性能,特别是在边缘和纹理增强方面,超采样图像无论是主观的视觉效果还是客观的评判指标上都取得较好的结果.

    基于学习的超分辨率方法,由于需要外部数据库,其应用受到极大限制.自然图像中的小块往往会在图像内及其缩放图内重复出现[6, 14-16],这使得能够在小尺度下用输入图像本身来替换外部数据库作为样例块的来源.虽然和外部数据库相比,提供的样例块的数量有限,但从输入图像中找到的块相关性更强. 因此,在许多情况下,可以使用较少的样例,将获得相同或更好的结果,同时减少所涉及的最近邻搜索的时间成本.但是完全由局部自相似性得到超分辨率图像往往算法复杂度还是较大.插值得到的放大图像,由于缺少必要的先验知识,纹理细节和自然图像相比,会有所损失. 针对这一问题,为了使放大图像的高频信息具有原始低分辨率图像的细节特征,本文利用原始低分辨率图像的纹理提供先验知识,利用局部自相似性,补充插值得到的高分辨率图像的高频细节信息.设原始低分辨率图像为IL,初始插值图像为II,高分辨率图像为IH,超分辨率复原需解决的问题是在已知IL的条件下,估计出最优的IH.算法的基本思想是在初始插值的基础上,利用原始低分辨率图像的纹理特征估计出高分辨率图像的高频信息H.目前最常用的方法为最大后验概率法(Maximum a posteriori,MAP),即求使条件概率P(H|IL)最大时的H. 在估计高频信息的过程中,高频信息条件独立于低频信息[17],即有:

    $ P(H\vert I_L )=P(H\vert I_LH ,I_LL )\approx P(H\vert I_LH )$

    (1)

    其中,ILH ILL 分别为IL的高频和低频部分.根据贝叶斯估计理论有:

    $ P(H\vert I_LH )=\frac {P(H,I_LH )}{P(I_LH)}$

    (2)

    其中,P(ILH )为低分辨率图像高频信息的先验概率;P(H,ILH)为高分辨率图像的高频信息和原始低分辨率图像的高频信息的联合概率.为了求得最优的高频信息H,须求取使联合概率P(H,ILH )取最大值的H. 提取IL 的高频特征即可获得ILH ,因此P(ILH)可认为是一个已知的常数. 这样估计高频信息的问题变为

    $ H=\arg \max P(H,I_LH )$

    (3)

    由于图像尺寸太大,维数太高,因此通常将图像划分为图像块进行处理.图像块之间的关系模型可通过马尔科夫模型[17]建立.但是求解该模型需要反复迭代,计算量较大.

    一般意义下,可以认为块与块之间是相互独立的,相邻块之间的方块效应可通过重叠分块[18]来解决.这样我们可以得到:

    $\begin{equation}\begin{array}{l} P(H,I_{LH} )=P(H_1 ,H_2 ,\cdots,H_n ,I_{LH_1 },~~~~~~~~~~~~~~~\\ ~~~~~~~~~~~~~~~~~~~~~~I_{LH_2 } ,\cdots,I_{LH_n } )=\prod\limits_{k=1}^n {P(H_k ,I_{LH_k } )} \\ \end{array}\end{equation}$

    (4)

    其中,Hk ILHk 分别表示HILH 的第k个块;n为图像块的数目. 通过式(4)可知,只要获得使联合概率P(Hk,ILHk ) 最大的高频信息块Hk ,那由这些Hk拼接而成的高频信息图像的联合概率也最大.

    在估计高频信息的过程中,先找到其低频信息块,然后估计高频信息.由式(4)知道只要获得使P(Hk,ILHk )最大时Hk对应的低频信息Lk即可由低频和高频一一对应的关系估计得到高频信息.由贝叶斯估计理论我们有:

    $ P(L_k|I_k )=\frac {P(L_k ,I_k )}{P(I_k )}$

    (5)

    其中,Ik 为待复原图像块,P(Lk,Ik )Hk对应的低频Lk和待复原图像块Ik 的联合概率,待复原图像块的概率P(Ik )为已知常数.

    联合概率P(Lk ,Ik )可以表示为

    $ P(L_k ,I_k )=\exp \Big(\frac {-\left| {I_k -L_k }\right|^2}{2\sigma ^2}\Big)$

    (6)

    其中,σ 为常数,Ik Hk 对应的低频信息Lk均来自由ILII 组成的图像训练集.那么求使式(\ref{eq6})达到最大时的Lk的取值问题,就可以转换为

    $ L_k =\arg \min \left| {I_k -L_k } \right|$

    (7)

    我们可以将训练库中与待复原图像块Ik 最相似的低频信息块Lk,其所对应的高频信息块Hk ,作为高频信息块的最优估计.LkIk的误差有可能会比较大,Hk会不准确,为此引入高斯窗函数对Hk加窗:

    $ H_ks =H_k G_σ (\left\| { x}-{ x}_c\right\|)$

    (8)

    其中, ${{G}_{\sigma }}(\left\| x-{{x}_{c}} \right\|)=\frac{1}{2\pi {{\sigma }^{2}}}{{\text{e}}^{-\frac{{{\left\| x-{{x}_{c}} \right\|}^{2}}}{2{{\sigma }^{2}}}}}$ 为高斯窗函数. 至此,我们就可以利用低分辨率图像来估计高频信息.

    本算法框架主要分为四个部分:分块、定位、匹配、合成.具体流程见算法1.

    算法 1 局部自学习纹理增强超采样算法

    1) 将输入的图像IL 经轮廓模板插值得到初始插值图像II .

    2) 提取IL 的低频ILL 和高频ILH .

    3) 将II 按规则划分成块,块的集合为B.

    4) 取其中一个块Ik(Ik ∈ B)ILL 中找到一个与Ik对应的点p.

    5) 以p为中心,在其邻域内进行块粗匹配,找到一个块的总变分最小的匹配块控制点p1 . 以p1 为中心,在其邻域内进行块细匹配,找到最佳块匹配控制点p2 .

    6) 以找到的最佳块匹配点p2 为顶点,构造一个块R(R⊂ILL ),通过低频和高频一一对应关系得到R对应的高频Hk .

    7) 将Hk 加窗得到的Hks 拼接成具有II尺寸的高频信息H.

    8) 将H叠加到II上合成具有原始低分辨率图像IL 纹理特征的超分辨率图像IH .\end{itemize}算法的详细原理图如图 1.

    图 1  本文算法流程框架
    Fig. 1  The flowchart for proposed algorithm

    算法中将原始低分辨率图像的高频信息作为先验知识,弥补了基于插值的图像超采样算法缺少先验知识的缺陷,提高了输出图像的质量. 采用双匹配,相比较于全局搜索和小窗搜索,在时间和匹配精度方面做了有效的折衷. 采用高斯函数加窗,相比较于伯明翰窗和滤波器组,简化了算法的复杂度.本文算法在原始低分辨图像/插值得到的高分辨率图像这一个多尺度进行,采用高斯函数加窗就能很好地解决重叠区的影响,相比较于在多级多尺度进行的Glasner算法和Freedman算法采用伯明翰窗和滤波器组,简化了算法的复杂度.

    对于输入的原始低分辨率图像IL,本文首先采用插值算法将其放大得到初始高分辨率图像II.插值算法的选取会对最终结果产生一定影响,一个较好的插值算法必然会得到一个较好的最终结果.本文选取Getreuer的轮廓模板插值算法[4].算法利用高分辨率图像的轮廓与输入的低分辨率图像的轮廓保持一致的特性,事先估计自然图像轮廓的形状得到了具有57个轮廓模板的待选模板的集合.对于输入的低分辨率图像的每个像素点计算其为中心的邻域的轮廓模板值,选取合适的模板进行插值,最终得到了较好的高分辨率图像.轮廓模板插值算法在保持插值图像整体轮廓和细节等方面都取得了很好的效果,但是由于缺少先验知识,得到的高分辨率图像和自然图像相比,纹理部分有所缺失.本文算法将其进一步处理,补充高频的纹理细节部分. 提取低分辨率图像IL的低频ILL 和高频ILH,输入图像由低频和高频组成,用如下方法提取低频:

    $ I_LL =I_L \ast G_\sigma$

    (9)

    其中,“*”为卷积符号,G\sigma 为高斯核函数. 求得低频ILL 后,高频ILH =IL -ILL .

    II 进行逐点划分块,即对图像中的每个像素点Ik ∈ II ,其坐标为(Ikx ,Iky ). 以Ik 为左上角控制顶点,构造一个大小为i× i的超分辨率图像待匹配块Bi (Ikx,Iky ). i为4时,分块示意图如图 2.

    图 2  分块局部示意图
    Fig. 2  Schematic of local block

    图 2显示了一个块的划分. 每个小方格代表一个像素点,其中黑色框代表以黑色小方格为顶点的4×4的块.

    找到待匹配块Bi (Ikx ,Iky )的控制点Ik ,在原始低分辨率图像IL 的低频ILL 上对应的像素点p,其坐标为(px ,py ),计算如下:

    $ p_x =\frac {I_kx}{scale},\quad p_y =\frac{I_ky}{scale}$

    (10)

    其中,scale为图像缩放因子. 如图 3.

    图 3  定位示意图
    Fig. 3  Location map

    图 3显示了一个10× 10的II 中的点Ik 在其对应的5×5的ILL 中对应的定位点p. 每个小方格代表一个像素点,其中左边黑色框代表以黑色小方格为顶点(Ik )的待匹配块Bi ,右边的黑色小方格为在ILL 上的对应定位点p. 以p为中心控制点,构造一个块搜索范围.

    匹配分为粗匹配和细匹配. 块匹配的过程中,本文采用两个块对应点像素值之差的绝对值之和(Sum of absolutedifference,SAD)最小为匹配准则.在搜索范围内(这里为5×5的区域),采用“X”型搜索,找到4个待匹配像素点,如图 4(a)所示灰色方格,作为控制点,构造图 2所示块. 如图 4(b)所示共对应有4个块.将这4个块依次与Bi进行匹配,在匹配准则下得到粗匹配块的控制点p1,粗匹配完成.

    图 4  搜索和匹配块示意图
    Fig. 4  Search and matching block diagram

    然后进行细匹配,以粗匹配块控制点p1为中心点,构造另一个块搜索范围(这里为3×3的区域),如图 4(c),由搜索范围内的每个像素点作为控制点,构造图 2所示块,得到以p2为控制点的最佳匹配块R=Bi (p2x ,p2y),如图 4(d). Glasner算法采用最近邻域搜索匹配[11],Freedman算法在一个受限的小窗内进行全局匹配[6].匹配的过程中,本文的算法是在单一的尺度上进行多次匹配,由插值图像和原始图像提供样本块和学习块.Freedman算法[6]和Glasner算法[11]都是将原始图像经过降采样得到一系列尺度不同的低分辨率图像,由原始图像及其下采样图像提供样本块和学习块.文献[6, 11]算法使用原始图像及下采样图像信息,而本文算法更多地利用了原始图像信息,算法相对更简洁.

    图像的纹理特征往往在其高频部分得以体现,为了恢复出超采样后的图像II 的纹理,需要将原始低分辨率图像IL的高频信息以某一形式加入到II 中.

    相比于Freedman[6]的算法将简单的灰度信息作为高频特征,这里用高斯卷积求得的高频信息效果更好.Freedman算法的前提是图像先经下采样,后经上采样回来后高频信息全部丢失,这只是理想状况.而用高斯模糊求取高频信息时只要保证参数最佳,即可提取出较全的高频信息,二者提取的高频信息如图 5所示.图 5中二者相比较,本文算法求得的高频较为准确,其他不属于高频的部分剔除的比较干净.

    图 5  高频对比图
    Fig. 5  The comparison of the high-frequency

    在上文中找到了超分辨率图像待匹配块Bi(Bi ⊂ II)ILL 中的最佳匹配块R.由低频信息和高频信息一一对应的关系得到最佳匹配块RILH中对应的高频信息Hk 不能简单地加到II上,需要进行加窗处理.本算法在原始低分辨图像插值得到的高分辨率图像这一个多尺度进行,相比于多尺度图像中进行的算法而言,重叠区影响不大且重叠的程度不高,且高频部分本文算法提取的较为准确,故本算法采用高斯函数就能抑制重叠区的影响. Hk 加窗后得到Hks.

    $ H_ks =H_k G_\sigma (\left\| { x}-{ x}_c\right\|)$

    (11)

    其中, ${{G}_{\sigma }}(\left\| x-{{x}_{c}} \right\|)=\frac{1}{2\pi {{\sigma }^{2}}}{{\text{e}}^{-\frac{{{\left\| x-{{x}_{c}} \right\|}^{2}}}{2{{\sigma }^{2}}}}}$ 为高斯窗函数.

    最后将所有估计得到的高频信息块拼接得到H,与II合成即得到超分辨率图像IH .

    $ I_H =I_I +H$

    (12)

    为了验证本文提出的基于原始低分辨率图像的纹理合成的超采样插值算法方法的有效性,本文选择Getreuer插值[4]对低分辨率图像进行插值得到初始高分辨率图像,然后同Glasner算法[11]、Freedman算法[6]及其他经典插值算法和本文方法进行对比.实验测试使用的仿真软件为: Matlab R2012a; 操作系统为Windows XP;计算机配置为: Intel Core i3-3220 CPU,主频3.3GHz,内存4GB DDR31333MHz.

    图像效果用主观效果和客观效果评价. 本文对大量图像进行了测试,测试图像来源于加州大学伯克利分校图像分割数据库[19].经分析选择其中纹理丰富、对算法非常敏感的测试图像Child、Koala、Girl和Wheel进行实验对比展示.测试图像见图 6,其分辨率参数如表 1.为了使算法对比效果更明显,缩放因子取为4. 测试方法为:首先将原始低分辨率图像经Getreuer轮廓模板插值放大,然后经本文算法得到超分辨率图像. 将处理得到的超分辨率图像和Glasner算法、Freedman算法及其他经典插值算法得到的图像进行对比.

    图 6  测试图像
    Fig. 6  The test images
    表 1  测试图像分辨率
    Table 1  The resolutions of the test images
    ChildKoalaGirlWheel
    分辨率128×128161×241151×225207×157
    下载: 导出CSV 
    | 显示表格

    参数设置: 实验过程中通用参数一般设置相同,保证实验结果的合理性.求原始低分辨率图像高频信息的高斯函数的高斯半径为3,方差为0.46,给块加窗的高斯函数的高斯半径为4,方差为5,块的尺寸为4,粗匹配时的搜索范围为[-2,2],搜索步长为2,细匹配时的搜索范围为[-1,1],搜索步长为1. 实验过程中,针对不同的算法,选取各自算法最合适的参数以达到最好的效果.同一算法对不同图像选取相同的参数. 主观效果如图 7~10所示,选择高分辨率图像的部分(如图中方框标记的部分)进行局部对比.对图 7的处理中,Bicubic和Getreuer算法在帽子的边缘处有很宽的过渡、锐度不够;Glasner算法在帽子的边缘处产生了伪影;Freedman 的边缘保持的很好,本文算法保持的最好,两者均没有伪影等不良现象产生. 对图 8中的枝条,Bicubic和Getreuer算法中没有很好的清晰度和锐度;Glasner算法的清晰度和锐度都很好,但在枝条的右下方有类似于残影的不良现象产生; 在相同的地方,Freedman算法比Glasner有更为严重的类似于残影的不良现象;本文算法不仅没有不良现象产生,而且具有非常好的清晰度和锐度.图 9中,Bicubic和Getreuer算法得到的眉毛和睫毛纹理不丰富、偏模糊;Glasner、Freedman算法和本文算法得到了纹理较为丰富的眉毛和睫毛,但对头发部分,本文算法的纹理比Glasner和Freedman丰富. 在图 10效果图中,Glasner、Freedman和本文算法比,Bicubic和Getreuer在对比度和细节保持等方面得到的效果明显好,而本文算法的图像尤为清晰,细节部分尤为的突出. 因此,从主观效果来看,本文算法效果整体优于对比算法.

    图 7  Child主观效果对比
    Fig. 7  Subjective effect comparison of the image Child
    图 8  Koala主观效果对比
    Fig. 8  Subjective effect comparison of the image Koala
    图 9  Girl主观效果对比
    Fig. 9  Subjective effect comparison of the image Girl
    图 10  Wheel主观效果对比
    Fig. 10  Subjective effect comparison of the image Wheel

    对客观效果,采用峰值信噪比(Peak signal to noise ratio,PSNR)、图像的结构相似性(Structural SIMilarity,SSIM)[20]、 边缘保持度(Edge preserved index,EPI)[21]、图像的熵(Entropy)和图像清晰度(Clarity)[22]进行测试对比.

    峰值信噪比(PSNR)是对重建图像与原始图像的误差进行定量计算.图像的结构相似性(SSIM)用来衡量两幅图像的相似度.边缘保持指数(EPI)通过衡量从输入图像到输出图像的边缘信息保持评价算法的性能,值越大边缘保持越好,理想情况下为1,计算公式如下:

    $ {\rm EPI}=\frac{\sum {\left| {p_s -p_sn } \right|}}{\sum {\left| {p_o -p_on } \right|} }$

    (13)

    式中,ps 为处理后的图像像素点的灰度值,psnps相邻像素点的灰度值,po 为原始图像像素点的灰度值,pon po相邻像素点的灰度值. 图像的信息熵[22]越大,可以说明图像包含的信息量越大;图像清晰度可以描述图像微小的细节,一般采用平均梯度[22]衡量.

    本文用以上5个指标对图像进行客观评价,对上述6幅测试图像和源于加州大学伯克利分校图像分割数据库[19]共100幅进了测试.测试的方法:由于PSNR、SSIM和EPI的计算需要真实图像作参考,而部分图像缺失高分辨率的真实图像,故将原始低分辨率图像作为高分辨率的真实图像下采样到原来的1/16,然后利用本算法和其他算法以缩放因子为4进行上采样,计算PSNR、SSIM、EPI、Entropy和Clarity. 测试的结果如表 2表 3所示,其中表 2为上述6幅测试图像的测试结果,表 3是对100幅图片的统计结果平均值.由表 2的客观指标可知,除个别指标和图片外,本文算法的大部分指标均表现最优,与原始图像的误差最小. Freedman牺牲了部分纹理,使图像过于锐化,局部EPI、Entropy和Clarity值比本文算法高;Glasner算法清晰度有所牺牲,局部的Entropy值比本文算法高.

    表 2  客观指标对比
    Table 2  The comparison of objective indicators
    图像 客观指标 Bicubic Getreuer Glasner Freedman本文算法
    PSNR37.68738.29838.64724.216 39.339 39.339
    SSIM0.986 0.988 0.989 0.8300.991
    EPI 0.497 0.517 0.562 0.5600.588
    Entropy5.2725.2705.2765.2645.259
    Clarity5.2605.4505.9015.0646.173
    KoalaPSNR38.71639.10139.48329.43139.738
    SSIM0.9860.9880.9890.8400.990
    EPI0.3490.3760.4340.4360.464
    Entropy4.8194.8314.8394.8854.895
    Clarity3.4343.6834.2625.4924.553
    GirlPSNR 40.00840.61740.89226.80141.642
    SSIM0.9910.9920.9930.8600.994
    EPI0.4440.4670.5180.5330.541
    Entropy5.2755.2745.2815.2725.269
    Clarity3.4803.6434.0233.9504.219
    WheelPSNR36.25936.92937.30825.07338.126
    SSIM0.9800.9830.9840.8210.986
    EPI0.5170.5510.6030.6490.663
    Entropy5.3535.3605.3535.3875.401
    Clarity5.1405.4546.0296.1776.621
    下载: 导出CSV 
    | 显示表格
    表 3  所有测试图片的平均指标
    Table 3  The average index of all test images
    平均指标PSNRSSIMEPIEntropyClarity
    Bicubic33.4010.9310.3775.0943.489
    Getreuer33.8740.9380.4015.0993.698
    Glasner34.1790.9450.4565.0984.216
    Freedman26.1440.8510.4275.1053.959
    下载: 导出CSV 
    | 显示表格

    实验中提取高频信息的高斯函数、用于加窗的高斯核函数以及匹配块的大小对结果图像的质量有一定影响,为了知道它们对结果图像质量的影响程度,做了定性的实验分析.

    实验过程中设置提取高频信息的高斯函数的半径分别为3~7,得到如图 11所示的高频图,对比发现不同半径下的高频图几乎没有差异,故实际中选取为3; 设置高斯函数的方差分别为0.35,0.4,0.46,0.5,0.55. 得到如图 12所示的高频图,观察发现方差较小时,一些高频信息提取不到,方差较大时,提取的冗余信息较多,这是因为方差决定了高斯函数滤波的能力,方差为0.46时得到较好的高频信息.

    图 11  不同高斯半径下提取的高频图
    Fig. 11  The extraction of high frequency diagram underdifferent radius of the Gaussian
    图 12  不同高斯方差下提取的高频图
    Fig. 12  Extraction of high frequency diagram underdifferent Gaussian

    高斯核函数的高斯方差分别设置为3~7,得到结果图并计算PSNR,SSIM,EPI,Entropy以及Clarity图像质量指标值,得到如图 13(a)所示不同方差下图像质量折线图,为了便于观察,图中各指标均取相对值. 观察发现随着方差的增大,PSNR,SSIM和Clarity逐渐变小,而Entropy逐渐变大,方差在[3, 4]的时候,EPI呈递减趋势,在[4, 5]时呈递增趋势,随后随着方差的增大,EPI呈递减趋势并趋于平稳,这是因为方差越大,用于合成的高斯信息越少,得到的图像的亮度等改变越小,而重叠区的影响变大,故随着方差的增大,PSNR、SSIM和Clarity逐渐变小,而Entropy逐渐变大,方差在[3, 4]的时候,远离高频块中心区域的值比较大,合成后造成了结果图像边缘的扩散,故EPI呈递减趋势,在[4, 5]时,远离高频块中心区域的值比较小,扩散被抑制了,EPI呈递增趋势,随后随着方差的增大,重叠区的影响变大,出现了油画效果,EPI呈递减趋势并趋于平稳,综合考虑,方差为5时图像的整

    图 13  不同方差和不同匹配块下图像的质量
    Fig. 13  Image quality under the different variance and the matching

    oindent 体质量最好,由于高斯核的半径必须和块的尺寸一致,故不做单独考虑.块的尺寸分别设置为3×3,4×4,5×5,6×6,7×7,得到结果图并计算PSNR、SSIM、EPI、Entropy以及Clarity图像质量指标值,为了便于观察,图中各指标均取相对值.得到如图 13(b)所示不同尺寸块下图像质量折线图,发现随着块越大,PSNR、SSIM和Entropy呈变小的趋势,块的尺寸在[3, 5]时,EPI和Clarity会变小,在[5, 6]时变大,随后又变小,综合比较块尺寸为3×3时,图像质量最好,但块小了,势必匹配范围要大,耗时多,尺寸大于4×4时PSNR、SSIM和Entropy会变小很多,故选取4×4比较合适.

    由于本文方法和文献[6, 11]中的方法均为初始插值加自相似细节处理,因此效率对比可以作为参考. 具体测试方法如下:选取4个具有代表性的测试图像,将测试图像用本文算法、Glasner算法和Freedman算法上采样16倍,在相同的测试环境中,使用同一算法对每个测试图像进行10次测试,将每组测试时间求平均后,取整并记录耗时情况.测试的结果(单位为秒)如表 4所示.

    表 4  效率对比(s)
    Table 4  The contrast of efficiency (s)
    图像GlasnerFreedman本文算法
    Child186137793
    Koala4314875287
    Girl3923748200
    Wheel4819636185
    下载: 导出CSV 
    | 显示表格

    这里效率测试结果虽然不能严格反映算法的计算量差别,但是测试结果能定性地反映本文算法效率优于对比算法.

    本文提出一种将轮廓模板插值和局部自相似性相结合的图像纹理增强超采样算法.该算法结合了轮廓模板插值和局部相似性各自的优势,充分利用了原始低分辨率图像提供的高频信息,将原始低分辨率图像的高频信息作为先验知识,弥补了轮廓模板插值算法缺少先验知识的缺陷,利用局部相似性估计恢复插值图像的纹理细节,提高了输出图像的质量.算法采用“X”型粗匹配和“3× 3”块的细匹配,相比较于全局搜索和小窗搜索,在效率和匹配精度中取得较好的折衷.训练库由原始低分辨图像和插值图像构成,相比于其他由一系列多尺度图像生成训练库的自相似算法和其他基于学习的算法,节省了时间和空间. 相比较于在多级多尺度下采用的伯明翰窗和滤波器组,本文采用高斯函数加窗在解决重叠区的影响的同时简化了算法的复杂度.实验结果表明,本文方法提高了图像的清晰度,极大程度地恢复了纹理细节,主观效果得到改善,客观效果整体得到提升. 尽管如此,本文算法还可以在效率的数值分析、噪声被引入和大比例超分辨率情形下的结果做进一步的深入研究.

  • 图  1  本文算法流程框架

    Fig.  1  The flowchart for proposed algorithm

    图  2  分块局部示意图

    Fig.  2  Schematic of local block

    图  3  定位示意图

    Fig.  3  Location map

    图  4  搜索和匹配块示意图

    Fig.  4  Search and matching block diagram

    图  5  高频对比图

    Fig.  5  The comparison of the high-frequency

    图  6  测试图像

    Fig.  6  The test images

    图  7  Child主观效果对比

    Fig.  7  Subjective effect comparison of the image Child

    图  8  Koala主观效果对比

    Fig.  8  Subjective effect comparison of the image Koala

    图  9  Girl主观效果对比

    Fig.  9  Subjective effect comparison of the image Girl

    图  10  Wheel主观效果对比

    Fig.  10  Subjective effect comparison of the image Wheel

    图  11  不同高斯半径下提取的高频图

    Fig.  11  The extraction of high frequency diagram underdifferent radius of the Gaussian

    图  12  不同高斯方差下提取的高频图

    Fig.  12  Extraction of high frequency diagram underdifferent Gaussian

    图  13  不同方差和不同匹配块下图像的质量

    Fig.  13  Image quality under the different variance and the matching

    表  1  测试图像分辨率

    Table  1  The resolutions of the test images

    ChildKoalaGirlWheel
    分辨率128×128161×241151×225207×157
    下载: 导出CSV

    表  2  客观指标对比

    Table  2  The comparison of objective indicators

    图像 客观指标 Bicubic Getreuer Glasner Freedman本文算法
    PSNR37.68738.29838.64724.216 39.339 39.339
    SSIM0.986 0.988 0.989 0.8300.991
    EPI 0.497 0.517 0.562 0.5600.588
    Entropy5.2725.2705.2765.2645.259
    Clarity5.2605.4505.9015.0646.173
    KoalaPSNR38.71639.10139.48329.43139.738
    SSIM0.9860.9880.9890.8400.990
    EPI0.3490.3760.4340.4360.464
    Entropy4.8194.8314.8394.8854.895
    Clarity3.4343.6834.2625.4924.553
    GirlPSNR 40.00840.61740.89226.80141.642
    SSIM0.9910.9920.9930.8600.994
    EPI0.4440.4670.5180.5330.541
    Entropy5.2755.2745.2815.2725.269
    Clarity3.4803.6434.0233.9504.219
    WheelPSNR36.25936.92937.30825.07338.126
    SSIM0.9800.9830.9840.8210.986
    EPI0.5170.5510.6030.6490.663
    Entropy5.3535.3605.3535.3875.401
    Clarity5.1405.4546.0296.1776.621
    下载: 导出CSV

    表  3  所有测试图片的平均指标

    Table  3  The average index of all test images

    平均指标PSNRSSIMEPIEntropyClarity
    Bicubic33.4010.9310.3775.0943.489
    Getreuer33.8740.9380.4015.0993.698
    Glasner34.1790.9450.4565.0984.216
    Freedman26.1440.8510.4275.1053.959
    下载: 导出CSV

    表  4  效率对比(s)

    Table  4  The contrast of efficiency (s)

    图像GlasnerFreedman本文算法
    Child186137793
    Koala4314875287
    Girl3923748200
    Wheel4819636185
    下载: 导出CSV
  • [1] Nasrollahi K, Moeslund T B. Super-resolution:a comprehensive survey. Machine Vision and Applications, 2014, 25(6):1423-1468 doi: 10.1007/s00138-014-0623-4
    [2] Balure C S, Kini M R. A survey-super resolution techniques for multiple, single, and stereo images. In:Proceedings the 5th International Symposium on Electronic System Design (ISED). Surathkal:IEEE, 2014.215-216 https://www.computer.org/csdl/proceedings/ised/2014/6965/00/index.html
    [3] 潘宗序, 禹晶, 肖创柏, 孙卫东. 基于多尺度非局部约束的单幅图像超分辨率算法. 自动化学报, 2014, 40(10):2233-2244 http://www.aas.net.cn/CN/abstract/abstract18498.shtml

    Pan Zong-Xu, Yu Jing, Xiao Chuang-Bai, Sun Wei-Dong. Single-image super-resolution algorithm based on multi-scale nonlocal regularization. Acta Automatica Sinica, 2014, 40(10):2233-2244 http://www.aas.net.cn/CN/abstract/abstract18498.shtml
    [4] Getreuer P. Contour stencils:total variation along curves for adaptive image interpolation. SIAM Journal on Imaging Sciences, 2011, 4(3):954-979 doi: 10.1137/100802785
    [5] 肖进胜, 饶天宇, 贾茜, 唐路敏, 岳显昌. 改进的自适应冲击滤波图像超分辨率插值算法. 计算机学报, 2015, 38(6):1131-1139 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJX201506003.htm

    Xiao Jin-Sheng, Rao Tian-Yu, Jia Qian, Tang Lu-Min, Yue Xian-Chang. Interpolation algorithm based on improved adaptive shock filter in image super-resolution. Chinese Journal of Computers, 2015, 38(6):1131-1139 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJX201506003.htm
    [6] Freedman G, Fattal R. Image and video upscaling from local self-examples. ACM Transactions on Graphics, 2011, 30(2):Article No.12 http://cn.bing.com/academic/profile?id=1976416062&encoded=0&v=paper_preview&mkt=zh-cn
    [7] Kawano H, Suetake N, Cha B, Aso T. Sharpness preserving image enlargement by using self-decomposed codebook and Mahalanobis distance. Image and Vision Computing, 2009, 27(6):684-693 doi: 10.1016/j.imavis.2008.07.013
    [8] Zhang Y Q, Liu J Y, Yang W H, Guo Z M. Image super-resolution based on structure-modulated sparse representation. IEEE Transactions on Image Processing, 2015, 24(9):2797-2810 doi: 10.1109/TIP.2015.2431435
    [9] Zhang Y Q, Xiao J S, Li S H, Shi C Y, Xie G X. Learning block-structured incoherent dictionaries for sparse representation. Science China Information Sciences, 2015, 58(10):1-15 http://cn.bing.com/academic/profile?id=888734479&encoded=0&v=paper_preview&mkt=zh-cn
    [10] Yang C Y, Huang J B, Yang M H. Exploiting self-similarities for single frame super-resolution. In:Proceedings of the 10th Asian Conference on Computer Vision (ACCV). Queenstown, New Zealand:Springer, 2011.497-510
    [11] Glasner D, Bagon S, Irani M. Super-resolution from a single image. In:Proceedings of the 12th IEEE International Conference on Computer Vision (ICCV). Kyoto, Japan:IEEE, 2009.349-356 http://cn.bing.com/academic/profile?id=2017294772&encoded=0&v=paper_preview&mkt=zh-cn
    [12] Schulter S, Leistner C, Bischof H. Fast and accurate image upscaling with super-resolution forests. In:Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA:IEEE, 2015.3791-3799
    [13] Sajjad M, Ejaz N, Baik S W. Multi-kernel based adaptive interpolation for image super-resolution. Multimedia Tools and Applications, 2014, 72(3):2063-2085 doi: 10.1007/s11042-012-1325-4
    [14] Barnsley M F. Fractal modeling of real world images. The Science of Fractal Images. New York:Springer, 1988.219-242
    [15] Ebrahimi M, Vrscay E R. Solving the inverse problem of image zooming using ‘self-examples’. Image analysis and Recognition. Berlin Heidelberg:Springer, 2007.117-130
    [16] Liu C, Shum H Y, Zhang C S. A two-step approach to hallucinating faces:global parametric model and local nonparametric model. In:Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). Kauai, HI, USA:IEEE, 2001. I-192-I-198
    [17] Yang M-C, Wang Y-C F. A self-learning approach to single image super-resolution. IEEE Transactions on Multimedia, 2013, 15(3):498-508 doi: 10.1109/TMM.2012.2232646
    [18] Wu W, Liu Z, He X H. Learning-based super resolution using kernel partial least squares. Image and Vision Computing, 2011, 29(6):394-406 doi: 10.1016/j.imavis.2011.02.001
    [19] Berkeley segmentation database (BSD)[online], available:http://www.eecs.berkeley.edu/Research/Projects/CS/vision/grouping/segbench/,March14,2014
    [20] Wang Z, Bovik A C, Sheikh H R, Simoncelli E P. Image quality assessment:from error visibility to structural similarity. IEEE Transactions on Image Processing, 2004, 13(4):600-612 doi: 10.1109/TIP.2003.819861
    [21] 肖进胜, 杜康华, 涂超平, 岳显昌. 基于多聚焦图像深度信息提取的背景虚化显示. 自动化学报, 2015, 41(2):304-311 http://www.aas.net.cn/CN/abstract/abstract18609.shtml

    Xiao Jin-Sheng, Du Kang-Hua, Tu Chao-Ping, Yue Xian-Chang. Bokeh display based on depth information extraction of multi-focus images. Acta Automatica Sinica, 2015, 41(2):304-311 http://www.aas.net.cn/CN/abstract/abstract18609.shtml
    [22] Xiao J S, Li W H, Liu G X, Shaw S L, Zhang Y Q. Hierarchical tone mapping based on image colour appearance model. IET Computer Vision, 2014, 8(4):358-364 doi: 10.1049/iet-cvi.2013.0230
  • 期刊类型引用(7)

    1. 徐少平,张贵珍,林珍玉,刘婷云,李崇禧. 一种多图像局部结构化融合的低照度图像增强算法. 自动化学报. 2022(12): 2981-2995 . 本站查看
    2. 李亮亮,任佳,王鹏,吕志刚,孙梦宇,李晓艳,高武奇. 基于曝光融合的无人机航拍图像增强算法. 西北工业大学学报. 2022(06): 1327-1334 . 百度学术
    3. 何贵,钟羽中,李振阳,吴克江,佃松宜. 一种双曝光度图像融合算法. 微电子学与计算机. 2021(03): 21-26+32 . 百度学术
    4. 廖小兵. 光照不均下图像明暗区域关键目标增强仿真. 计算机仿真. 2018(07): 179-182+272 . 百度学术
    5. 刘哲,黄世奇,姜杰. 基于引导滤波和多尺度局部自相似单幅红外图像超分辨率方法. 计算机应用研究. 2018(04): 1236-1240+1245 . 百度学术
    6. 张杭琦,沈利华. 关于三维数字动画图像增强分辨率仿真. 计算机仿真. 2017(10): 305-308 . 百度学术
    7. 赵全宜,陈奕江,刘国栋. 广告标志图像真实性效果设计仿真. 计算机仿真. 2017(11): 236-239 . 百度学术

    其他类型引用(1)

  • 加载中
图(13) / 表(4)
计量
  • 文章访问数:  2158
  • HTML全文浏览量:  285
  • PDF下载量:  674
  • 被引次数: 8
出版历程
  • 收稿日期:  2015-07-14
  • 录用日期:  2016-02-18
  • 刊出日期:  2016-08-01

目录

/

返回文章
返回