2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于语义引导特征聚合的显著性目标检测网络

王正文 宋慧慧 樊佳庆 刘青山

王正文, 宋慧慧, 樊佳庆, 刘青山. 基于语义引导特征聚合的显著性目标检测网络. 自动化学报, 2023, 49(11): 2386−2395 doi: 10.16383/j.aas.c210425
引用本文: 王正文, 宋慧慧, 樊佳庆, 刘青山. 基于语义引导特征聚合的显著性目标检测网络. 自动化学报, 2023, 49(11): 2386−2395 doi: 10.16383/j.aas.c210425
Wang Zheng-Wen, Song Hui-Hui, Fan Jia-Qing, Liu Qing-Shan. Semantic guided feature aggregation network for salient object detection. Acta Automatica Sinica, 2023, 49(11): 2386−2395 doi: 10.16383/j.aas.c210425
Citation: Wang Zheng-Wen, Song Hui-Hui, Fan Jia-Qing, Liu Qing-Shan. Semantic guided feature aggregation network for salient object detection. Acta Automatica Sinica, 2023, 49(11): 2386−2395 doi: 10.16383/j.aas.c210425

基于语义引导特征聚合的显著性目标检测网络

doi: 10.16383/j.aas.c210425
基金项目: 国家自然科学基金(61872189, 61532009), 江苏省自然科学基金(BK20191397), 江苏省“六大人才”高峰项目(XYDXX-015)资助
详细信息
    作者简介:

    王正文:南京信息工程大学自动化学院硕士研究生. 主要研究方向为显著性目标检测, 深度学习. E-mail: 20191223064@nuist.edu.cn

    宋慧慧:南京信息工程大学自动化学院教授. 主要研究方向为视频目标分割, 图像超分. 本文通信作者. E-mail: songhuihui@nuist.edu.cn

    樊佳庆:南京信息工程大学自动化学院硕士研究生. 主要研究方向为视频目标分割. E-mail: jqfan@nuaa.edu.cn

    刘青山:南京信息工程大学自动化学院教授. 主要研究方向为视频内容分析与理解. E-mail: qsliu@nuist.edu.cn

Semantic Guided Feature Aggregation Network for Salient Object Detection

Funds: Supported by National Natural Science Foundation of China (61872189, 61532009), Natural Science Foundation of Jiangsu Province (BK20191397), and “Six Talent Peaks” Project of Jiangsu Province (XYDXX-015)
More Information
    Author Bio:

    WANG Zheng-Wen Master student at the School of Automation, Nanjing University of Information Science and Technology. His research interest covers salient object detection and deep learning

    SONG Hui-Hui Professor at the School of Automation, Nanjing University of Information Science and Technology. Her research interest covers video object segmentation and image super-resolution. Corresponding author of this paper

    FAN Jia-Qing Master student at the School of Automation, Nanjing University of Information Science and Technology. His main research interest is video object segmentation

    LIU Qing-Shan Professor at the School of Automation, Nanjing University of Information Science and Technology. His research interest covers video content analysis and understanding

  • 摘要: 在显著性目标检测网络的设计中, U型结构使用广泛. 但是在U型结构显著性检测方法中, 普遍存在空间位置细节丢失和边缘难以细化的问题, 针对这些问题, 提出一种基于语义信息引导特征聚合的显著性目标检测网络, 通过高效的特征聚合来获得精细的显著性图. 该网络由混合注意力模块(Mixing attention module, MAM)、增大感受野模块(Enlarged receptive field module, ERFM)和多层次聚合模块(Multi-level aggregation module, MLAM)三个部分组成. 首先, 利用增大感受野模块处理特征提取网络提取出的低层特征, 使其在保留原有边缘细节的同时增大感受野, 以获得更加丰富的空间上/下文信息; 然后, 利用混合注意力模块处理特征提取网络的最后一层特征, 以增强其表征力, 并作为解码过程中的语义指导, 不断指导特征聚合; 最后, 多层次聚合模块对来自不同层次的特征进行有效聚合, 得到最终精细的显著性图. 在6个基准数据集上进行了实验, 结果验证了该方法能够有效地定位显著特征, 并且对边缘细节的细化也很有效.
  • 模糊图像盲复原用于弥补由于硬件设备缺陷造成的图像模糊, 被广泛应用于太空探索、人脸识别、视频监控、医学影像识别等诸多领域. 运动模糊是一种典型的图像模糊类型, 主要是由于相机抖动和被拍摄物体间相对运动造成的. 图像模糊模型一般可由式(1)描述.

    $$y = x * k + n$$ (1)

    其中, x为清晰图像, *为卷积运算, k为模糊核, n为噪声, y为模糊图像.

    实际中模糊核k通常是未知的, 模糊图像复原过程是一个严重的病态问题, 即盲复原. 当一幅图像中各个区域被同一个均匀的运动模糊核污染, 为均匀运动模糊图像, 如图1 (a), 1 (b)所示. 当一幅图像的不同区域被不同程度的运动模糊核污染时, 则为非均匀运动模糊图像, 如图1 (c), 1 (d)所示.

    图 1  均匀运动模糊图像和非均匀运动模糊图像及其模糊核示意图
    Fig. 1  Uniform and non-uniform motion blurry image and their blur kernel diagram

    均匀运动模糊图像复原方法的基本思路是将病态问题转化为良态来解决, 大致分为两类, 一类是先验辨识法, 即通过人工挖掘图像和模糊核的先验知识, 估计出精确的模糊核, 再采用非盲复原方法复原出清晰图像. 另一类是联合辨识法, 即估计模糊核的同时复原出清晰图像. 前期我们开展的研究工作主要针对均匀模糊图像盲复原[1-5], 其中文献[4]采用先验辨识法, 提出根据图像的先验信息在频域估计出模糊核, 并将估计出的模糊核用于均匀运动模糊图像复原, 该方法对模糊核尺寸较小的均匀运动模糊图像复原效果较好. 文献[5]采用联合辨识法, 通过对模糊核正则项的约束, 得到潜在清晰图像. 该方法可以较好地复原均匀运动模糊图像, 也可用于背景单一、细节不丰富的非均匀运动模糊图像. 但该方法正则化参数较多、复原时间较长. 对于非均匀运动模糊图像的复原, 人们也展开了针对性的研究工作, 其基本方法是将图像分块进行模糊核估计, 再通过估计出的不同模糊核对不同图像块进行复原. 不过目前的方法均存在各种局限性, 比如对运动模糊核的运动方向、模糊核的种类等有所限制. Shen等[6]使用一种模糊核映射正则化方法来解决非均匀运动模糊图像复原问题, 该方法考虑了图像块之间具有的一致性, 从而提高了图像块模糊核估计的精度. 但是该方法对于图像细节恢复效果差, 模糊程度的不同也会使算法失效, 因此在非均匀模糊图像复原上仍不能达到较好的效果. 近年来, 深度学习的快速发展, 使基于卷积神经网络的模糊图像复原取得较大的进展. Chakrabarti[7]利用卷积神经网络在频域预测模糊核的傅里叶系数, 由此估计出模糊核. 再采用传统非盲复原方法复原图像. 该方法在均匀运动模糊图像复原上效果较好, 但复原时间非常长. Xu等[8]提出利用卷积神经网络在梯度域提取模糊图像的边缘信息, 通过边缘信息补充图像模糊核的先验信息, 提高模糊核估计的准确性, 进而提高复原效果. 该方法可以较好地复原均匀运动模糊图像, 但由于非均匀模糊图像边缘特征不明显, 在图像黑暗处, 该方法无法提取到图像边缘信息, 估计出的模糊核不准确, 复原效果较差. Xu等[9]提出端到端的卷积神经网络实现模糊图像盲复原, 该方法的优点是不需要估计模糊核, 直接输出潜在清晰图像, 主要用于散焦模糊图像的复原. Tao等[10]设计了一个多尺度卷积神经网络(Scale-recurrent network, SRN)用于模糊图像复原, 它可在同一幅模糊图像的3个尺度上提取模糊特征. 由于卷积神经网络具有强大的自动学习特征的能力, 该网络可以较好地复原非均匀运动模糊图像, 不足的是对模糊图像中的明显边缘复原效果不理想. 2014年, 生成对抗网络(Generative adversarial net, GAN)[11]被提出, 它可以令端到端图像处理网络生成更加细腻的图像. 吴梦婷等[12]基于GAN提出了一种双框架端到端模糊图像复原方法, 该方法可以复原模糊尺度较小的均匀模糊图像, 但该方法只是在模糊图像复原领域基于GAN的尝试, 并没有很好的鲁棒性, 对非均匀运动模糊图像的复原效果较差. Kupyn等[13]基于GAN, 提出一种端对端的模糊图像复原方法-DeblurGAN. 该方法可以较好地复原出模糊尺度较小的均匀和非均匀运动模糊图像. 但由于设计的卷积神经网络结构比较单一, 使网络的感受野较小, 不能较好地复原模糊尺度较大的非均匀模糊图像.

    从上述分析可见, 由于非均匀运动模糊图像的模糊核不确定、模糊程度不均匀, 且边缘信息损失严重, 使非均匀运动模糊图像的复原成为目前极具挑战的课题. 在现有研究方法中, 端到端的图像复原方法虽然方便有效, 但是在图像复原过程中始终是在输入图像和输出图像之间建立网络映射, 在有限的训练集下完成对输入和标签的未知转换, 网络的特征提取能力和去模糊学习过程局限在了输入到网络的这些图像对中, 无法得到更多有助于图像复原的信息, 这种映射通常是不确定的, 需要大量经验进行调参才能将网络参数约束到一个较理想的范围内, 难以保证网络有方向性地“学习” 到真正的去模糊功能, 这也导致了现有方法鲁棒性通常较差, 因此不容易在此基础上取得更大突破. 而在传统方法中, 我们可以使用很多数字图像处理工具来得到有关于一幅图像的更多先验信息, 甚至可以在处理图像的过程中不仅仅局限于空间域, 这些处理方法的综合使用使图像处理领域日新月异. 那么在深度学习领域, 我们仍可以利用传统方法的优势来提升图像复原的效果. 图像的强边缘是图像的边缘中能够描述图像轮廓的部分, 边缘包含大量使人们获得清晰图像的重要信息, 经过主观观察, 对模糊图像强边缘的恢复效果实际上直接影响复原图像的主观效果.

    基于此, 本文提出一种基于强边缘提取的非均匀运动模糊图像复原网络, 用于非均匀运动模糊图像复原. 其中核心部分是设计的强边缘提取网络, 它用于提取非均匀运动模糊图像的强边缘特征, 利用提取到的强边缘特征图与对应网络层的特征图融合, 这些强边缘特征将作为图像复原网络训练的“先验知识” 和约束条件, 在图像复原网络训练中约束网络特征提取和反向传播优化过程, 使网络参数的解空间缩小到“去模糊” 范围内, 最终得到真正用于去模糊的网络映射参数. 结合卷积神经网络强大的特征自动学习能力, 本文的方法能够加强网络对不同类型、不同模糊程度的非均匀运动模糊图像的自适应复原能力. 最后, 本文在GoPro数据集上进行了相应的实验, 验证了提出方法的有效性.

    本文提出的非均匀运动模糊图像复原网络如图2所示, 该网络以GAN为基础, 由生成网络和判别网络组成.

    图 2  提出的非均匀运动模糊图像复原网络结构图
    Fig. 2  Proposed network structure for the non-uniform motion blurry image deblurring

    生成网络包括: 模糊特征提取网络(Features extract net, FEN), 用于提高网络的感受野, 使其在较大的感受野下有效提取模糊图像的模糊特征. 强边缘提取网络(Strong-edge extraction network, SEEN)是本文的核心, 包括子网络SEEN-1和SEEN-2, 用于在梯度域滤除模糊图像细节信息, 提取非均匀运动模糊图像的强边缘特征图. 特征融合网络(Features mix net, FMN), 用于融合FEN提取的特征图和SEEN提取的强边缘特征图.

    判别网络[13]由4个基本的卷积层组成, 使用LeakyReLU作为激活函数, 通过卷积层不断降维, 最后输出0或1来对输入的图像进行判别, 判定生成网络复原的潜在清晰图像与输入的真实清晰图像的接近程度. 判别网络要尽可能准确识别出输入的图像是否为生成网络所生成, 从而约束生成网络的训练过程, 使生成网络尽可能生成使判别网络判别结果接近于真的图像, 通过不断的对抗训练, 提高生成网络复原图像的效果.

    图像强边缘指图像中主要组成部分的边缘轮廓, 是获取清晰图像的重要信息, 非均匀运动模糊图像中模糊核的多样性, 使图像的强边缘被不同方式和程度退化, 无法像均匀运动模糊图像一样通过构建相同的先验信息, 完成对模糊图像边缘的复原, 这也是造成非均匀运动模糊图像难以复原出高质量清晰图像的原因.

    图像梯度是获得图像边缘最有效的方法, 但通常情况下, 模糊图像的边缘细节信息损失严重, 通过计算图像梯度, 无法得到明显的边缘信息, 并且模糊的边缘细节会导致梯度图像产生大量与边缘信息无关的内容. 为此, 本文提出的图像强边缘提取方法, 其基本原理为: 首先使用双边平滑滤波器[14]滤除模糊图像中的细节信息, 保留图像的边缘信息. 然后使用L0范数梯度最小化平滑滤波器[15]增强模糊图像的边缘信息[8]. 图3为提取到的模糊图像的强边缘实例, 图3 (c)3 (e)分别是模糊图像的双边滤波图像及其梯度图. 可以看到它得到了滤除与边缘无关的细节后模糊图像的梯度特征. 图3 (d)3 (f)分别是模糊图像的L0滤波图像及其梯度, 可以看到模糊图像的强边缘被较好地提取出来.

    图 3  模糊图像强边缘提取原理示意图
    Fig. 3  Diagram of strong edge extraction of blurred image

    根据上述基本原理, 本文设计了强边缘提取网络(SEEN), 用于提取非均匀运动模糊图像强边缘信息, 如图4所示. 该网络中SEEN-1子网络实现双边滤波器的功能, 用于提取滤除了细节信息后的图像边缘. SEEN-2实现L0平滑滤波器的功能, 用于增强边缘信息并得到模糊图像的强边缘. SEEN-1的输出将做为SEEN-2的输入.

    图 4  强边缘提取网络结构示意图
    Fig. 4  Structure diagram of strong edge extraction network

    SEEN-1使用编码器−解码器网络结构, 主要由下卷积、特征提取和上卷积三部分组成. SEEN-2在SEEN-1的基础上增加了用于叠加SEEN-1中对应特征图的特征融合层, 特征融合层一共有三处, 分别位于下卷积、特征提取和上卷积部分, 如图4中SEEN-1和SEEN-2间使用直线箭头的连接处所示, 它们可以通过权重共享提升SEEN的训练效果.

    SEEN-1的卷积层计算如式(2)所示.

    $${C_{ou{t_j}}} = \sum\limits_{k = 1}^i {w({C_{ou{t_j}}},k) * {C_{ou{t_k}}} + b({C_{ou{t_j}}})} $$ (2)

    其中, ${C_{ou{t_j}}}$代表当前层特征图, ${C_{ou{t_k}}}$为前一层第k个特征图, $w({C_{ou{t_j}}},k)$为前一层第k个特征图与当前层特征图的连接权重, $b({C_{ou{t_j}}})$为当前层的偏置.

    网络中间的特征图计算使用LeakyReLU作为激活函数, 如式(3)所示.

    $$\begin{split} ou{t_i} =\,& {\rm{LeakyReLU}}(inpu{t_i}) = \\ &\max (0,inpu{t_i}) + 0.2 \times \min (0,inpu{t_i}) \end{split}$$ (3)

    其中, $inpu{t_i}$为特征图中的每个像素点, $ou{t_i}$为激活函数的输出值, 通过将负数轴斜率设置为0.2, 避免传统ReLU激活函数容易导致神经元梯度为0而无法继续训练的问题.

    网络的最终输出使用tanh作为激活函数, 如式(4)所示.

    $$ou{t_i} = \tanh (inpu{t_i}) = \frac{{{{\rm{e}} ^{inpu{t_i}}} - {{\rm{e}} ^{ - inpu{t_i}}}}}{{{{\rm{e}} ^{inpu{t_i}}} + {{\rm{e}} ^{ - inpu{t_i}}}}}$$ (4)

    其中, $inpu{t_i}$为特征图中的每个像素点, $ou{t_i}$为激活函数的输出值, 使用tanh作为最后输出层的激活函数可以使网络输出的图像具有较好的可视化效果.

    SEEN-2中的卷积层计算方法与SEEN-1相同, 但是在下卷积部分、特征提取部分和上卷积部分会使用特征图叠加的方式进行权重共享, 如图4中直线箭头所示, 特征叠加公式如式(5)所示.

    $$ou{t_j} = {\rm{concat}}(ou{t_j},ou{t_{SEEN - 1}})$$ (5)

    其中, $ou{t_j}$为SEEN-2第j 层的所有特征图, $ou{t_{SEEN - 1}}$为SEEN-1中对应层特征图, concat为特征层叠加操作.

    SEEN-1和SEEN-2中对应叠加的特征层的特征图数量是相同的. SEEN-1与SEEN-2对应叠加的特征层权重共享, 在叠加操作之后会使用式(2)和(3)的卷积过程进行特征提取和降维. 使用叠加的方式进行特征融合可以提高网络对边缘的提取能力[16], 同时增强网络的学习能力. 通过卷积神经网络强大的自动特征提取能力, 本文设计的强边缘提取网络可以对不同模糊程度、不同模糊类型的非均匀模糊图像的强边缘特征进行自动分析, 自适应、有效地提取模糊图像的强边缘.

    在模糊图像输入SEEN前, 本文对原始模糊图像进行梯度化预处理, 目的是使网络能够快速有效地提取模糊图像的强边缘, 而不用浪费多余的网络参数来对模糊图像进行梯度化处理. 由于图像的梯度计算具有方向性, 不同方向的梯度图像提取的强边缘仅包含该方向上有用的边缘信息, 如果使用单一方向的梯度提取图像强边缘, 会损失较多其他方向的边缘信息, 如图5 (b)所示. 因此, 本文提出一种可以融合相互垂直方向梯度信息的双方向融合梯度计算方法, 计算公式如式(6)所示.

    图 5  本文提出的双方向融合梯度计算方法示意图
    Fig. 5  Diagram of gradient calculation method of two-directions fusion proposed in this paper
    $$\partial y = \max (|\partial {y_h}|,|\partial {y_v}|)$$ (6)

    其中, $\partial {y_h}$是图像的横向梯度, $\partial {y_v}$是图像的纵向梯度, 对每个方向梯度取绝对值, 并在每个像素点取两个方向梯度的最大值得到最终的梯度图像$\partial y$.

    图5为模糊图像双方向融合梯度图像实例. 从图5可以看到, 图5(b)中的梯度图只提取到了纵向边缘, 横向边缘全部丢失. 图5(c)中的梯度图则保留了所有有效的边缘信息. 而且通过梯度化预处理可以消除模糊图像一些非边缘细节信息的干扰, 并得到一部分不明显的边缘信息, 有利于提升强边缘提取网络对边缘的提取效果.

    模糊特征提取网络(FEN)主要用于在模糊图像中提取模糊特征从而建立模糊图像到清晰图像的网络映射. 残差模块(Residual block)是目前最常用的特征提取模块, 其结构如图6 (a)所示, 它能够降低网络复杂度, 加速网络训练过程, 经常被用于分类任务中, 但是在图像处理任务中, 由于其感受野较小, 容易导致特征提取不充分. 而另一种常用的特征提取模块Inception block则可以通过增加网络宽度而提高特征提取的多样性[17]. 受此启发, 本文设计了一种新的交叉特征提取残差模块(Cross residual block), 如图6 (b)所示. 该模块的卷积层设计为大小分别为3和5的滤波器, 通过这两个滤波器大小不同的通道分别提取模糊图像的特征图, 并在特征叠加层进行特征图叠加和权重交换, 将新的特征图再使用滤波器大小为3和5的两个卷积层通道进行特征提取, 最终得到模块的输出特征图, 我们设计的交叉特征提取残差模块可以保持输出的特征图与输入的特征图在维度和分辨率上一致.

    图 6  改进残差模块
    Fig. 6  Improvement of residual block

    本文设计的交叉特征提取残差模块的主要作用是增大特征提取网络的感受野, 提高网络的特征提取能力. 图7是滤波器大小分别为3、5、7的卷积层感受野示意图. 残差模块所使用的滤波器大小为3, 如图7 (a)所示, 其感受野较小. 在图像处理任务中, 较小的感受野通常会导致模糊图像特征提取网络在提取非均匀运动模糊图像特征时, 无法获取图像目标像素周围更多的信息. 而图7 (b)所示的大小为5的滤波器的感受野, 可以明显看出它获取到了目标区域的边缘信息, 因此在滤波器大小为5的卷积层中, 它可以提取到与边缘更加相关的特征. 图7 (c)所示的是大小为7的滤波器的感受野, 它同样可以获取到目标区域的边缘信息, 但是通过实验发现, 使用滤波器大小为7的卷积层并不会明显提高复原效果, 反而由于滤波器过大, 导致网络参数过多, 从而使网络的训练和测试时间都非常长. 因此本文使用滤波器大小为3和5的卷积层, 设计了交叉特征提取残差模块.

    图 7  不同大小滤波器的感受野
    Fig. 7  Receptive field of different size filters

    特征融合网络(FMN)主要用于将模糊特征提取网络和强边缘提取网络所提取到的特征图进行融合, 其主要由下卷积部分、融合特征提取部分、上卷积部分和输出部分组成. 特征叠加层也分别位于这几个部分. 下卷积部分将SEEN-2和FEN的下卷积对应层特征图进行叠加, 进行融合特征提取前的预处理, 使各个子网络的特征图成为FMN的输入. 融合特征提取部分将SEEN-2和FEN特征提取部分的对应层叠加, 这时各网络特征图已经过初步处理, 叠加后便于融合特征提取. 在特征融合提取过程中, 强边缘特征图将会作为图像强边缘位置的权重矩阵对图像复原网络的前向传播过程进行引导, 使图像复原网络加强对图像强边缘位置的特征提取和模糊复原, 进而约束网络在反向传播过程中的参数优化过程, 增强模糊图像中强边缘的复原效果, 从而提升图像复原的主观效果. 为使整个网络能够更全面地利用模糊特征和强边缘特征, 在上卷积部分再将SEEN-2和FEN的对应层特征图进行叠加, 指导上卷积过程, 得到可以用于输出清晰图像的大量特征图, 最终输出复原后的清晰图像.

    本文在训练强边缘提取网络中SEEN-1和SEEN-2时, 均使用L1损失和TV正则化损失[8], 如式(7), (8)所示. 由两式对图像中每个像素进行计算并相加作为损失函数值.

    $$Los{s_1} = \sum {(\sqrt {{{({O_1}(\partial b) - \partial {L_B}(y))}^2}} + \lambda \sqrt {{{({O_1}(\partial b))}^2}} )} $$ (7)
    $$Los{s_2} = \sum {(\sqrt {{{({O_2}(\partial b) - \partial {L_0}(y))}^2}} + \lambda \sqrt {{{({O_2}(\partial b))}^2}} )} $$ (8)

    其中, ${O_1}(\partial b)$是SEEN-1的输出, ${O_2}(\partial b)$是SEEN-2的输出, $\lambda $是TV正则化系数, $\partial {L_B}(y)$是清晰标签图像双边滤波后的梯度图像, $\partial {L_0}(y)$是清晰标签图像双边滤波后的L0滤波图像的梯度图像.

    当SEEN训练完成后, 再与FEN和FMN一起, 在生成对抗网络框架下进行训练, 生成对抗网络损失函数采用内容损失$ {L}_{GAN} $和对抗损失$ {L}_{X} $的结合[13], 如式(9) ~ (11)所示.

    $$L = {L_{GAN}} + \lambda \cdot {L_X}$$ (9)
    $${L_{GAN}} = \sum\limits_{n = 1}^N { - {D_{{\theta _D}}}(} {G_{{\theta _G}}}({I_B}))$$ (10)
    $$ {L_X} = \frac{1}{{{W_{i,j}}{H_{i,j}}}}\sum\limits_{x = 1}^{{W_{i,j}}} {\sum\limits_{y = 1}^{{H_{i,j}}} {({\phi _{i,j}}{{({I_L})}_{x,y}}} } - {\phi _{i,j}}{({G_{{\theta _G}}}({I_B}))_{x,y}}{)^2} $$ (11)

    其中, $\lambda $取值为100, ${I_L}$是清晰标签图像, ${I_B}$是模糊图像, ${\phi _{i,j}}$是在ImageNet[18]上进行预训练得到的VGG-19网络中第i个最大池化层前的第j个卷积层的输出特征图, ${W_{i,j}}$${H_{i,j}}$是特征层的维度.

    本文提出的非均匀模糊图像复原网络在训练时分为两部分, 首先对强边缘提取网络进行训练, 再结合模糊特征提取网络和特征融合网络, 在GAN框架下进行训练. 网络训练流程如“网络训练流程1” 所示.

    网络训练流程1.

    输入: 模糊图像b, 清晰图像y, 双边滤波图像的梯度图像$ \partial {L}_{B}\left(y\right) $, L0平滑滤波图像的梯度图像$ \partial {L}_{0}\left(y\right) $

    过程:

    (强边缘提取网络训练)

    1)  for 每一幅模糊图像b do

    2)    计算b的梯度$ \partial b $;

    3)    计算SEEN-1的输出$ {O}_{1}(\partial b) $和中间特征层mid_layer_1

    4)    使用式(7)计算$ {O}_{1}(\partial b) $$ \partial {L}_{B}\left(y\right) $的损失, 更新SEEN-1的权重

    5)    将$ {O}_{1}(\partial b) $输入SEEN-2

    6)    前向传播SEEN-2并融入特征层mid_layer_1, 得到输出$ {O}_{2}(\partial b) $和中间特征层mid_layer_2

    7)    使用式(8)计算$ {O}_{2}(\partial b) $$ \partial {L}_{0}\left(y\right) $的损失, 更新SEEN-2和SEEN-1的权重

    8)  end for

    (生成器网络训练)

    9)  for 每一幅模糊图像b do

    10)    计算b的梯度$ \partial b $

    11)    $ \partial b $输入SEEN得到SEEN-2的中间特征层mid_layer_2, 并分离梯度

    12)    b输入FEN得到中间特征层mid_layer_3;

    13)    b输入FMN进行前向传播, 过程中在对应层叠加mid_layer_2和mid_layer_3

    14)    得到输出图像${O}_{3}(b)$

    15)    使用式(9) ~ (11)计算生成器网络的损失, 更新FEN和FMN的权重

    (判别器网络训练)

    16)    for y, ${O}_{3}(b)$ do

    17)      判别器网络前向传播对y, ${O}_{3}(b)$进行真假判别

    18)      使用式(10)计算判别器网络损失

    19)      反向传播更新判别器网络和生成器网络权重

    20)    end for

    21)  end for

    输出: 复原图像${O}_{3}(b)$

    经过多次实验总结, 为得到最优的实验结果, 本文在训练过程中使用的批大小(BatchSize)为1, 优化器为Adam, 学习率和迭代次数的调整细节如下:

    1) 在单独训练SEEN时, 共进行500轮训练, 学习率的初始值设置为0.0002, 并依次递减为0.0001、0.00005、0.00002、0.00001, 对应的训练轮数为150轮、150轮、100轮、50轮、50轮.

    2) 在与FMN和FEN共同训练时, 网络学习率和对应训练轮数的设置与单独训练SEEN时相同.

    本文采用在非均匀运动模糊图像复原研究领域广泛使用的GoPro数据集[19]进行网络的训练和测试, 该数据集包括2 103对训练图像和1 111对测试图像, 每对训练和测试图像都包含相应的清晰图像和模糊图像. 分辨率均为1 280×720, 其中的模糊图像均为非均匀运动模糊图像. 如图8所示, 其中8 (a)是训练集的模糊图像, 8 (b)是训练集的清晰图像.

    图 8  数据集示例图像
    Fig. 8  Sample images of dataset

    为了开展相应的验证实验, 我们制作四个图像子集. 清晰图像和模糊图像来自GoPro数据集中的图像对; 清晰图像双边滤波梯度图像子集使用文献[14]的方法计算得到. 清晰图像的L0滤波梯度图像子集使用文献[15]的方法计算得到.

    我们随机裁剪出四个图像子集中相同区域256 × 256像素的图像小块作为训练网络时的输入和标签. 在单独训练强边缘提取网络时, 我们使用清晰图像的双边滤波梯度图像和L0滤波梯度图像, 分别作为SEEN-1和SEEN-2的标签, 即第1.4节训练流程中的标签$ \partial {L}_{B}\left(y\right) $$ \partial {L}_{0}\left(y\right) $. 而SEEN的输入是模糊图像小块, 即训练流程中的输入b. 在训练特征融合网络时, 清晰图像小块作为训练时的标签, 即训练流程中的标签y. 模糊图像小块同样作为训练时的输入, 即训练流程中的输入b.

    实验评价指标为结构相似性(Structural similarity index, SSIM)和峰值信噪比(Peak signal to noise ratio, PSNR), 其计算方法如式(12)和(13).

    $$ SSIM(x,y) = \frac{{(2{\mu _x}{\mu _y} + {c_1})(2{\sigma _{xy}} + {c_2})}}{{(\mu _x^2 + \mu _y^2 + {c_1})(\sigma _x^2 + \sigma _y^2 + {c_2})}} $$ (12)

    其中, x, y为两幅输入图像, ${\mu _x}$x的平均值, ${\mu _y}$y的平均值, $\sigma _x^2$x的方差, $\sigma _y^2$y的方差, ${\sigma _{xy}}$xy的协方差. ${c_1} = {({k_1}L)^2}$, ${c_2} = {({k_2}L)^2}$是用来维持稳定的常数. L是像素值的动态范围. 为了避免计算公式的分母为0并保持计算稳定性, 通常取${k_1} = 0.01$, ${k_2} = 0.03$.

    $$PSNR = 10 \times \lg \frac{{{{({2^n} - 1)}^2}}}{{MSE}}$$ (13)

    其中, MSE是清晰图像和模糊图像之间的均方误差.

    本文在PyTorch[20]深度学习框架下实现网络的训练. 网络训练和测试在一块Nvidia GTX 1080Ti显卡上进行.

    图9为强边缘提取网络有效性验证实验结果, 图9 (e)组图像为未使用强边缘提取网络的复原图像, 图9 (f)组图像为加入本文设计的强边缘提取网络得到的复原图像. 与 图9 (g)组清晰图像进行对比, 可以看出, 图9 (e)组图像有一定的复原效果, 但边缘并不清晰, 图9 (f)组图像则边缘非常清晰. 可见, 增加了强边缘提取网络, 使模糊图像的强边缘信息被有效利用, 复原出的图像主观效果较好.

    图 9  有无强边缘提取网络的非均匀模糊图像复原结果比较实例 ((a) 模糊图像; (b) 模糊图像梯度图;(c) SEEN-1 输出; (d) SEEN-2 输出 (强边缘); (e) 无强边缘提取网络的复原结果;(f) 有强边缘提取网络的复原结果; (g) 清晰图像)
    Fig. 9  Comparison of restoration results of non-uniform motion blurry image with or without edge extraction network ((a) Blurry image; (b) Gradient of blurry image; (c) Output of SEEN-1; (d) Edge of SEEN-2 (Strong edge); (e) Restoration results of network without strong edge extraction network; (f) Restoration results of network with strong edge extraction network; (g) Clear image)

    图10为强边缘提取网络在边缘提取各阶段的结果, 图10 (b)组为模糊图像的梯度图像, 可以看到模糊图像的梯度图像边缘并不清楚, 并且明显包含较多与边缘无关的杂点, 图10 (c)组是SEEN-1的输出, 相当于双边滤波后的梯度图像, 可以看到模糊图像梯度图清晰的边缘, 同时与边缘无关的杂点也被滤除, 图10 (d)组是SEEN-2的输出, 相当于L0滤波后的梯度图像, 可以看到模糊图像的强边缘被有效地提取出来. 对比SEEN-1的输出, 图像边缘得到明显增强, 为了证明了这一点, 本文也对SEEN-1和SEEN-2的输出进行了客观指标的分析, 如图11所示.

    图 10  强边缘提取网络中间结果分析
    Fig. 10  The intermediate results analysis of strong edge extraction network
    图 11  强边缘提取网络效果分析
    Fig. 11  Effect analysis of strong edge extraction network
    ((i)模糊图像小块(30×30); (ii)模糊图像小块边缘(30×30); (iii) SEEN-1输出;(iv) SEEN-2输出; (v)灰度分布图; (vi)列灰度值加和曲线图)

    图11为3幅模糊图像对应的梯度图和网络SEEN-1、SEEN-2输出的边缘图像块实例. 第一组图像中, 左侧为非均匀模糊图像实例, 本文从中提取了一个图像小块, 并得到了梯度图像(ii), 可以看到边缘信息无法辨别; (iii)为强边缘提取网络中SEEN-1的输出, 可见通过SEEN-1后模糊图像小块的边缘已经被基本提取出来; (iv)是SEEN-2的输出, 模糊图像小块的边缘在(iii)的基础上更加清晰. 同样, 我们可以看到第2幅和第3幅模糊图像对应结果可以得出相同的结论: SEEN-1滤除模糊图像中无关的梯度值, 保留了对复原有用的边缘梯度信息. SEEN-2对SEEN-1输出的边缘进行了进一步的提取和增强, 使提取的强边缘更加清晰.

    图11 (v)为灰度分布图, 图11 (vi)为列灰度值加和曲线图, 本文同时绘制了模糊图像小块梯度图、SEEN-1输出、SEEN-2输出图像的灰度分布图和列灰度值加和曲线图来客观分析强边缘提取网络的边缘提取效果. 从图11 (v)进行观察和分析, 模糊图像的梯度像素值分布比较平均, 也就是说由于图像的模糊, 边缘信息损失的比较严重, 边缘两侧像素灰度值差距已经不明显, 而通过SEEN-1后, 位于非边缘的像素和位于边缘的像素灰度值被明显分开, 绝大部分非边缘像素被滤除, 占据比重较少的边缘像素点被提取出来, 而通过SEEN-2后, 位于边缘的像素的灰度值得到进一步增强. 从图11 (vi)所示曲线图进行观察和分析, 模糊图像的梯度图由于边缘模糊导致的信息丢失, 对于存在边缘和不存在边缘的列区域, 其灰度值差别很小, 无法明显寻找出边缘存在的区域, 而对于SEEN-1的结果, 我们可以明显地寻找到边缘所在的列区域(曲线的波峰波谷处), 对于SEEN-2的结果, 其存在边缘的列区域灰度值峰值比SEEN-1的结果有明显提升. 这说明本文设计的强边缘提取网络的两个子网络分别完成了第1.1节中强边缘提取方法两个步骤的功能, 提取并得到了模糊图像的强边缘信息.

    本文在模糊特征提取子网络中使用了交叉特征提取残差模块, 目的是提升模糊特征提取时网络的感受野, 提高模糊特征提取能力. 本文使用对比实验的方法对交叉特征提取残差模块的有效性进行了验证.

    为保证对比实验的准确性和有效性, 用于对比实验的网络结构仅将整个网络中的交叉特征提取残差模块替换为普通的残差模块. 网络的其他部分结构、实验的超参数设置及训练流程均不改变.

    在GoPro数据集上的实验结果如表1所示.

    表 1  交叉特征提取残差模块有效性验证实验结果(GoPro数据集)
    Table 1  Validation experiment results of cross-resnet block (GoPro dataset)
    评价指标残差模块交叉特征提取残差模块
    PSNR29.980030.2227
    SSIM0.88920.8944
    下载: 导出CSV 
    | 显示表格

    表1可以看到, 使用交叉特征提取残差模块的网络复原效果要明显优于使用普通残差模块的网络.

    本节将本文提出的方法与5种非均匀图像复原方法进行了对比实验, 实验结果实例如图12所示.

    图 12  对比实验结果
    Fig. 12  Results of comparative experiments

    可以看到, 文献[13]的方法对明显的边缘复原效果较好, 如图12 (iv)所示的窗户边缘. 但是对于细节的复原效果极差, 如图12 (i)所示的文字. 文献[7]的方法和文献[21]的方法对非均匀运动模糊图像的整体复原效果较差, 对强边缘和图像细节均无法有效复原, 而且复原图像容易产生波纹现象, 如图12 (ii)所示, 严重影响复原效果. 文献[4]的方法可以通过参数的调整对部分模糊情况不复杂的非均匀运动模糊图像得到较好的复原效果, 如图12 (iii)所示, 其文字复原效果比较清晰. 但是如果复原参数不合适或者复原模糊情况较复杂, 该方法就会失效, 不仅得不到应有的复原图像, 还会产生严重的波纹现象, 如图12 (ii)12 (iv)所示, 影响复原效果. 文献[10]的方法在复原非均匀运动模糊图像上的效果相对较好, 但是边缘的复原效果并不锐利, 如图12 (ii)中的车灯边缘和12 (iv)中的窗户边缘, 导致主观效果有所下降. 本文方法则不需要对复原过程进行参数调整, 无论非均匀运动模糊图像的模糊过程复杂与否, 均可以自适应地进行复原, 并得到较好的复原效果. 通过对比实验结果可见本文的方法在主观复原效果上是非常好的, 对于图像中的细节信息(如文字等)可以有效地复原出清晰的结果, 而且使复原出的图像中强边缘更加锐利清晰, 达到了本文研究的目的.

    表2表3图13所示的对比实验图像的客观指标中可以看出, 本文方法的客观指标在几组实验中处于领先水平. 表4为7种不同方法在GoPro数据集测试集上复原结果的平均PSNR和SSIM值. 从表4可以看到, 本文方法的平均PSNR值为30.2227, 平均SSIM值为0.8944, 在几组对比实验中也均处于领先水平.

    表 2  对比实验图像的PSNR值比较
    Table 2  PSNR value comparison of comparative experimental images
    图像文献 [4]文献 [7]文献 [10]文献 [13]文献 [21]本文方法
    (i)26.363027.824829.819427.247327.258830.8864
    (ii)25.909825.336826.054022.524424.901127.0760
    (iii)22.527025.727929.416425.887726.782328.6511
    (iv)24.586827.418729.654825.738827.483730.0529
    下载: 导出CSV 
    | 显示表格
    表 3  对比实验图像的SSIM值比较
    Table 3  SSIM value comparison of comparative experimental images
    图像文献 [4]文献 [7]文献 [10]文献 [13]文献 [21]本文方法
    (i)0.80310.84720.88210.78580.82900.8967
    (ii)0.79560.75930.82330.60340.74240.8335
    (iii)0.65020.76580.87380.71320.79280.8497
    (iv)0.74700.81700.87410.71250.82180.8764
    下载: 导出CSV 
    | 显示表格
    图 13  对比实验图像的PSNR和SSIM指标值柱状图
    Fig. 13  Histogram of PSNR and SSIM values of comparative experimental images
    表 4  复原图像的平均PSNR值和平均SSIM值(GoPro数据集)
    Table 4  Average value of PSNR and SSIM of restored images (GoPro dataset)
    评价指标文献 [4]文献 [7]文献 [10]文献 [13]文献 [21]文献 [22]文献 [23]本文方法
    PSNR(dB)24.503426.398030.100027.464824.529425.920029.550030.2227
    SSIM0.76210.82770.91370.80930.77610.78100.93400.8944
    下载: 导出CSV 
    | 显示表格

    本文以非均匀运动模糊图像复原为研究对象. 提出了一种用于非均匀运动模糊图像盲复原的强边缘提取网络, 该网络在梯度域提取模糊图像的强边缘, 并将强边缘特征与模糊图像模糊特征融合, 将强边缘特征作为“先验知识” 约束网络的前向传播及反向传播参数优化过程, 缩小了网络映射参数的解空间, 结合卷积神经网络自动学习特征的能力, 增强了非均匀模糊图像复原过程中对边缘的恢复效果, 解决了其他图像复原方法无法有针对性地对非均匀模糊图像边缘进行有效复原的缺陷, 较好地复原出清晰的图像. 同时也为基于深度学习的非均匀运动模糊图像盲复原研究提供了新颖的研究思路. 大量实验结果表明, 本文设计的强边缘提取网络可以有效地应用在非均匀运动模糊图像的复原中, 获得清晰的复原图像并提升模糊图像边缘恢复效果.

  • 图  1  网络结构图

    Fig.  1  Network structure diagram

    图  2  混合注意力模块

    Fig.  2  Mixing attention module

    图  3  增大感受野模块

    Fig.  3  Enlarged receptive field module

    图  4  多层次聚合模块

    Fig.  4  Multi-level aggregation module

    图  5  不同算法的查准率−查全率曲线示意图

    Fig.  5  Comparison of precision−recall curves of different methods

    图  6  不同算法的显著性图

    Fig.  6  Salient maps of different methods

    表  1  不同方法的${F_\beta }$指标结果比较

    Table  1  Comparison of ${F_\beta }$ values of different models

    数据集本文方法PAGRRASDGRLCPDMLMSPoolNetAFNetBASNetU2NetITSD
    ECSSD0.9510.9240.9210.9210.9360.9300.9440.9350.9420.9510.947
    DUT-OMRON0.8270.7710.7860.7740.7940.7930.8080.7970.8050.8230.824
    PASCAL-S0.8730.8470.8370.8440.8660.8580.8690.8680.8540.8590.871
    HKU-IS0.9370.9190.9130.9100.9240.9220.9330.9230.9280.9350.934
    DUTS-TE0.8880.8550.8310.8280.8640.8540.8800.8620.8600.8730.883
    SOD0.8730.8380.8100.8430.8500.8620.8670.8510.8610.880
    注: ${F_\beta }$值越大越好, 加粗数字为最优结果, 加下划线数字为次优结果.
    下载: 导出CSV

    表  2  不同方法的MAE指标结果比较

    Table  2  Comparison of MAE values of different models

    数据集本文方法PAGRRASDGRLCPDMLMSPoolNetAFNetBASNetU2NetITSD
    ECSSD0.0340.0640.0560.0430.0400.0380.0390.0420.0370.0340.035
    DUT-OMRON0.0580.0710.0620.0620.0560.0600.0560.0570.0560.0540.061
    PASCAL-S0.0650.0890.1040.0720.0740.0690.0750.0690.0760.0740.072
    HKU-IS0.0320.0470.0450.0360.0330.0340.0330.0360.0320.0310.031
    DUTS-TE0.0420.0530.0600.0490.0430.0450.0400.0460.0470.0440.041
    SOD0.0930.1450.1240.1030.1120.1060.1000.1140.1080.095
    注: MAE值越小越好.
    下载: 导出CSV

    表  3  不同方法的${S_m}$指标结果比较

    Table  3  Comparison of ${S_m}$ values of different models

    数据集 本文方法PAGRRASDGRLCPDMLMSPoolNetAFNetBASNetU2NetITSD
    ECSSD0.9320.8890.8930.9060.9150.9110.9210.9140.9160.9280.925
    DUT-OMRON0.8470.7750.8140.8100.8180.8170.8360.8260.8360.8470.840
    PASCAL-S0.8650.7490.7950.8690.8440.8490.8450.8500.8380.8440.859
    HKU-IS0.9300.8870.8870.8970.9040.9010.9170.9050.9090.9160.917
    DUTS-TE0.8730.8380.8390.8420.8670.8560.8830.8660.8530.8610.872
    SOD0.8080.7200.7640.7710.7710.7800.7950.7720.7860.809
    注: ${S_{{m} } }$值越大越好.
    下载: 导出CSV

    表  4  消融实验结果

    Table  4  Results of ablation experiment

    MAMERFMMLAMMAE/${F_\beta }$
    0.049/0.935
    0.045/0.937
    0.042/0.942
    0.039/0.944
    0.034/0.951
    注: MAE值越小越好, 加粗字体为最优结果, “✓”为使用指定模块.
    下载: 导出CSV

    表  5  ERFM模块中, 不同扩张率设置的对比实验

    Table  5  Comparative experiment of different dilation rate configurations in ERFM

    扩张率的不同设置组合MAE/${F_\beta }$
    (1, 3, 5), (1, 3, 5), (1, 3, 5), (1, 3, 5)0.039/0.946
    (1, 3, 5), (1, 3, 5), (3, 5, 7), (1, 3, 5)0.037/0.948
    (1, 3, 5), (4, 6, 8), (3, 5, 7), (1, 3, 5)0.036/0.950
    (5, 8, 11), (4, 6, 8), (3, 5, 7), (1, 3, 5)0.034/0.951
    下载: 导出CSV

    表  6  MLAM模块中, 两个分支的消融实验

    Table  6  Ablation experiment of two branches in MLAM

    自下而上分支自上而下分支MAE/${F_\beta }$
    0.041/0.940
    0.040/0.946
    0.034/0.951
    下载: 导出CSV

    表  7  MAM模块中, 注意力模块位置关系的消融实验

    Table  7  Ablation experiment on the position relationship of attention module in MAM

    注意力模块之间的位置关系MAE/${F_\beta }$
    通道注意力在前0.036/0.947
    空间注意力在前0.038/0.944
    并行放置 (本文方法)0.034/0.951
    下载: 导出CSV
  • [1] Donoser M, Urschler M, Hirzer M, Bischof H. Saliency driven total variation segmentation. In: Proceedings of the IEEE International Conference on Computer Vision. Kyoto, Japan: IEEE, 2009. 817−824
    [2] Wei J, Wang S, Huang Q. F3Net: Fusion, feedback and focus for salient object detection. In: Proceedings of the AAAI Conference on Artificial Intelligence. New York, USA: Spring, 2020. 12321−12328
    [3] 李东民, 李静, 梁大川, 王超. 基于多尺度先验深度特征的多目标显著性检测方法. 自动化学报, 2019, 45(11): 2058-2070

    Li Dong-Min, Li Jing, Liang Da-Chuan, Wang Chao. Multiple Salient Objects Detection Using Multi-scale Prior and Deep Features. Acta Automatica Sinica, 2019, 45(11): 2058-2070
    [4] 徐威, 唐振民. 利用层次先验估计的显著性目标检测. 自动化学报, 2015, 41(4): 799-812

    Xu Wei, Tang Zhen-Min. Exploiting Hierarchical Prior Estimation for Salient Object Detection. Acta Automatica Sinica, 2015, 41(4): 799-812
    [5] 杨赛, 赵春霞, 徐威. 一种基于词袋模型的新的显著性目标检测方法. 自动化学报, 2016, 42(8): 1259-1273

    Yang Sai, Zhao Chun-Xia, Xu Wei. A novel salient object detection method using bag-of-features. Acta Automatica Sinica, 2016, 42(8): 1259-1273
    [6] Hong S, You T, Kwak S, Han B. Online tracking by learning discriminative saliency map with convolutional neural network. In: Proceedings of the 32nd International Conference on Machine Learning. Miami, USA: IMLS, 2015. 597−606
    [7] Ren Z, Gao S, Chia L, Tsang I W. Region-based saliency detection and its application in object recognition. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(5): 769−779
    [8] Wang X, You S, Li X, Ma H. Weakly-supervised semantic segmentation by iteratively mining common object features. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 1354− 1362
    [9] Goferman S, Zelnik-Manor L, Tal A. Context-aware saliency detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 1915−1926
    [10] Yan Q, Xu L, Shi J, Jia J. Hierarchical saliency detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. America, Portland: IEEE, 2013. 1155− 1162
    [11] Hou Q, Cheng M M, Hu X, Borji A, Tu Z, Torr P. Deeply supervised salient object detection with short connections. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii, USA: IEEE, 2017. 5300−5309
    [12] Luo Z, Mishra A, Achkar A, Eichel J, Jodoin P M. Non-local deep features for salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii, USA: IEEE, 2017. 6609−6617
    [13] Zhang P, Wang D, Lu H, Wang H, Ruan X. Amulet: Aggregating multi-level convolutional features for salient object detection. In: Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 202−211
    [14] Li X, Zhao L M, Wei L, Yang M, Wu F, Zhuang Y T, et al. DeepSaliency: Multi-task deep neural network model for salient object detection. IEEE Transactions on Image Processing, 2016, 25(8): 3919−3930
    [15] Qin X, Zhang Z, Huang C, Dehghan M, Jagersand M. U2Net: Going deeper with nested U-structure for salient object detection. Pattern Recognition, 2020, 106: Article No. 107404
    [16] Pang Y, Zhao X, Zhang L, Lu H. Multi-scale interactive network for salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020. 9413−9422
    [17] Wei J, Wang S, Wu Z, Su C, Huang Q, Tian Q. Label decoupling framework for salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020. 13025−13034
    [18] Borji A, Cheng M M, Jiang H, Li J. Salient object detection: A benchmark. IEEE Transactions on Image Processing, 2015, 24(12): 5706−5722
    [19] Zhang X N, Wang T T, Qi J Q, Lu H C, Wang G. Progressive attention guided recurrent network for salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 714−722
    [20] Zhao T, Wu X Q. Pyramid feature attention network for saliency detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 3085−3094
    [21] Chen S, Tan X, Wang B, Hu X. Reverse attention for salient object detection. In: Proceedings of the IEEE Europeon Conference on Computer Vision. Munich, Germany: IEEE, 2018. 234−250
    [22] Wang W, Zhao S, Shen J, Hoi S C, Borji A. Salient object detection with pyramid attention and salient edges. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 1448−1457
    [23] Wu Z, Su L, Huang Q. Cascaded partial decoder for fast and accurate salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 3907−3916
    [24] Deng Z J, Hu X W, Zhu L, Xu X M, Qin J, Han G Q, et al. R3Net: Recurrent residual refinement network for saliency detection. In: Proceedings of the 27th International Joint Conference on Artificial Intelligence. Stockholm, Sweden: AAAI Press, 2018. 684−690
    [25] Wang B, Chen Q, Zhou M, Zhang Z, Jin X, Gai K. Progressive feature polishing network for salient object detection. In: Proceedings of the AAAI Conference on Artificial Intelligence. New York, USA: Springer, 2020.
    [26] Fu J, Liu J, Tian H, Li Y, Bao Y, Fang Z, et al. Dual attention network for scene segmentation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 3146−3154
    [27] Zhao H S, Shi J P, Qi X J, Wang X G, Jia J Y. Pyramid scene parsing network. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii, USA: IEEE, 2017. 6230−6239
    [28] Wang L J, Lu H C, Wang Y F, Feng M Y, Wang D, Yin B C, et al. Learning to detect salient objects with image-level supervision. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii, USA: IEEE, 2017. 3796− 3805
    [29] Kingma D P, Ba J. Adam: A method for stochastic optimization. arXiv preprint arXiv: 1412.6980, 2014.
    [30] Yang C, Zhang L, Lu H C, Ruan X, Yang M. Saliency detection via graph-based manifold ranking. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE, 2013. 3166−3173
    [31] Li X H, Lu H C, Zhang L, Ruan X, Yang M. Saliency detection via dense and sparse reconstruction. In: Proceedings of the IEEE International Conference on Computer Vision. Sydney, Austra-lia: IEEE, 2013. 2976−2983
    [32] Li G B, Yu Y Z. Visual saliency based on multi-scale deep features. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015. 5455− 5463
    [33] Li Y, Hou X, Koch C, Rehg J M, Yuille A L. The secrets of salient object segmentation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE, 2014. 280−287
    [34] Movahedi V, Elder J H. Design and perceptual validation of performance measures for salient object segmentation. In: Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Workshops. San Francisco, USA: IEEE, 2010. 49−56
    [35] Fan D P, Cheng M M, Liu Y, Li T, Borji A. Structure-measure: A new way to evaluate foreground maps. In: Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 4548−4557
    [36] Wang T T, Zhang L, Wang S, Lu H C, Yang G, Ruan Y, et al. Detect globally, refine locally: A novel approach to saliency detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 3127−3135
    [37] Wu R, Feng M, Guan W, Wang D, Lu H, Ding E. A mutual learning method for salient object detection with intertwined multi-supervision. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 8150−8159
    [38] Liu J J, Hou Q, Cheng M M, Feng J, Jiang J. PoolNet: A simple pooling-based design for real-time salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 3917−3926
    [39] Feng M Y, Lu H C, Ding E. Attentive feedback network for boundary-aware salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 1623−1632
    [40] Qin X B, Zhang Z C, Huang C Y, Gao C, Dehghan M, Jagersand M. BASNet: Boundary-aware salient object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE, 2019. 7479−7489
    [41] Zhou H, Xie X, Lai J H, Chen Z, Yang L. Interactive two-stream decoder for accurate and fast saliency detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020. 9141−9150
  • 期刊类型引用(8)

    1. 葛城轩,朱尊杰,陆鸣,张文豪,路荣丰,王国相,郑博仑. 基于事件及考虑像素级模糊程度的图像去模糊. 信号处理. 2025(02): 312-324 . 百度学术
    2. 李晓晗,刘石坚,刘建华,戴宇晨,邹峥. 基于多尺度和双源运动感知的车辆检测方法. 华东交通大学学报. 2024(04): 64-72 . 百度学术
    3. 杨波. 基于微分方程的非均匀运动模糊图像盲复原算法研究. 江西电力职业技术学院学报. 2023(02): 68-70 . 百度学术
    4. 姜新军. 基于变分贝叶斯的视觉散焦光图像快速盲复原算法. 吉林大学学报(信息科学版). 2023(03): 552-558 . 百度学术
    5. 罗锦晖,丁超,朱杰凡. 运动模糊图像的模糊参数快速估计方法研究. 计算机与数字工程. 2023(03): 727-730 . 百度学术
    6. 陈烽,王浩. 基于多通道视觉注意力的模糊图像质量复原算法设计. 吉林大学学报(工学版). 2023(09): 2626-2631 . 百度学术
    7. 张乾俊,廉佐政,赵红艳. 一种基于U-Net的图像去模糊方法. 高师理科学刊. 2022(05): 47-51 . 百度学术
    8. 周延木. 基于视觉传达的模糊舰船图像优化. 舰船科学技术. 2022(22): 154-157 . 百度学术

    其他类型引用(2)

  • 加载中
图(6) / 表(7)
计量
  • 文章访问数:  1393
  • HTML全文浏览量:  629
  • PDF下载量:  264
  • 被引次数: 10
出版历程
  • 收稿日期:  2021-05-17
  • 录用日期:  2020-10-18
  • 网络出版日期:  2021-11-15
  • 刊出日期:  2023-11-22

目录

/

返回文章
返回