2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

分级特征反馈融合的深度图像超分辨率重建

张帅勇 刘美琴 姚超 林春雨 赵耀

张帅勇, 刘美琴, 姚超, 林春雨, 赵耀. 分级特征反馈融合的深度图像超分辨率重建. 自动化学报, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542
引用本文: 张帅勇, 刘美琴, 姚超, 林春雨, 赵耀. 分级特征反馈融合的深度图像超分辨率重建. 自动化学报, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542
Zhang Shuai-Yong, Liu Mei-Qin, Yao Chao, Lin Chun-Yu, Zhao Yao. Hierarchical feature feedback network for depth super-resolution reconstruction. Acta Automatica Sinica, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542
Citation: Zhang Shuai-Yong, Liu Mei-Qin, Yao Chao, Lin Chun-Yu, Zhao Yao. Hierarchical feature feedback network for depth super-resolution reconstruction. Acta Automatica Sinica, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542

分级特征反馈融合的深度图像超分辨率重建

doi: 10.16383/j.aas.c200542
基金项目: 国家自然科学基金(61972028, 61902022, U1936212), 国家重点研发计划(2018AAA0102100), 中央高校基本科研业务费(2019JBM018, FRF-TP-19-015A1)资助
详细信息
    作者简介:

    张帅勇:北京交通大学信息科学研究所硕士研究生. 主要研究方向为图像/视频超分辨率重建. E-mail: 19125150@bjtu.edu.cn

    刘美琴:北京交通大学信息科学研究所副教授. 主要研究方向为图像/视频编码, 三维视频处理. 本文通信作者. E-mail: mqliu@bjtu.edu.cn

    姚超:北京科技大学计算机与通信工程学院助理教授. 主要研究方向为图像和视频处理, 计算机视觉. E-mail: yaochao@ustb.edu.cn

    林春雨:北京交通大学信息科学研究所教授. 主要研究方向为图像视频编码, 三维视觉处理. E-mail: cylin@bjtu.edu.cn

    赵耀:北京交通大学信息科学研究所教授. 主要研究方向为图像编码,数字水印, 多媒体信息处理. E-mail: yzhao@bjtu.edu.cn

Hierarchical Feature Feedback Network for Depth Super-resolution Reconstruction

Funds: Supported by National Natural Science Foundation of China (61972028, 61902022, U1936212), National Key Research and Development of China (2018AAA0102100), and the Fundamental Research Funds for the Central Universities (2019JBM018, FRF-TP-19-015A1)
More Information
    Author Bio:

    ZHANG Shuai-Yong Master student at Institute of Information Science, Beijing Jiaotong University. His research interest covers image and video super resolution

    LIU Mei-Qin Assistant professor at Institute of Information Science, Beijing Jiaotong University. Her research interest covers image and video compression, three-dimension video processing. Corresponding author of this paper

    YAO Chao Assistant professor at School of Computer and Communication Engineering, University of Science and Technology Beijing. His research interest covers image and video processing, computer vision

    LIN Chun-Yu Professor at Institute of Information Science, Beijing Jiaotong University. His research interest covers image and video compression, three-dimension vision processing

    ZHAO Yao Professor at Institute of Information Science, Beijing Jiaotong University. His research interest covers image compression, digital watermarking, and multimedia information processing

  • 摘要: 受采集装置的限制, 采集的深度图像存在分辨率较低、易受噪声干扰等问题. 本文构建了分级特征反馈融合网络 (Hierarchical feature feedback network, HFFN), 以实现深度图像的超分辨率重建. 该网络利用金字塔结构挖掘深度−纹理特征在不同尺度下的分层特征, 构建深度−纹理的分层特征表示. 为了有效利用不同尺度下的结构信息, 本文设计了一种分级特征的反馈式融合策略, 综合深度−纹理的边缘特征, 生成重建深度图像的边缘引导信息, 完成深度图像的重建过程. 与对比方法相比, 实验结果表明HFNN网络提升了深度图像的主、客观重建质量.
  • 近年来, 深度信息在计算机视觉领域的应用越来越广. 在远程医疗、无人驾驶以及安防监控等领域, 深度信息可以显著地提升产品的性能. 然而, 受采集设备的限制, 采集的深度图像分辨率比较低, 如Mesa Swiss Ranger 4000采集的深度图像的分辨率仅为176×144, 微软Kinect V2采集的深度图像的分辨率为512×424, 均难以满足实际需求. 因此, 如何由低分辨率深度图像重建高分辨率的深度图像已经成为当前多媒体领域的研究热点之一.

    与深度图像相比, 同一场景下的高分辨率纹理图像更容易获取, 且二者之间存在着高度关联的结构相似性. 因此, 许多学者利用同一场景下高分辨率纹理图像所包含的先验信息, 引导完成深度图像的超分辨率重建过程. 如: 在早期阶段, 一般采用低通滤波器[1-8], 这类方法实现简单, 却会过滤掉大部分的高频信息, 导致重建的深度图像出现边缘模糊现象. 基于优化表示的方法[9-16]设计了相应的优化函数和正则项, 约束边缘信息, 充分考虑了深度−纹理的边缘相似性, 但是手工设计的优化函数并不具有普适性, 且求解最优化问题耗时巨大, 难以满足实际应用的需求.

    近年来, 基于深度学习的方法在深度图像超分辨率重建领域的应用越来越广, 按照是否利用纹理图像的引导信息大致可分为两类: 单深度图像超分辨率算法和纹理图像引导的深度图像超分辨率算法. 与图像超分辨率算法[17-21]类似, 单深度图像超分辨率算法[22-23]通过构建卷积神经网络, 学习从低分辨率深度图像到高分辨率深度图像的非线性映射关系, 实现深度图像的超分辨率重建; 基于纹理图像引导的深度图像超分辨率算法[24-29]通常采用上采样或者下采样的方式, 获取丰富的层次特征, 利用对应尺度下纹理图像提供的引导信息, 完成深度图像的重建过程, 如: Hui等[25]构建了金字塔结构, 输入的低分辨率深度图像经逐级采样后得到多尺度的特征表示, 再融合对应尺度的纹理特征; Guo等[29]采用U-Net结构对插值后的深度图像进行编码, 在解码过程中融合对应尺度的纹理特征. 这两种特征融合结构以串联方式从低尺度到高尺度地逐步重建高分辨率的深度图像, 均可以提取丰富的层次特征信息, 却未能有效利用多尺度特征间的关联性进行特征融合.

    针对以上问题, 本文充分考虑了不同尺度间深度图像与纹理图像的结构相似性, 提出了一种基于分级特征反馈融合策略的深度图像超分辨率重建算法, 并相应地设计了一种端到端的分级特征反馈融合网络(Hierarchical feature feedback network, HFFN). HFFN网络采用了并行结构, 结合单深度图像重建网络和深度−纹理融合特征增强网络分别提取深度图像和纹理图像的深层特征, 获取深度图像与纹理图像隐含的结构信息; 改进的金字塔结构, 可以构建不同尺度下深度−纹理的分层特征表示; 设计了一种分级特征的反馈式融合策略, 实现并行金字塔不同层特征的反馈融合, 搭建起不同尺度间深度−纹理特征信息传递的桥梁, 充分挖掘不同尺度间深度−纹理的结构相似性; 结合深度−纹理边缘特征, 获取深度图像的边缘引导信息, 生成边缘引导图像; 采用残差学习的方式, 将边缘引导图像与单深度图像重建网络的重建结果相加, 以进一步提升深度图像的重建质量. 实验结果表明, 与对比方法相比, 本文算法获得了高质量的深度图像重建结果.

    本文的组织结构如下: 第1节简要回顾了深度图像的超分辨率重建算法; 第2节具体介绍了HFFN网络的整体框架; 第3节详细给出了对比实验及分析结果; 第4节总结全文.

    深度图像超分辨率重建算法主要包括基于滤波、优化表示和深度学习三类.

    基于滤波的深度图像超分辨率算法大多利用低通滤波器, 在上采样过程中采用与深度图像点−点相关的纹理图像的高频信息, 恢复深度图像的边缘信息. 如, Lei等[3]利用深度−纹理间的相似性, 构建了一种三边上采样滤波器; Yang等[4]利用同场景纹理图像确定了像素上采样过程中的权值, 提出了一种自适应权值滤波的深度图像超分辨率算法; Lu等[5]在稀疏深度样本的指导下分割纹理图像, 恢复每个子图像中的深度值, 利用了纹理边缘与深度边缘之间的依赖关系; He等[6]通过建立引导图像与输出之间的线性关系对目标图像进行引导滤波, 相比双边滤波器保留了更多的边缘细节; Barron等[7]提出了一种新的边缘感知平滑算法双边求解器, 实现纹理图像引导下的深度图像快速超分辨率重建; Yang等[8]面向三维视点合成, 利用深度−纹理相似性构建了像素级的置信度计算方法, 构造了基于置信度的联合引导滤波器, 不仅考虑了深度像素间的平滑性, 而且融入了深度−纹理的相似性, 提高了深度图像上采样的性能及合成视点的质量.

    基于优化表示的深度图像超分辨率算法是构建一种深度−纹理的联合表示, 以字典或稀疏表示的方式学习深度−纹理间的映射. 如, Diebel等[9]用马尔科夫随机场 (Markov random field, MRF)将低分辨率深度图像与高分辨率纹理图像集成后进行上采样操作; 除应用MRF以外, An等[10]通过正则项局部误差均值自适应地计算平衡正则项和保真项的正则化参数矩阵, 较好地保持了边缘信息; Park等[11]采用非局部方法对深度图像进行正则化, 改善了深度图像的细节; Yan等[12]采用非局部均值算法先获取初始上采样深度图像, 再利用边缘检测算法对其优化, 提高了深度图像的重建质量; Yang等[13]采用自适应回归模型, 通过纹理图像的引导自动生成超分辨率深度图像; Ferstle等[14]提出了一个深度图像超分辨率重建的凸优化问题, 利用纹理图像计算出各向同性扩散张量, 指导深度图像的上采样过程; Li等[15]基于加权最小二乘法和快速全局平滑技术, 提出了一种分层、多遍的全局优化框架, 避免了不必要的纹理复制伪影; Kiechle等[16]构建了一种双模共稀疏分析模型, 能够捕捉到纹理图像与深度图像之间的相互依赖关系, 实现深度图像的超分辨率重建.

    近年来, 卷积神经网络在图像超分辨率重建领域取得了显著的成就. Dong等[17]首次提出了端到端的SRCNN (Super resolution convolution neural network) 网络, 直接学习从低分辨率到高分辨率的映射关系, 解决了基于深度学习的图像超分辨率重建问题; Shi等[18]和Lim等[19]改进了SRCNN, 加深了网络的深度; Zhou等[20]和Zhang等[21]利用了递归残差网络, 在提高超分重建质量的同时限制了模型参数, 有效降低了计算复杂度.

    不同于直接堆叠卷积层, Huang等[22]采用基于深度密集残差网络实现金字塔结构的深度图像超分辨率重建网络, 利用不同层次特征逐步重建高分辨率的深度图像; Song等[23]利用通道注意力机制, 实现了深度图像超分辨率重建网络, 从粗到细地恢复深度图像的高频分量; Zhao等[24]提出了纹理−深度条件生成对抗网络, 学习纹理图像和低分辨率深度图像之间的结构相似性; Hui等[25]提出了多尺度引导卷积网络MSG (Multi-scale guided convolutional network), 利用丰富的分层纹理特征, 消除了深度图像重建后存在的模糊现象; Zuo等提出了纹理引导增强的残差稠密网络RDN-GDE[26] (Residual dense network for guided depth enhancement)和多尺度融合残差网络MFR-SR[27] (Multi-scale fusion residual network for depth map super resolution), 探究如何利用纹理图像提供的多尺度引导信息, 逐步指导深度图像的上采样重建; Ye等[28]提出了渐进的多分支聚合网络PMBA (Progressive multi-branch aggregation network), 利用多分支融合方式逐步恢复退化的深度图像; Guo等[29]提出了深度图像超分辨率重建网络DepthSR (Hierarchical features driven residual learning for depth map super resolution), 利用U-Net残差深层网络, 获取多尺度的结构信息, 完成深度图像的超分辨率重建.

    本文提出的分级特征反馈融合网络HFFN(如图1所示)采用并行结构, 由单深度图像重建和深度−纹理融合特征增强两个子网络构成. 首先, 两个子网络分别提取低分辨率深度图像和高分辨率纹理图像的深层特征, 构建深度−纹理的深层特征表示. 其次, 利用并行金字塔结构, 设计深度−纹理反馈式融合模块(Depth-Color feedback fusion module, DCF), 提取深度−纹理在不同尺度下的结构信息, 构建深度−纹理的多尺度分层特征表示; 应用反馈式融合策略, 挖掘不同尺度下深度−纹理隐含的关联性, 生成包含多级感受野的边缘引导信息. 最后, 由边缘引导信息生成的边缘引导图像, 与单深度图像重建网络的重建结果相加, 实现深度−纹理的引导重建过程, 获得纹理图像引导的高分辨率深度图像的重建结果.

    图 1  分级特征反馈融合网络
    Fig. 1  Hierarchical feature feedback network

    由于深度图像和纹理图像表征的内容不同, 采用同一网络将难以区分所提取的纹理图像和深度图像的信息. 因此, HFFN网络利用单深度图像重建网络和深度−纹理融合特征增强网络, 提取低分辨率深度图像$ {D}_{L} $和高分辨率纹理图像$ {Y}_{C} $的深层特征$ {F}_{DL} $$ {F}_{DC} $. 子网络的特征提取模块均由一个卷积层和$ M $个残差块[19]组成, 每个残差块包含一个线性整流激活函数 (Rectified linear unit, ReLU)和两个卷积层.

    为了降低运算复杂度, 特征提取阶段的输入为低分辨率的深度图像, 在特征融合阶段, 深度图像和纹理图像的深层特征会出现空间不匹配的问题. 因此, 深度图像的深层特征$ {F}_{DL} $需经上采样操作后才能与纹理特征$ {F}_{DC} $融合, 以便学习二者的相关性. 单深度图像重建网络采用亚像素卷积层[18] $ {H}_{\uparrow } $上采样$ {F}_{DL} $, 生成与纹理图像空间一致的深层特征$ {F}_{DL}^{\uparrow } $, 构建相应的深度−纹理深层特征表示, 如式 (1)所示:

    $$ {F}_{DL}^{\uparrow }={H}_{\uparrow }\left({F}_{DL}\right) $$ (1)

    此处, $ {F}_{DL}^{\uparrow } $有两个作用: 一是与纹理图像的深层特征$ {F}_{DC} $进行融合, 生成深度图像的边缘引导信息; 二是作为单深度图像重建网络的重建特征, 生成高分辨率的深度图像.

    由文献[25-29]可知, 多级别的感受也可以获取丰富的层次特征信息. 因此, 本文构建深度−纹理反馈式融合模块DCF, 提取深度−纹理的分层特征表示, 并利用分级特征反馈融合策略, 充分融合深度−纹理在不同尺度下的特征, 生成包含多级感受野的边缘引导信息, 如式(2)所示:

    $$ {F}_{DF}={H}_{DCB}({F}_{DL}^{\uparrow },{F}_{DC}) $$ (2)

    其中, $ {H}_{DCB} $表示深度−纹理反馈式融合函数.

    该模块包含多尺度分层特征构建子模块和特征融合反馈子模块, 如图2所示, 图中的数字表示通道的数量. 其中, 多尺度分层特征构建子模块提取$ {F}_{DL}^{\uparrow } $$ {F}_{DC} $在不同尺度下的结构特征信息, 构建深度−纹理的分层特征表示; 融合特征反馈子模块对不同尺度下的结构特征进行融合反馈, 丰富融合特征包含的结构信息.

    图 2  深度−纹理反馈式融合模块
    Fig. 2  Depth-Color feedback fusion module
    2.3.1   多尺度分层特征构建子模块

    多尺度分层特征构建子模块通过并行金字塔结构获取深度−纹理图像的多尺度分层特征, 以并行的方式构建深度−纹理的分层特征表示. 为了避免因层数过高引起深度图像边缘结构的退化现象, 多尺度分层特征构建子模块选用三层金字塔$ \left(1\le j\le 3\right) $结构. 具体地, 第$ j-1 $层的分层特征$ {F}_{PL}^{j-1} $$ {F}_{PC}^{j-1} $通过卷积提取其边缘结构信息, 并利用最大池化层构建深度图像和纹理图像第$ j $层的分层特征$ {F}_{PL}^{j} $$ {F}_{PC}^{j} $, 如式(3)和(4)所示:

    $$ {F}_{PL}^{j}={H}_{\downarrow }\left(\sigma \left({W}_{PL}^{j}*{F}_{PL}^{j-1}\right)+{b}_{PL}^{j}\right) $$ (3)
    $$ {F}_{PC}^{j}={H}_{\downarrow }\left(\sigma \left({W}_{PC}^{j}*{F}_{PC}^{j-1}\right)+{b}_{PC}^{j}\right) $$ (4)

    其中, $ {F}_{PL}^{0}={F}_{DL}^{\uparrow } $, $ {F}_{PC}^{0}={F}_{DC}^{} $, “$*$”表示卷积操作, “$ \sigma $”表示ReLU函数, $ {H}_{\downarrow } $表示$ 2\times $下采样操作, $ {W}_{PL}^{j} $$ {W}_{PC}^{j} $表示卷积的权重, $ {b}_{PL}^{j} $$ {b}_{PC}^{j} $表示卷积的偏置.

    多尺度分层特征构建子模块将并行金字塔每一层构建的分层特征传递到金字塔的下一层, 以提供不同感受野下深度−纹理的层次特征信息.

    2.3.2   特征融合反馈子模块

    如何利用上文构建的多尺度分层特征获取深度图像的边缘引导信息, 是重建高质量深度图像的关键. 大多数算法[25-27]采用级联某一尺度下的深度特征和纹理特征的方式生成融合特征, 显然无法有效利用深度−纹理图像间的结构相似性. 因此, 本文构建的特征融合反馈子模块基于分级特征反馈融合策略, 在不同层间传递结构信息, 并利用卷积自适应地分配不同层特征融合时的权重系数, 用于提高不同尺度间特征的相容性.

    特征融合反馈子模块融合金字塔第三层的深度特征$ {F}_{PL}^{3} $和纹理特征$ {F}_{PC}^{3} $后, 通过反卷积$ {H}_{D}^{\uparrow } $进行上采样操作, 生成金字塔第三层的深度−纹理融合特征$ {R}^{3} $, 将$ {R}^{3} $和金字塔第二层的特征$ {F}_{PL}^{2} $$ {F}_{PC}^{2} $融合后生成第二层的深度−纹理融合特征$ {R}^{2} $, 第一层的深度−纹理融合特征$ {R}^{1} $$ {R}^{2} $采取相同的融合方式获得, 如式(5)所示:

    $$ {R}^{j}={H}_{D}^{\uparrow }\left(\sigma \right({W}_{r}^{j}*\left[{F}_{PL}^{j},{F}_{PC}^{j},{R}^{j+1}\right]+{b}_{r}^{j}\left)\right) $$ (5)

    其中, $ {R}^{4} $为空集, $ {W}_{r}^{j} $$ {b}_{r}^{j} $分别表示$ 1\times 1 $卷积的权重和偏置, $ \left[\;\;,\;\;\right] $表示级联. 至此, 纹理图像对深度图像的边缘引导信息$ {F}_{DF}^{} $可由式(6)获得:

    $$ {F}_{DF}^{}=\sigma ({W}_{r}^{}*\left[{F}_{DL}^{\uparrow },{F}_{DC}^{},{R}^{1}\right]+{b}_{r}^{}) $$ (6)

    其中, $ {W}_{r}^{} $$ {b}_{r}^{} $分别表示生成边缘引导信息$ {F}_{DF}^{} $时卷积的权重和偏置.

    应用反馈式融合策略, 特征融合反馈子模块可以挖掘不同尺度下深度特征与纹理特征潜在的关联性, 生成包含多级感受野的边缘引导信息.

    在构建单深度图像重建网络的基础上, 本文算法通过深度−纹理融合特征增强网络生成深度图像的边缘引导图像, 引导深度图像的重建过程. 单深度图像重建网络的重建结果$ {D}_{UP}^{} $图3(a)所示, 由提取的深度特征生成; 深度−纹理融合特征增强网络的重建结果$ {D}_{F}^{} $图3(b)所示, 包含丰富的边缘信息.

    图 3  特征重建结果
    Fig. 3  Feature reconstruction results

    HFFN网络采用残差学习的方式将$ {D}_{UP}^{} $$ {D}_{F}^{} $相加, 得到深度图像的超分辨率重建结果$ {D}_{SR}^{} $, 利用边缘引导图像进一步增强深度图像的边缘细节信息, 如式 (7) 所示:

    $$ \begin{split} {D}_{SR}^{}=\;&{H}_{RL}^{}\big({F}_{DL}^{\uparrow }\big)+{H}_{RC}^{}\big({F}_{DF}^{}\big) =\\ &{D}_{UP}^{}+{D}_{F}^{} \end{split} $$ (7)

    其中, $ {H}_{RL}^{}\left(\cdot \right) $表示高分辨率深度图像重建函数, $ {H}_{RC}^{}\left(\cdot \right) $表示边缘引导图像生成函数.

    除标记参数的卷积层以外, HFFN网络其他部分卷积核的大小为$ k=3 $, 通道数为$ C=64 $, 采用经典的均方误差(Mean square error, MSE) 作为训练模型的损失函数, 如式 (8) 所示:

    $$ L\left(\varTheta \right)=\frac{1}{N}\sum _{i=1}^{N}{||H\left({D}_{C}^{i},{Y}_{C}^{i},\varTheta \right)-{D}_{H}^{i}||}^{2} $$ (8)

    其中, $ \varTheta $表示网络学习到的参数, $ H $表示重建模型, $ N $表示每批的训练样本数, $ N=16 $, 初始的学习率$lr=1\times10^{-4}$, 且在第60个和第120个周期时$ lr $减半 , 共训练200个周期. HFFN网络采用ADAM算法[30]进行优化 , 参数设为$ {\beta }_{1}=0.9 $ , $ {\beta }_{2}=0.999 $ , $\varepsilon =1\times $$ 10^{-8}$.本文实验在PyTorch框架下使用一块NVIDIA 2080Ti的GPU卡完成.

    训练集: 本文采用与文献[22, 25, 29]相同的数据集, 包含34对来自于“Middlebury 2001 Datasets”[31]、“Middlebury 2003 Datasets”[32]和“Middlebury 2014 Datasets”[33] (分辨率最小为432$ \times $368、最大为2300$ \times $1992)以及58对来自于“MPI Sintel depth”数据集[34] (分辨率为1024$ \times $436)的深度−纹理图像. 其中, 82对深度−纹理图像作为训练集, 10对深度−纹理图像作为验证集.

    测试集: 为了评估不同算法的性能, 本文从“Middlebury 2003 Datasets”[35]和“Middlebury 2005 Datasets”[32, 36]上选取10对深度−纹理图像作为测试集. 参考文献[25-27], 测试集分为A (Art、Books、Moebius)、B (Dolls、Laundry、Reindeer)、C (Tsukuba、Venus、Teddy、Cones)三个部分.

    数据处理: 本文将原始深度图像$ {D}_{H}^{} $经双三次插值算法下采样得到$ {D}_{L}^{} $. 在训练阶段, 选取比例因子分别为$ 2\times $$ 3\times $$ 4\times $$ 8\times $时, 原始深度图像$ {D}_{H}^{} $和纹理图像$ {Y}_{C}^{} $被分割成大小为128、144、128、128的块, 对应的低分辨率深度图像$ {D}_{L}^{} $被分割成大小为64、48、32、16的块, 并利用随机旋转和翻转操作扩大数据集. 在训练阶段, HFFN网络的输入为纹理图像和深度图像的Y通道, 输出为单通道的高分辨率深度图像. 在测试阶段, 采用均方根误差(Root mean square error, RMSE)和峰值信噪比 (Peak signal to noise ratio, PSNR)评价网络的超分辨率重建性能.

    3.2.1   参数分析

    当比例因子为$ 4\times $时, 本文评估特征提取模块残差块的数目、金字塔层数对HFFN网络性能的影响分别如表1表2所示.

    表 1  残差块数目对HFFN网络性能的影响
    Table 1  Influence of the number of residual blocks on the performance of HFFN
    网络模型H_R3H_R5H_R7H_R10
    训练时间(h)33.84.45.4
    模型参数(M)2.672.963.263.70
    重建结果(dB)48.1448.2348.4548.54
    下载: 导出CSV 
    | 显示表格
    表 2  金字塔层数对HFFN网络性能的影响
    Table 2  Influence of pyramid layers on the performance of HFFN
    网络模型H_P2H_ P3H_ P4
    训练时间(h)3.63.88.6
    模型参数(M)1.622.968.34
    重建结果(dB)48.0448.2448.32
    下载: 导出CSV 
    | 显示表格

    表1中, 网络模型H_R3、H_R5、H_R7、H_R10分别表示Basic网络中有3、5、7、10个残差块, 且金字塔层数为3. 由表1可知, 随着残差块数目的增加, HFFN模型重建结果的PSNR值也随之增加. 同时, 残差块数目的增加也带来了网络模型训练时间和参数量的增长, 如: 模型H_R7和H_R10比H_R5的训练时间提高了0.6 h和1.6 h、参数量提高了0.30 M和0.74 M. 因此, 设置残差块超参不仅需要考量重建结果的PSNR值, 也需考虑模型的训练时间和参数量.

    表2中, 金字塔层数为2、3、4对应的网络模型分别为H_P2、H_P3、H_P4, 残差块数目为5. 可以看出, 模型H_P4比H_P3重建的PSNR值提高了0.08 dB、参数量增加了5.38 M、训练时间增加了4.8 h; 而模型H_P3比H_P2重建的PSNR值提高了0.20 dB、参数量增加了1.34 M、训练时间增加了0.2 h.

    因此, 在模型性能的验证阶段, 本文均衡考虑了HFFN模型的重建质量、计算复杂度及训练时间等因素, 设置残差块数目为7、金字塔层数为3, 不仅可以保证深度图像高分辨率重建质量, 还可以控制网络模型的参数规模和训练时间.

    3.2.2   模型分析

    为了验证HFFN各部分的性能, 本文将模型分为纹理、分层、深层和融合四部分. 其中纹理表示引入纹理图像的先验信息; 分层表示利用金字塔结构获取多尺度分层特征; 深层表示采用深层网络提取深度−纹理图像的特征; 融合表示加入自适应特征融合算法. 基准网络Basic包含五层残差块的单深度图像超分辨率重建网络, 结构与文献[19]类似, 相应构建的H_Color、H_CP和H_Res网络的配置及实验结果如表3所示.

    表 3  消融分析结果
    Table 3  Results of ablation study
    网络纹理分层深层融合结果(RMSE/PSNR)
    Basic$ \checkmark$3.2238/40.071
    H_Color$ \checkmark$$ \checkmark$2.8239/41.438
    H_CP$ \checkmark$$ \checkmark$$ \checkmark$2.8544/41.578
    H_Res$ \checkmark$$ \checkmark$$ \checkmark$2.9352/41.285
    HFFN-100$ \checkmark$$ \checkmark$$ \checkmark$$ \checkmark$2.7483/41.671
    下载: 导出CSV 
    | 显示表格

    表3可知, 对比Basic网络、H_Color网络、H_CP网络和HFFN-100网络的重建结果, HFFN-100网络的性能最优, 说明纹理图像、并行金字塔结构以及反馈式融合策略在深度图像超分辨率重建中的有效性; 此外, H_Res网络与HFFN-100网络的实验结果表明, 通过多层网络提取深度−纹理图像的深层特征, 有利于挖掘深度图像与纹理图像隐含的关联性.

    本文对比Basic网络和HFFN-100网络在“Art”上的重建结果, 以验证纹理图像在深度图像超分辨率重建中的作用, 如图4所示. 由于缺失纹理图像提供的引导信息, Basic网络的重建结果出现了伪影和噪点, 见图4(b); 图4(c)为HFFN-100网络的重建结果, 保留了更多的边缘细节信息.

    图 4  “Art”的视觉质量对比结果
    Fig. 4  Visual quality comparison results of “Art”

    实验对比算法为: 传统算法(Bicubic、GF[6]、TGV[14]、JID[16])和基于深度学习的超分辨率算法(纹理图像超分辨率算法SRCNN[17]、单深度图像超分辨率算法Huang[21]、纹理图像引导下的深度图像超分辨率算法MSG[25]、DepthSR[29]、MFR-SR[27]、RDN-GDE[26]、PMBA[28]), HFFN+表示在HFFN算法中引入Self-Ensemble[37]方法. 当比例因子为$ 2\times $$ 3\times $$ 4\times $$ 8\times $时, 深度图像超分辨率重建的客观质量对比结果如表4表6所示. 实验结果的最优值用粗体表示、次优值用下划线表示.

    表 4  测试数据集A的客观对比结果 (RMSE)
    Table 4  Objective comparison results (RMSE) on test dataset A
    对比算法ArtBooksMoebius
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic2.663.343.905.501.081.391.632.360.851.081.291.89
    GF[6]3.633.844.145.491.491.591.732.351.251.321.421.91
    TGV[14]3.033.313.784.791.291.411.601.991.131.251.461.91
    JID[16]1.241.632.013.230.650.760.921.270.640.710.891.27
    SRCNN[17]2.483.053.715.281.031.261.582.300.811.031.231.84
    Huang[21]0.66/1.592.710.54/0.831.190.52/0.861.21
    MSG[25]0.66/1.472.460.37/0.671.030.36/0.661.02
    RDN-GDE[26]0.56/1.472.600.36/0.621.000.38/0.691.05
    MFR-SR[27]0.71/1.542.710.42/0.631.050.42/0.721.10
    PMBA[28]0.61/2.043.630.41/0.921.680.39/0.841.41
    DepthSR[29]0.530.891.202.220.420.560.600.89////
    HFFN0.410.841.282.290.280.370.490.870.310.450.570.89
    HFFN+0.380.811.242.190.270.360.470.840.300.440.550.85
    下载: 导出CSV 
    | 显示表格
    表 6  测试数据集C的客观对比结果 (RMSE)
    Table 6  Objective comparison results (RMSE) on test dataset C
    对比算法TsukubaVenusTeddyCones
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic5.817.178.5612.31.321.641.912.761.992.482.904.072.453.063.605.30
    GF[6]8.128.639.4012.51.631.751.932.692.492.672.933.983.333.553.875.29
    TGV[14]7.207.7810.317.52.152.342.524.042.712.993.35.393.513.974.457.14
    JID[16]3.484.915.9510.90.80.911.171.761.281.532.942.761.692.424.175.11
    SRCNN[17]5.476.328.1111.81.271.431.852.671.882.252.773.952.342.523.435.15
    Huang[21]1.41/3.737.790.56/0.721.090.85/1.582.880.88/2.384.66
    MSG[25]1.85/4.298.420.14/0.351.040.71/1.492.760.90/2.604.23
    DepthSR[29]1.332.253.266.89////0.831.151.371.85////
    HFFN1.372.493.537.670.210.280.420.840.610.931.212.270.651.241.713.91
    HFFN+1.142.223.217.600.200.280.400.780.560.861.132.120.611.141.593.66
    下载: 导出CSV 
    | 显示表格

    表4可知, 当比例因子为$ 2\times $$ 3\times $$ 4\times $$ 8\times $时, 所提算法在“Books”和“Moebius”上的重建结果均优于对比算法. 其中, HFFN算法重建“Books”的RMSE值比Bicubic算法降低了0.8 ($ 2\times $)、1.02 ($ 3\times $)、1.14 ($ 4\times $)、1.49 ($ 8\times $); HFFN算法重建“Books”的RMSE值比GF[6]算法降低了1.21 ($ 2\times $)、1.22 ($ 3\times $)、1.24 ($ 4\times $)、1.48 ($ 8\times $); 与Huang[21]提出的算法相比, HFFN算法重建“Books”的RMSE值降低了0.26 ($ 2\times $)、0.34 ($ 4\times $)、0.32 ($ 8\times $); 与PMBA[28]算法相比, HFFN算法重建“Books”的RMSE值降低了0.14 ($ 2\times $)、0.45 ($ 4\times $)、0.87 ($ 8\times $). 随着放大比例因子的增加, 本文提出的HFFN算法明显优于传统算法GF[6]、单深度图像算法Huang[21]和纹理图像引导的算法PMBA[28], RMSE值之差也越来越大, 验证了HFFN算法融合不同尺度下深度−纹理结构相似性的优势. 当比例因子为4$ \times $时, 各算法在“Books”上的RMSE值与运行时间如图5所示. 由图5可知, 综合考虑运行时间和重建质量, HFFN算法取得了最优的结果.

    图 5  各算法重建“Books”的RMSE值走势图
    Fig. 5  The trend of the RMSE for “Books”

    表5可知, 与MFR-SR[27]算法相比, HFFN算法重建“Laundry”的RMSE值减少了0.29 ($ 2\times $)、0.38 ($ 4\times $)、0.42 ($ 8\times $), 与PMBA[28]算法相比, HFFN算法重建“Laundry”的RMSE值降低了0.08($ 2\times $)、0.44 ($ 4\times $)、0.93 ($ 8\times $), 与DepthSR[29]算法相比, HFFN算法重建“Laundry”的RMSE值减少了0.12($ 2\times $)、0.10 ($ 3\times $)、0.05 ($ 4\times $); 与Huang[21]提出的算法相比, HFFN算法重建“Reindeer”的RMSE值减少了0.25 ($ 2\times $)、0.15 ($ 4\times $)、1.16 ($ 8\times $), 与RDN-GDE[26]算法相比, HFFN算法重建“Reindeer”的RMSE值降低了0.17 ($ 2\times $)、0.25 ($ 4\times $)、0.47 ($ 8\times $). RDN-GDE[26]算法、MFR-SR[27]算法以及DepthSR[29]算法都是利用金字塔结构获取丰富的层次特征信息, 而HFFN算法改进了金字塔结构、实现深度−纹理的反馈式融合、有效利用了多尺度特征间的关联性, 其重建结果优于以上对比算法. 同时, 考虑到模型参数以及运行时间的影响, HFFN网络只采用了三层金字塔结构, 而DepthSR[29]算法在U-Net结构的基础上进行了四次下采样, 并且与对应尺度下输入金字塔提取的特征进行级联, 相比HFFN网络获取了更丰富的层次特征, 更有利于大比例因子的重建. 因此, 当比例因子为$ 8\times $时, HFFN网络重建“Laundry”和“Reindeer”的RMSE值相比DepthSR[29]算法增加了0.02和0.07. 由上述实验结果可知, HFFN算法的重建结果总体上优于对比算法, 验证了HFFN算法在深度图像超分辨率重建任务中的有效性.

    表 5  测试数据集B的客观对比结果 (RMSE)
    Table 5  Objective comparison results (RMSE) on test dataset B
    对比算法DollsLaundryReindeer
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic0.941.151.331.871.612.052.393.431.972.462.864.05
    GF[6]1.251.311.411.862.212.362.543.422.682.843.054.06
    TGV[14]1.121.211.361.861.992.222.513.762.402.562.713.79
    JID[16]0.700.790.921.260.750.941.212.080.921.211.562.58
    SRCNN[17]0.901.011.281.821.521.742.313.321.842.172.733.92
    Huang[21]0.58/0.911.310.52/0.921.520.59/1.111.80
    MSG[25]0.35/0.691.050.37/0.791.510.42/0.981.76
    RDN-GDE[26]0.56/0.881.210.48/0.961.630.51/1.172.05
    MFR-SR[27]0.60/0.891.220.61/1.111.750.65/1.232.06
    PMBA[28]0.36/0.951.470.38/1.142.190.40/1.392.74
    DepthSR[29]////0.440.620.781.310.510.770.961.57
    HFFN0.360.590.751.110.320.520.731.330.350.660.961.64
    HFFN+0.340.570.741.090.300.510.701.260.340.630.921.58
    下载: 导出CSV 
    | 显示表格

    表6可知, HFFN算法重建“Cones”的RMSE值均优于比较算法. 与DepthSR[29]算法相比, HFFN算法重建“Teddy”的RMSE值减少了0.27 ($ 2\times $)、0.22 ($ 3\times $)、0.16 ($ 4\times $); 与MSG[25]算法相比, HFFN算法重建“Teddy”的RMSE值减少了0.1 ($ 2\times $)、0.28 ($ 4\times $)、0.49 ($ 8\times $), 上述结果表明了HFFN算法采用反馈式融合策略, 充分融合了不同尺度下的深度特征和纹理特征, 其重建深度图像“Cones”和“Teddy”上的RMSE值优于对比算法. 由表4表6可知, HFFN+算法在测试集的重建结果均优于HFFN算法. 因此, 采用Self-Ensemble[37]方法可以进一步提升HFFN算法的重建质量.

    当比例因子为$ 4\times $$ 8\times $时, HFFN与Bicubic、GF[6]、SRCNN[17]、DepthSR[29]、PMBA[28]算法在测试图像“Art”和“Laundry”上超分辨率重建的对比结果分别如图6图7所示.

    图 6  $ 4\times $尺度下测试图片“Art”的视觉质量对比结果
    Fig. 6  Visual quality comparison results of “Art” at scale $ 4\times $
    图 7  $ 8\times $尺度下测试图片“Laundry”的视觉质量对比结果
    Fig. 7  Visual quality comparison results of “Laundry” at scale $ 8\times $

    图6可知, 与基于滤波的Bicubic算法、GF[6]算法以及基于深度学习的单图像超分辨率算法SRCNN[17]相比, 基于纹理图像引导的DepthSR[29]算法、PMBA[28]算法和HFFN算法在重建过程中融合了纹理图像提供的引导信息, 指引深度图像的重建过程, 其重建结果有着清晰的边缘.

    图7(d)框中区域可知, DepthSR[29]算法在深度图像“Laundry”上的重建结果出现了原始深度图像上不存在的白色条纹, 可能是由于DepthSR[29]算法在解码过程中只融合浅层的纹理特征, 纹理图像中包含的纹理信息干扰了深度图像的重建过程; 如图9(f)蓝框区域所示, HFFN算法利用深层网络充分挖掘了纹理图像的结构信息, 并利用反馈式融合策略获得了包含多级感受野的边缘引导信息, 重建结果未出现白色条纹, 避免了纹理图像内部纹理信息的干扰.

    本文对比HFFN与Bicubic、GF[6]、TGV[14]、SRCNN[17]、MSG[25]、PMBA[28]、DepthSR[29]的计算复杂度. 在Intel(R)E5-1620v4, 3.5 GHz, 32 GB RAM、NVIDIA GeForce GTX 2080Ti 12 GB计算平台上, 各算法将低分辨率深度图像($ 264\times 324 $)重建为高分辨率深度图像($ 1 056\times 1 296 $)的平均运行时间, 如表7所示.

    表 7  平均运行时间
    Table 7  Average running time
    对比算法时间 (s)对比算法时间 (s)
    Bicubic0.01MSG[25]0.29
    GF[6]0.13PMBA[28]0.46
    TGV[14]894.43DepthSR[29]1.84
    SRCNN[17]0.13HFFN0.21
    下载: 导出CSV 
    | 显示表格

    表7可知, 基于滤波的Bicubic算法、GF[6]算法, 运行时间分别为0.01 s、0.13 s, 相比其他算法运行时间最快、计算复杂度最低; 基于优化表示的TGV[14]算法在CPU上的运行时间达到了893 s, 时间消耗最大; 得益于GPU计算资源的优势, 基于深度学习的SRCNN[17]算法、MSG[25]算法、DepthSR[29]算法、PMBA[28]算法和HFFN算法的运行时间分别为: 0.13 s、0.29 s、1.84 s、0.46 s. 在这些网络结构中, SRCNN[17]只使用了3层卷积层, 计算复杂度最低; DepthSR[29]利用了4层输入金字塔提取不同尺度下的结构特征, 再与U-Net结构中对应尺度的特征进行级联, 提取各层的特征信息, 增加了模型参数量、降低了运行速度; HFFN网络采用了3层并行金字塔结构、有效利用深度−纹理多尺度间的相关性, 在提升深度图像重建质量的同时, 控制了模型的参数量和计算复杂度.

    本文提出了一种基于分级特征反馈融合策略的深度图像超分辨率重建算法, 并构建了端到端的分级特征反馈融合网络. 在提取深度−纹理图像的深层特征的基础上, 该算法利用并行金字塔结构构建深度−纹理在不同尺度下的分层特征表示, 提取深度−纹理在不同尺度下的结构信息; 进而, 应用反馈式融合策略, 融合不同尺度下的结构特征, 生成包含多级感受野的边缘引导信息, 引导深度图像的超分辨率重建过程. 与其他算法相比, 实验结果验证了所提算法的有效性.

  • 图  1  分级特征反馈融合网络

    Fig.  1  Hierarchical feature feedback network

    图  2  深度−纹理反馈式融合模块

    Fig.  2  Depth-Color feedback fusion module

    图  3  特征重建结果

    Fig.  3  Feature reconstruction results

    图  4  “Art”的视觉质量对比结果

    Fig.  4  Visual quality comparison results of “Art”

    图  5  各算法重建“Books”的RMSE值走势图

    Fig.  5  The trend of the RMSE for “Books”

    图  6  $ 4\times $尺度下测试图片“Art”的视觉质量对比结果

    Fig.  6  Visual quality comparison results of “Art” at scale $ 4\times $

    图  7  $ 8\times $尺度下测试图片“Laundry”的视觉质量对比结果

    Fig.  7  Visual quality comparison results of “Laundry” at scale $ 8\times $

    表  1  残差块数目对HFFN网络性能的影响

    Table  1  Influence of the number of residual blocks on the performance of HFFN

    网络模型H_R3H_R5H_R7H_R10
    训练时间(h)33.84.45.4
    模型参数(M)2.672.963.263.70
    重建结果(dB)48.1448.2348.4548.54
    下载: 导出CSV

    表  2  金字塔层数对HFFN网络性能的影响

    Table  2  Influence of pyramid layers on the performance of HFFN

    网络模型H_P2H_ P3H_ P4
    训练时间(h)3.63.88.6
    模型参数(M)1.622.968.34
    重建结果(dB)48.0448.2448.32
    下载: 导出CSV

    表  3  消融分析结果

    Table  3  Results of ablation study

    网络纹理分层深层融合结果(RMSE/PSNR)
    Basic$ \checkmark$3.2238/40.071
    H_Color$ \checkmark$$ \checkmark$2.8239/41.438
    H_CP$ \checkmark$$ \checkmark$$ \checkmark$2.8544/41.578
    H_Res$ \checkmark$$ \checkmark$$ \checkmark$2.9352/41.285
    HFFN-100$ \checkmark$$ \checkmark$$ \checkmark$$ \checkmark$2.7483/41.671
    下载: 导出CSV

    表  4  测试数据集A的客观对比结果 (RMSE)

    Table  4  Objective comparison results (RMSE) on test dataset A

    对比算法ArtBooksMoebius
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic2.663.343.905.501.081.391.632.360.851.081.291.89
    GF[6]3.633.844.145.491.491.591.732.351.251.321.421.91
    TGV[14]3.033.313.784.791.291.411.601.991.131.251.461.91
    JID[16]1.241.632.013.230.650.760.921.270.640.710.891.27
    SRCNN[17]2.483.053.715.281.031.261.582.300.811.031.231.84
    Huang[21]0.66/1.592.710.54/0.831.190.52/0.861.21
    MSG[25]0.66/1.472.460.37/0.671.030.36/0.661.02
    RDN-GDE[26]0.56/1.472.600.36/0.621.000.38/0.691.05
    MFR-SR[27]0.71/1.542.710.42/0.631.050.42/0.721.10
    PMBA[28]0.61/2.043.630.41/0.921.680.39/0.841.41
    DepthSR[29]0.530.891.202.220.420.560.600.89////
    HFFN0.410.841.282.290.280.370.490.870.310.450.570.89
    HFFN+0.380.811.242.190.270.360.470.840.300.440.550.85
    下载: 导出CSV

    表  6  测试数据集C的客观对比结果 (RMSE)

    Table  6  Objective comparison results (RMSE) on test dataset C

    对比算法TsukubaVenusTeddyCones
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic5.817.178.5612.31.321.641.912.761.992.482.904.072.453.063.605.30
    GF[6]8.128.639.4012.51.631.751.932.692.492.672.933.983.333.553.875.29
    TGV[14]7.207.7810.317.52.152.342.524.042.712.993.35.393.513.974.457.14
    JID[16]3.484.915.9510.90.80.911.171.761.281.532.942.761.692.424.175.11
    SRCNN[17]5.476.328.1111.81.271.431.852.671.882.252.773.952.342.523.435.15
    Huang[21]1.41/3.737.790.56/0.721.090.85/1.582.880.88/2.384.66
    MSG[25]1.85/4.298.420.14/0.351.040.71/1.492.760.90/2.604.23
    DepthSR[29]1.332.253.266.89////0.831.151.371.85////
    HFFN1.372.493.537.670.210.280.420.840.610.931.212.270.651.241.713.91
    HFFN+1.142.223.217.600.200.280.400.780.560.861.132.120.611.141.593.66
    下载: 导出CSV

    表  5  测试数据集B的客观对比结果 (RMSE)

    Table  5  Objective comparison results (RMSE) on test dataset B

    对比算法DollsLaundryReindeer
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic0.941.151.331.871.612.052.393.431.972.462.864.05
    GF[6]1.251.311.411.862.212.362.543.422.682.843.054.06
    TGV[14]1.121.211.361.861.992.222.513.762.402.562.713.79
    JID[16]0.700.790.921.260.750.941.212.080.921.211.562.58
    SRCNN[17]0.901.011.281.821.521.742.313.321.842.172.733.92
    Huang[21]0.58/0.911.310.52/0.921.520.59/1.111.80
    MSG[25]0.35/0.691.050.37/0.791.510.42/0.981.76
    RDN-GDE[26]0.56/0.881.210.48/0.961.630.51/1.172.05
    MFR-SR[27]0.60/0.891.220.61/1.111.750.65/1.232.06
    PMBA[28]0.36/0.951.470.38/1.142.190.40/1.392.74
    DepthSR[29]////0.440.620.781.310.510.770.961.57
    HFFN0.360.590.751.110.320.520.731.330.350.660.961.64
    HFFN+0.340.570.741.090.300.510.701.260.340.630.921.58
    下载: 导出CSV

    表  7  平均运行时间

    Table  7  Average running time

    对比算法时间 (s)对比算法时间 (s)
    Bicubic0.01MSG[25]0.29
    GF[6]0.13PMBA[28]0.46
    TGV[14]894.43DepthSR[29]1.84
    SRCNN[17]0.13HFFN0.21
    下载: 导出CSV
  • [1] Kopf J, Cohen M F, Lischinski D, Uyttendaele M. Joint bilateral upsampling. ACM Transactions on Graphics, 2007, 26(3): 96-es. doi: 10.1145/1276377.1276497
    [2] Liu M Y, Tuzel O, Taguchi Y. Joint geodesic upsampling of depth images. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE, 2013: 169−176
    [3] Lei J, Li L, Yue H, Wu F, Ling N, Hou C. Depth map super-resolution considering view synthesis quality. IEEE Transactions on Image Processing, 2017, 26(4): 1732-1745. doi: 10.1109/TIP.2017.2656463
    [4] 杨宇翔, 曾毓, 何志伟, 高明煜. 基于自适应权值滤波的深度图像超分辨率重建. 中国图象图形学报, 2014, 19(8): 1210-1218.

    Yang Yu-Xiang, Zeng Yu, He Zhi-Wei, Gao Ming-Yu. Depth map super-resolution via adaptive weighting filter. Journal of Image and Graphics, 2014, 19(8): 1210-1218.
    [5] Lu J, Forsyth D. Sparse depth super resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015: 2245−2253
    [6] He K, Sun J, Tang X. Guided image filtering. In: Proceedings of the European Conference on Computer Vision. Heraklion, Greece: Springer, 2010: 1−14
    [7] Barron J T, Poole B. The fast bilateral solver. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 617−632
    [8] Yang Y, Lee H S, Oh B T. Depth map upsampling with a confidence-based joint guided filter. Signal Processing: Image Communication, 2019, 77: 40-48. doi: 10.1016/j.image.2019.05.014
    [9] Diebel J, Thrun S. An application of Markov random fields to range sensing. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada: NIPS, 2006: 291−298
    [10] 安耀祖, 陆耀, 赵红. 一种自适应正则化的图像超分辨率算法. 自动化学报, 2012, 38(4): 601-608. doi: 10.3724/SP.J.1004.2012.00601

    An Yao-Zu, Lu Yao, Zhao Hong. An Adaptive-regularized Image Super-resolution. Acta Automatica Sinica, 2012, 38(4): 601-608. doi: 10.3724/SP.J.1004.2012.00601
    [11] Park J, Kim H, Tai Y W, Brown M S, Kweon I. High quality depth map upsampling for 3D-TOF cameras. In: Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 1623−1630
    [12] 严徐乐, 安平, 郑帅, 左一帆, 沈礼权. 基于边缘增强的深度图超分辨率重建[J]. 光电子·激光, 2016, 27(4): 437-447.

    Yan Xu-Le, An Ping, Zheng Shuai, Zuo Yi-Fan, Shen Li-Quan. Super-resolution reconstruction for depth map based on edge enhancement. Journal of Optoelectronics·Laser, 2016, 27(4): 437-447.
    [13] Yang J, Ye X, Li K, Hou C, Wang Y. Color-guided depth recovery from RGB-D data using an adaptive autoregressive model. IEEE Transactions on Image Processing, 2014, 23(8): 3443-3458. doi: 10.1109/TIP.2014.2329776
    [14] Ferstl D, Reinbacher C, Ranftl R, Ruether M, Bichof H. Image guided depth upsampling using anisotropic total generalized variation. In: Proceedings of the IEEE International Conference on Computer Vision. Sydney, Australia: IEEE, 2013: 993−1000
    [15] Li Y, Min D, Do M N, Lu J. Fast guided global interpolation for depth and motion. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 717−733
    [16] Kiechle M, Hawe S, Kleinsteuber M. A joint intensity and depth co-sparse analysis model for depth map super-resolution. In: Proceedings of the IEEE International Conference on Computer Vision. Sydney, Australia: IEEE, 2013: 1545−1552
    [17] Dong C, Loy C C, He K, Tang X. Learning a deep convolutional network for image super-resolution. In: Proceedings of the European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 184−199
    [18] Shi W, Caballero J, Huszár F, Totz J, Aitken A P, Bishop R et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 1874−1883
    [19] Lim B, Son S, Kim H, Nah S, Mu Lee K. Enhanced deep residual networks for single image super-resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Honolulu, USA: IEEE, 2017: 136−144
    [20] 周登文, 赵丽娟, 段然, 柴晓亮. 基于递归残差网络的图像超分辨率重建. 自动化学报, 2019, 45(6): 1157-1165.

    Zhou Deng-Wen, Zhao Li-Juan, Duan Ran, Chai Xiao-Liang. Image super-resolution based on recursive residual networks. Acta Automatica sinica, 2019, 45(6): 1157-1165.
    [21] 张毅锋, 刘袁, 蒋程, 程旭. 用于超分辨率重建的深度网络递进学习方法. 自动化学报, 2020, 46(2): 274-282.

    Zhang Yi-Feng, Liu Yuan, Jiang Cheng, Cheng Xu. A curriculum learning approach for single image super resolution. Acta Automatica Sinica, 2020, 46(2): 274-282.
    [22] Huang L, Zhang J, Zuo Y, Wu Q. Pyramid-structured depth map super-resolution based on deep dense-residual network. IEEE Signal Processing Letters, 2019, 26(12): 1723-1727. doi: 10.1109/LSP.2019.2944646
    [23] Song X, Dai Y, Zhou D, Liu L, Li W, Li H et al. Channel attention based iterative residual learning for depth map super-resolution. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 5631−5640
    [24] Zhao L, Bai H, Liang J, Zeng B, Wang A, Zhao Y. Simultaneous color-depth super-resolution with conditional generative adversarial networks. Pattern Recognition, 2019, 88: 356-369. doi: 10.1016/j.patcog.2018.11.028
    [25] Hui T W, Loy C C, Tang X. Depth map super-resolution by deep multi-scale guidance. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 353−369
    [26] Zuo Y, Fang Y, Yang Y, Shang X, Wang B. Residual dense network for intensity-guided depth map enhancement. Information Sciences, 2019, 495: 52-64. doi: 10.1016/j.ins.2019.05.003
    [27] Zuo Y, Wu Q, Fang Y, An P, Huang L Chen Z. Multi-scale frequency reconstruction for guided depth map super-resolution via deep residual network. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 30(2): 297-306.
    [28] Ye X, Sun B, Wang Z, Yang J, Xu R, Li H, Li B. PMBANet: Progressive multi-branch aggregation network for scene depth super-resolution. IEEE Transactions on Image Processing, 2020, 29: 7427-7442. doi: 10.1109/TIP.2020.3002664
    [29] Guo C, Li C, Guo J, Cong R, Fu H, Han P. Hierarchical features driven residual learning for depth map super-resolution. IEEE Transactions on Image Processing, 2018, 28(5): 2545-2557.
    [30] Kingma D P, Ba J. Adam: A method for stochastic optimization. In: Proceedings of the 3rd International Conference on Learning Representations. San Diego, CA, USA, 2015: 1−15
    [31] Scharstein D, Szeliski R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision, 2002, 47(1-3): 7-42.
    [32] Scharstein D, Pal C. Learning conditional random fields for stereo. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA: IEEE, 2007: 1−8
    [33] Scharstein D, Hirschmüller H, Kitajima Y, Krathwohl G, Nešić N, Wang X, et al. High-resolution stereo datasets with subpixel-accurate ground truth. In: Proceedings of the German Conference on Pattern Recognition. Münster, Germany: Springer, 2014: 31−42
    [34] Butler D J, Wulff J, Stanley G B, Black M J. A naturalistic open source movie for optical flow evaluation. In: Proceedings of the European Conference on Computer Vision. Florence, Italy: Springer, 2012: 611−625
    [35] Scharstein D, Szeliski R. High-accuracy stereo depth maps using structured light. In: Proceedings of the 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Madison, USA: IEEE, 2003, 1: I−I
    [36] Hirschmuller H, Scharstein D. Evaluation of cost functions for stereo matching. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA: IEEE, 2007: 1−8
    [37] Timofte R, Rothe R, Van Gool L. Seven ways to improve example-based single image super resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 1865−1873
  • 期刊类型引用(10)

    1. 江奎,王中元,黄文心,贾雪梅,王正,胡瑞敏. 一种基于降质学习的低光照图像增强方法. 小型微型计算机系统. 2025(02): 353-364 . 百度学术
    2. 江奕达,王明明. 基于量子生成对抗网络的数据重构. 计算机工程与应用. 2024(05): 156-164 . 百度学术
    3. 陈伟杰,黄国恒,莫非,林俊宇. 层次信息自适应聚合的图像超分辨率重建算法. 计算机工程与应用. 2024(05): 221-231 . 百度学术
    4. 王超学,代宁. 融合双分支语义增强感知的遥感图像超分辨率重建算法. 计算机科学与探索. 2024(05): 1271-1285 . 百度学术
    5. 张天霖,逄征,陈红珍,陈实,卞春江. 面向舰船目标识别的遥感图像超分辨率重建. 计算机工程与应用. 2024(13): 190-199 . 百度学术
    6. 刘美琴,姬厚国,白羽,姚超,赵耀. 基于雅可比动态逼近的图像去噪网络算法. 北京邮电大学学报. 2024(04): 63-70 . 百度学术
    7. 赵利军,王可,张晋京,张加龙,王安红. 深度图超分辨率重建研究综述. 计算机应用研究. 2023(06): 1621-1628+1640 . 百度学术
    8. 于玉,赵月. 基于多尺度残差的数字图像超分辨率重建算法. 吉林大学学报(信息科学版). 2023(05): 908-913 . 百度学术
    9. 杨宇翔 ,曹旗 ,高明煜 ,董哲康 . 基于多阶段多尺度彩色图像引导的道路场景深度图像补全. 电子与信息学报. 2022(11): 3951-3959 . 百度学术
    10. 赵雪静,李仁伟. 梯度方向一致性约束下的多级低照度图像超分辨率重建模型. 现代电子技术. 2022(23): 55-59 . 百度学术

    其他类型引用(8)

  • 加载中
图(7) / 表(7)
计量
  • 文章访问数:  2000
  • HTML全文浏览量:  558
  • PDF下载量:  309
  • 被引次数: 18
出版历程
  • 收稿日期:  2020-07-13
  • 修回日期:  2020-09-30
  • 网络出版日期:  2020-12-07
  • 刊出日期:  2022-04-13

目录

/

返回文章
返回