2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

分级特征反馈融合的深度图像超分辨率重建

张帅勇 刘美琴 姚超 林春雨 赵耀

王超, 刘侠, 董迪, 臧丽亚, 刘再毅, 梁长虹, 田捷. 基于影像组学的非小细胞肺癌淋巴结转移预测. 自动化学报, 2019, 45(6): 1087-1093. doi: 10.16383/j.aas.c160794
引用本文: 张帅勇, 刘美琴, 姚超, 林春雨, 赵耀. 分级特征反馈融合的深度图像超分辨率重建. 自动化学报, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542
WANG Chao, LIU Xia, DONG Di, ZANG Li-Ya, LIU Zai-Yi, LIANG Chang-Hong, TIAN Jie. Radiomics Based Lymph Node Metastasis Prediction in Non-small-cell Lung Cancer. ACTA AUTOMATICA SINICA, 2019, 45(6): 1087-1093. doi: 10.16383/j.aas.c160794
Citation: Zhang Shuai-Yong, Liu Mei-Qin, Yao Chao, Lin Chun-Yu, Zhao Yao. Hierarchical feature feedback network for depth super-resolution reconstruction. Acta Automatica Sinica, 2022, 48(4): 992−1003 doi: 10.16383/j.aas.c200542

分级特征反馈融合的深度图像超分辨率重建

doi: 10.16383/j.aas.c200542
基金项目: 国家自然科学基金(61972028, 61902022, U1936212), 国家重点研发计划(2018AAA0102100), 中央高校基本科研业务费(2019JBM018, FRF-TP-19-015A1)资助
详细信息
    作者简介:

    张帅勇:北京交通大学信息科学研究所硕士研究生. 主要研究方向为图像/视频超分辨率重建. E-mail: 19125150@bjtu.edu.cn

    刘美琴:北京交通大学信息科学研究所副教授. 主要研究方向为图像/视频编码, 三维视频处理. 本文通信作者. E-mail: mqliu@bjtu.edu.cn

    姚超:北京科技大学计算机与通信工程学院助理教授. 主要研究方向为图像和视频处理, 计算机视觉. E-mail: yaochao@ustb.edu.cn

    林春雨:北京交通大学信息科学研究所教授. 主要研究方向为图像视频编码, 三维视觉处理. E-mail: cylin@bjtu.edu.cn

    赵耀:北京交通大学信息科学研究所教授. 主要研究方向为图像编码,数字水印, 多媒体信息处理. E-mail: yzhao@bjtu.edu.cn

Hierarchical Feature Feedback Network for Depth Super-resolution Reconstruction

Funds: Supported by National Natural Science Foundation of China (61972028, 61902022, U1936212), National Key Research and Development of China (2018AAA0102100), and the Fundamental Research Funds for the Central Universities (2019JBM018, FRF-TP-19-015A1)
More Information
    Author Bio:

    ZHANG Shuai-Yong Master student at Institute of Information Science, Beijing Jiaotong University. His research interest covers image and video super resolution

    LIU Mei-Qin Assistant professor at Institute of Information Science, Beijing Jiaotong University. Her research interest covers image and video compression, three-dimension video processing. Corresponding author of this paper

    YAO Chao Assistant professor at School of Computer and Communication Engineering, University of Science and Technology Beijing. His research interest covers image and video processing, computer vision

    LIN Chun-Yu Professor at Institute of Information Science, Beijing Jiaotong University. His research interest covers image and video compression, three-dimension vision processing

    ZHAO Yao Professor at Institute of Information Science, Beijing Jiaotong University. His research interest covers image compression, digital watermarking, and multimedia information processing

  • 摘要: 受采集装置的限制, 采集的深度图像存在分辨率较低、易受噪声干扰等问题. 本文构建了分级特征反馈融合网络 (Hierarchical feature feedback network, HFFN), 以实现深度图像的超分辨率重建. 该网络利用金字塔结构挖掘深度−纹理特征在不同尺度下的分层特征, 构建深度−纹理的分层特征表示. 为了有效利用不同尺度下的结构信息, 本文设计了一种分级特征的反馈式融合策略, 综合深度−纹理的边缘特征, 生成重建深度图像的边缘引导信息, 完成深度图像的重建过程. 与对比方法相比, 实验结果表明HFNN网络提升了深度图像的主、客观重建质量.
  • 肺癌是世界范围内发病率和死亡率最高的疾病之一, 占所有癌症病发症的18 %左右[1].美国癌症社区统计显示, 80 %到85 %的肺癌为非小细胞肺癌[2].在该亚型中, 大多数病人会发生淋巴结转移, 在手术中需对转移的淋巴结进行清扫, 现阶段通常以穿刺活检的方式确定淋巴结的转移情况.因此, 以非侵入性的方式确定淋巴结的转移情况对临床治疗具有一定的指导意义[3-5].然而, 基本的诊断方法在无创淋巴结转移的预测上存在很大挑战.

    影像组学是针对医学影像的兴起的热门方法, 指通过定量医学影像来描述肿瘤的异质性, 构造大量纹理图像特征, 对临床问题进行分析决策[6-7].利用先进机器学习方法实现的影像组学已经大大提高了肿瘤良恶性的预测准确性[8].研究表明, 通过客观定量的描述影像信息, 并结合临床经验, 对肿瘤进行术前预测及预后分析, 将对临床产生更好的指导价值[9].

    本文采用影像组学的方法来解决非小细胞肺癌淋巴结转移预测的问题.通过利用套索逻辑斯特回归(Lasso logistics regression, LLR)[10]模型得出基本的非小细胞肺癌淋巴结的转移预测概率, 并把组学模型的预测概率作为独立的生物标志物, 与患者的临床特征一起构建多元Logistics预测模型并绘制个性化诺模图, 在临床决策中的起重要参考作用.

    我们收集了广东省人民医院2007年5月至2014年6月期间的717例肺癌病例.这些病人在签署知情同意书后, 自愿提供自己的信息作为研究使用.为了充分利用收集到的数据对非小细胞肺癌淋巴结转移预测, 即对$N1-N3$与$N0$进行有效区分, 我们对收集的数据设置了三个入组标准: 1)年龄大于等于18周岁, 此时的肺部已经发育完全, 消除一定的干扰因素; 2)病理诊断为非小细胞肺癌无其他疾病干扰, 并有完整的CT (Computed tomography)增强图像及个人基本信息; 3)有可利用的术前病理组织活检分级用于确定N分期.经筛选, 共564例病例符合进行肺癌淋巴结转移预测研究的要求(如图 1).

    图 1  数据筛选流程图
    Fig. 1  Data filtering flow chart

    为了得到有价值的结果, 考虑到数据的分配问题, 为了保证客观性, 防止挑数据的现象出现, 在数据分配上, 训练集与测试集将按照时间进行划分, 并以2013年1月为划分点.得到训练集: 400例, 其中, 243例正样本$N1-N3$, 157例负样本$N0$; 测试集: 164例, 其中, 93例正样本, 71例负样本.

    在进行特征提取工作前, 首先要对肿瘤病灶进行分割.医学图像分割的金标准是需要有经验的医生进行手动勾画的结果.但手动分割无法保证每次的分割结果完全一致, 且耗时耗力, 尤其是在数据量很大的情况下.因此, 手动分割不是最理想的做法.在本文中, 使用的自动图像分割算法为基于雪橇的自动区域生长分割算法[11], 该算法首先选定最大切片层的种子点, 这时一般情况下最大切片为中间层的切片, 然后估计肿瘤的大小即直径, 作为一个输入参数, 再自动进行区域生长得到每个切片的肿瘤如图 2(a1), (b1), 之后我们进行雪橇滑动到邻接的上下两个切面, 进行分割, 这样重复上述的区域生长即滑动切片, 最终分割得到多个切片的的肿瘤区域, 我们将肿瘤切面层进行组合, 得到三维肿瘤如图 2(a2), (b2).

    图 2  三维病灶的分割
    Fig. 2  3D tumor segmentation

    利用影像组学处理方法, 从分割得到的肿瘤区域中总共提取出386个特征.这些特征可分为四组:三维形状特征, 表面纹理特征, Gabor特征和小波特征[12-13].形状特征通过肿瘤体积、表面积、体积面积比等特征描述肿瘤在空间和平面上的信息.纹理特征通过统计三维不同方向上像素的规律, 通过不同的分布规律来表示肿瘤的异质性. Gabor特征指根据特定方向, 特定尺度筛选出来的纹理信息.

    小波特征是指原图像经过小波变换滤波器后的纹理特征.在模式识别范畴中, 高维特征会增加计算复杂度, 此外, 高维的特征往往存在冗余性, 容易造成模型过拟合.因此, 本位通过特征筛选方法首先对所有特征进行降维处理.

    本文采用$L$1正则化Lasso进行特征筛选, 对于简单线性回归模型定义为:

    $$ \begin{equation} f(x)=\sum\limits_{j=1}^p {w^jx^j} =w^\mathrm{T}x \end{equation} $$ (1)

    其中, $x$表示样本, $w$表示要拟合的参数, $p$表示特征的维数.

    要进行参数$w$学习, 应用二次损失来表示目标函数, 即:

    $$ \begin{equation} J(w)=\frac{1}{n}\sum\limits_{i=1}^n{(y_i-f(x_i)})^2= \frac{1}{n}\vert\vert\ {{y}-Xw\vert\vert}^2 \end{equation} $$ (2)

    其中, $X$是数据矩阵, $X=(x_1 , \cdots, x_n)^\mathrm{T}\in {\bf R}^{n\times p}$, ${y}$是由标签组成的列向量, ${y}=(y_1, \cdots, y_n )^\mathrm{T}$.

    式(2)的解析解为:

    $$ \begin{equation} \hat{w}=(X^\mathrm{T}X)^{-1}X^\mathrm{T}{y} \end{equation} $$ (3)

    然而, 若$p\gg n$, 即特征维数远远大于数据个数, 矩阵$X^\mathrm{T}X$将不是满秩的, 此时无解.

    通过Lasso正则化, 得到目标函数:

    $$ \begin{equation} J_L(w)=\frac{1}{n} \vert\vert{y}-Xw\vert\vert^2+\lambda\vert\vert w\vert\vert _1 \end{equation} $$ (4)

    目标函数最小化等价为:

    $$ \begin{equation} \mathop {\min }\limits_w \frac{1}{n} \vert\vert{y}-Xw\vert\vert^2, \, \, \, \, \, \, \, \mathrm{s.t.}\, \, \vert \vert w\vert \vert _1 \le C \end{equation} $$ (5)

    为了使部分特征排除, 本文采用$L$1正则方法进行压缩.二维情况下, 在$\mbox{(}w^1, w^2)$平面上可画出目标函数的等高线, 取值范围则为平面上半径为$C$的$L$1范数圆, 等高线与$L$1范数圆的交点为最优解. $L$1范数圆和每个坐标轴相交的地方都有"角''出现, 因此在角的位置将产生稀疏性.而在维数更高的情况下, 等高线与L1范数球的交点除角点之外还可能产生在很多边的轮廓线上, 同样也会产生稀疏性.对于式(5), 本位采用近似梯度下降(Proximal gradient descent)[14]算法进行参数$w$的迭代求解, 所构造的最小化函数为$Jl=\{g(w)+R(w)\}$.在每次迭代中, $Jl(w)$的近似计算方法如下:

    $$ \begin{align} J_L (w^t+d)&\approx \tilde {J}_{w^t} (d)=g(w^t)+\nabla g(w^t)^\mathrm{T}d\, +\nonumber\\ &\frac{1} {2d^\mathrm{T}(\frac{I }{ \alpha })d}+R(w^t+d)=\nonumber\\ &g(w^t)+\nabla g(w^t)^\mathrm{T}d+\frac{{d^\mathrm{T}d} } {2\alpha } +\nonumber\\ &R(w^t+d) \end{align} $$ (6)

    更新迭代$w^{(t+1)}\leftarrow w^t+\mathrm{argmin}_d \tilde {J}_{(w^t)} (d)$, 由于$R(w)$整体不可导, 因而利用子可导引理得:

    $$ \begin{align} w^{(t+1)}&=w^t+\mathop {\mathrm{argmin}} \nabla g(w^t)d^\mathrm{T}d\, +\nonumber\\ &\frac{d^\mathrm{T}d}{2\alpha }+\lambda \vert \vert w^t+d\vert \vert _1=\nonumber\\ &\mathrm{argmin}\frac{1 }{ 2}\vert \vert u-(w^t-\alpha \nabla g(w^t))\vert \vert ^2+\nonumber\\ &\lambda \alpha \vert \vert u\vert \vert _1 \end{align} $$ (7)

    其中, $S$是软阈值算子, 定义如下:

    $$ \begin{equation} S(a, z)=\left\{\begin{array}{ll} a-z, &a>z \\ a+z, &a<-z \\ 0, &a\in [-z, z] \\ \end{array}\right. \end{equation} $$ (8)

    整个迭代求解过程为:

    输入.数据$X\in {\bf R}^{n\times p}, {y}\in {\bf R}^n$, 初始化$w^{(0)}$.

    输出.参数$w^\ast ={\rm argmin}_w\textstyle{1 \over n}\vert \vert Xw-{y}\vert \vert ^2+\\ \lambda \vert\vert w\vert \vert _1 $.

    1) 初始化循环次数$t = 0$;

    2) 计算梯度$\nabla g=X^\mathrm{T}(Xw-{y})$;

    3) 选择一个步长大小$\alpha ^t$;

    4) 更新$w\leftarrow S(w-\alpha ^tg, \alpha ^t\lambda )$;

    5) 判断是否收敛或者达到最大迭代次数, 未收敛$t\leftarrow t+1$, 并循环2)$\sim$5)步.

    通过上述迭代计算, 最终得到最优参数, 而参数大小位于软区间中的, 将被置为零, 即被稀疏掉.

    本文使用LLR对组学特征进行降维并建模, 并使用10折交叉验证, 提高模型的泛化能力, 流程如图 3所示.

    图 3  淋巴结转移预测模型构造图
    Fig. 3  Structure of lymph node metastasis prediction model

    将本文使用的影像组学模型的预测概率(Radscore)作为独立的生物标志物, 并与临床指标中显著的特征结合构建多元Logistics模型, 绘制个性化预测的诺模图, 最后通过校正曲线来观察预测模型的偏移情况.

    我们分别在训练集和验证集上计算各个临床指标与淋巴结转移的单因素P值, 计算方式为卡方检验, 结果见表 1, 发现吸烟与否和EGFR (Epidermal growth factor receptor)基因突变状态与淋巴结转移显著相关.

    表 1  训练集和测试集病人的基本情况
    Table 1  Basic information of patients in the training set and test set
    基本项训练集($N=400$) $P$值测试集($N=164$) $P$值
    性别144 (36 %)0.89678 (47.6 %)0.585
    256 (64 %)86 (52.4 %)
    吸烟126 (31.5 %)0.030*45 (27.4 %)0.081
    274 (68.5 %)119 (72.6 %)
    EGFR缺失36 (9 %)4 (2.4 %)
    突变138 (34.5 %)$ < $0.001*67 (40.9 %)0.112
    正常226 (56.5 %)93 (56.7 %)
    下载: 导出CSV 
    | 显示表格

    影像组学得分是每个病人最后通过模型预测后的输出值, 随着特征数的动态变化, 模型输出的AUC (Area under curve)值也随之变化, 如图 4所示, 使用R语言的Glmnet库可获得模型的参数$\lambda $的变化图.图中直观显示了参数$\lambda $的变化对模型性能的影响, 这次实验中模型选择了3个变量.如图 5所示, 横坐标表示$\lambda $的变化, 纵坐标表示变量的系数变化, 当$\lambda $逐渐变大时, 变量的系数逐渐减少为零, 表示变量选择的过程, 当$\lambda $越大表示模型的压缩程度越大.

    图 4  $\lambda $与变量数目对应走势
    Fig. 4  The trend of the parameters and the number of variables
    图 5  系数随$\lambda $参数变化图
    Fig. 5  The coefficient changes with the parameters

    通过套索回归方法, 自动的将变量压缩为3个, 其性能从图 4中也可发现, 模型的AUC值为最佳, 最终的特征如表 2所示. $V0$为截距项; $V179$为横向小波分解90度共生矩阵Contrast特征; $V230$为横向小波分解90度共生矩阵Entropy特征.

    表 2  Lasso选择得到的参数
    Table 2  Parameters selected by Lasso
    Lasso选择的参数含义数值$P$值
    $V0$截距项2.079115
    $V179$横向小波分解90度共生矩阵Contrast特征(Contrast_2_90)0.0000087< 0.001***
    $V230$横向小波分解90度共生矩阵Entropy特征(Entropy_3_180)$-$3.573315< 0.001***
    $V591$表面积与体积的比例(Surface to volume ratio)$-$1.411426< 0.001***
    下载: 导出CSV 
    | 显示表格

    $V591$为表面积与体积的比例; 将三个组学特征与$N$分期进行单因素分析, 其$P$值都是小于0.05, 表示与淋巴结转移有显著相关性.根据Lasso选择后的三个变量建立Logistics模型并计算出Rad-score, 详见式(9).并且同时建立SVM (Support vector machine)模型.

    NB (Naive Bayesian)模型, 进行训练与预测, LLR模型训练集AUC为0.710, 测试集为0.712, 表现较优; 如表 3所示.将实验中使用的三个机器学习模型的结果进行对比, 可以发现, LLR的实验结果是最好的.

    表 3  不同方法对比结果
    Table 3  Comparison results of different methods
    方法训练集(AUC)测试集(AUC)召回率
    LLR0.7100.7120.75
    SVM0.6980.6540.75
    NB0.7180.6810.74
    下载: 导出CSV 
    | 显示表格
    $$ \begin{equation} \begin{aligned} &\text{Rad-score}=2.328373+{\rm Contrast}\_2\_90\times\\ &\qquad 0.0000106 -{\rm entropy}\_3\_180\times 3.838207 +\\ &\qquad\text{Maximum 3D diameter}\times 0.0000002 -\\ &\qquad\text{Surface to volume ratio}\times 1.897416 \\ \end{aligned} \end{equation} $$ (9)

    为了体现诺模图的临床意义, 融合Rad-score, 吸烟情况和EGFR基因因素等有意义的变量进行分析, 绘制出个性化预测的诺模图, 如图 7所示.为了给每个病人在最后得到一个得分, 需要将其对应变量的得分进行相加, 然后在概率线找到对应得分的概率, 从而实现非小细胞肺癌淋巴结转移的个性化预测.我们通过一致性指数(Concordance index, $C$-index)对模型进行了衡量, 其对应的$C$-index为0.724.

    图 6  测试集ROC曲线
    Fig. 6  ROC curve of test set
    图 7  验证诺模图
    Fig. 7  Verifies the nomogram

    本文中使用校正曲线来验证诺模图的预测效果, 如图 8所示, 由校正曲线可以看出, 预测结果基本上没有偏离真实标签的结果, 表现良好, 因此, 该模型具有可靠的预测性能[15].

    图 8  一致性曲线
    Fig. 8  Consistency curves

    在构建非小细胞肺癌淋巴结转移的预测模型中, 使用LLR筛选组学特征并构建组学标签, 并与显著的临床特征构建多元Logistics模型, 绘制个性化预测的诺模图.其中LLR模型在训练集上的AUC值为0.710, 在测试集上的AUC值为0.712, 利用多元Logistics模型绘制个性化预测的诺模图, 得到模型表现能力$C$-index为0.724 (95 % CI: 0.678 $\sim$ 0.770), 并且在校正曲线上表现良好, 所以个性化预测的诺模图在临床决策上可起重要参考意义.[16].

  • 图  1  分级特征反馈融合网络

    Fig.  1  Hierarchical feature feedback network

    图  2  深度−纹理反馈式融合模块

    Fig.  2  Depth-Color feedback fusion module

    图  3  特征重建结果

    Fig.  3  Feature reconstruction results

    图  4  “Art”的视觉质量对比结果

    Fig.  4  Visual quality comparison results of “Art”

    图  5  各算法重建“Books”的RMSE值走势图

    Fig.  5  The trend of the RMSE for “Books”

    图  6  $ 4\times $尺度下测试图片“Art”的视觉质量对比结果

    Fig.  6  Visual quality comparison results of “Art” at scale $ 4\times $

    图  7  $ 8\times $尺度下测试图片“Laundry”的视觉质量对比结果

    Fig.  7  Visual quality comparison results of “Laundry” at scale $ 8\times $

    表  1  残差块数目对HFFN网络性能的影响

    Table  1  Influence of the number of residual blocks on the performance of HFFN

    网络模型H_R3H_R5H_R7H_R10
    训练时间(h)33.84.45.4
    模型参数(M)2.672.963.263.70
    重建结果(dB)48.1448.2348.4548.54
    下载: 导出CSV

    表  2  金字塔层数对HFFN网络性能的影响

    Table  2  Influence of pyramid layers on the performance of HFFN

    网络模型H_P2H_ P3H_ P4
    训练时间(h)3.63.88.6
    模型参数(M)1.622.968.34
    重建结果(dB)48.0448.2448.32
    下载: 导出CSV

    表  3  消融分析结果

    Table  3  Results of ablation study

    网络纹理分层深层融合结果(RMSE/PSNR)
    Basic$ \checkmark$3.2238/40.071
    H_Color$ \checkmark$$ \checkmark$2.8239/41.438
    H_CP$ \checkmark$$ \checkmark$$ \checkmark$2.8544/41.578
    H_Res$ \checkmark$$ \checkmark$$ \checkmark$2.9352/41.285
    HFFN-100$ \checkmark$$ \checkmark$$ \checkmark$$ \checkmark$2.7483/41.671
    下载: 导出CSV

    表  4  测试数据集A的客观对比结果 (RMSE)

    Table  4  Objective comparison results (RMSE) on test dataset A

    对比算法ArtBooksMoebius
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic2.663.343.905.501.081.391.632.360.851.081.291.89
    GF[6]3.633.844.145.491.491.591.732.351.251.321.421.91
    TGV[14]3.033.313.784.791.291.411.601.991.131.251.461.91
    JID[16]1.241.632.013.230.650.760.921.270.640.710.891.27
    SRCNN[17]2.483.053.715.281.031.261.582.300.811.031.231.84
    Huang[21]0.66/1.592.710.54/0.831.190.52/0.861.21
    MSG[25]0.66/1.472.460.37/0.671.030.36/0.661.02
    RDN-GDE[26]0.56/1.472.600.36/0.621.000.38/0.691.05
    MFR-SR[27]0.71/1.542.710.42/0.631.050.42/0.721.10
    PMBA[28]0.61/2.043.630.41/0.921.680.39/0.841.41
    DepthSR[29]0.530.891.202.220.420.560.600.89////
    HFFN0.410.841.282.290.280.370.490.870.310.450.570.89
    HFFN+0.380.811.242.190.270.360.470.840.300.440.550.85
    下载: 导出CSV

    表  6  测试数据集C的客观对比结果 (RMSE)

    Table  6  Objective comparison results (RMSE) on test dataset C

    对比算法TsukubaVenusTeddyCones
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic5.817.178.5612.31.321.641.912.761.992.482.904.072.453.063.605.30
    GF[6]8.128.639.4012.51.631.751.932.692.492.672.933.983.333.553.875.29
    TGV[14]7.207.7810.317.52.152.342.524.042.712.993.35.393.513.974.457.14
    JID[16]3.484.915.9510.90.80.911.171.761.281.532.942.761.692.424.175.11
    SRCNN[17]5.476.328.1111.81.271.431.852.671.882.252.773.952.342.523.435.15
    Huang[21]1.41/3.737.790.56/0.721.090.85/1.582.880.88/2.384.66
    MSG[25]1.85/4.298.420.14/0.351.040.71/1.492.760.90/2.604.23
    DepthSR[29]1.332.253.266.89////0.831.151.371.85////
    HFFN1.372.493.537.670.210.280.420.840.610.931.212.270.651.241.713.91
    HFFN+1.142.223.217.600.200.280.400.780.560.861.132.120.611.141.593.66
    下载: 导出CSV

    表  5  测试数据集B的客观对比结果 (RMSE)

    Table  5  Objective comparison results (RMSE) on test dataset B

    对比算法DollsLaundryReindeer
    $ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $$ 2\times $$ 3\times $$ 4\times $$ 8\times $
    Bicubic0.941.151.331.871.612.052.393.431.972.462.864.05
    GF[6]1.251.311.411.862.212.362.543.422.682.843.054.06
    TGV[14]1.121.211.361.861.992.222.513.762.402.562.713.79
    JID[16]0.700.790.921.260.750.941.212.080.921.211.562.58
    SRCNN[17]0.901.011.281.821.521.742.313.321.842.172.733.92
    Huang[21]0.58/0.911.310.52/0.921.520.59/1.111.80
    MSG[25]0.35/0.691.050.37/0.791.510.42/0.981.76
    RDN-GDE[26]0.56/0.881.210.48/0.961.630.51/1.172.05
    MFR-SR[27]0.60/0.891.220.61/1.111.750.65/1.232.06
    PMBA[28]0.36/0.951.470.38/1.142.190.40/1.392.74
    DepthSR[29]////0.440.620.781.310.510.770.961.57
    HFFN0.360.590.751.110.320.520.731.330.350.660.961.64
    HFFN+0.340.570.741.090.300.510.701.260.340.630.921.58
    下载: 导出CSV

    表  7  平均运行时间

    Table  7  Average running time

    对比算法时间 (s)对比算法时间 (s)
    Bicubic0.01MSG[25]0.29
    GF[6]0.13PMBA[28]0.46
    TGV[14]894.43DepthSR[29]1.84
    SRCNN[17]0.13HFFN0.21
    下载: 导出CSV
  • [1] Kopf J, Cohen M F, Lischinski D, Uyttendaele M. Joint bilateral upsampling. ACM Transactions on Graphics, 2007, 26(3): 96-es. doi: 10.1145/1276377.1276497
    [2] Liu M Y, Tuzel O, Taguchi Y. Joint geodesic upsampling of depth images. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE, 2013: 169−176
    [3] Lei J, Li L, Yue H, Wu F, Ling N, Hou C. Depth map super-resolution considering view synthesis quality. IEEE Transactions on Image Processing, 2017, 26(4): 1732-1745. doi: 10.1109/TIP.2017.2656463
    [4] 杨宇翔, 曾毓, 何志伟, 高明煜. 基于自适应权值滤波的深度图像超分辨率重建. 中国图象图形学报, 2014, 19(8): 1210-1218.

    Yang Yu-Xiang, Zeng Yu, He Zhi-Wei, Gao Ming-Yu. Depth map super-resolution via adaptive weighting filter. Journal of Image and Graphics, 2014, 19(8): 1210-1218.
    [5] Lu J, Forsyth D. Sparse depth super resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015: 2245−2253
    [6] He K, Sun J, Tang X. Guided image filtering. In: Proceedings of the European Conference on Computer Vision. Heraklion, Greece: Springer, 2010: 1−14
    [7] Barron J T, Poole B. The fast bilateral solver. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 617−632
    [8] Yang Y, Lee H S, Oh B T. Depth map upsampling with a confidence-based joint guided filter. Signal Processing: Image Communication, 2019, 77: 40-48. doi: 10.1016/j.image.2019.05.014
    [9] Diebel J, Thrun S. An application of Markov random fields to range sensing. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada: NIPS, 2006: 291−298
    [10] 安耀祖, 陆耀, 赵红. 一种自适应正则化的图像超分辨率算法. 自动化学报, 2012, 38(4): 601-608. doi: 10.3724/SP.J.1004.2012.00601

    An Yao-Zu, Lu Yao, Zhao Hong. An Adaptive-regularized Image Super-resolution. Acta Automatica Sinica, 2012, 38(4): 601-608. doi: 10.3724/SP.J.1004.2012.00601
    [11] Park J, Kim H, Tai Y W, Brown M S, Kweon I. High quality depth map upsampling for 3D-TOF cameras. In: Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 1623−1630
    [12] 严徐乐, 安平, 郑帅, 左一帆, 沈礼权. 基于边缘增强的深度图超分辨率重建[J]. 光电子·激光, 2016, 27(4): 437-447.

    Yan Xu-Le, An Ping, Zheng Shuai, Zuo Yi-Fan, Shen Li-Quan. Super-resolution reconstruction for depth map based on edge enhancement. Journal of Optoelectronics·Laser, 2016, 27(4): 437-447.
    [13] Yang J, Ye X, Li K, Hou C, Wang Y. Color-guided depth recovery from RGB-D data using an adaptive autoregressive model. IEEE Transactions on Image Processing, 2014, 23(8): 3443-3458. doi: 10.1109/TIP.2014.2329776
    [14] Ferstl D, Reinbacher C, Ranftl R, Ruether M, Bichof H. Image guided depth upsampling using anisotropic total generalized variation. In: Proceedings of the IEEE International Conference on Computer Vision. Sydney, Australia: IEEE, 2013: 993−1000
    [15] Li Y, Min D, Do M N, Lu J. Fast guided global interpolation for depth and motion. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 717−733
    [16] Kiechle M, Hawe S, Kleinsteuber M. A joint intensity and depth co-sparse analysis model for depth map super-resolution. In: Proceedings of the IEEE International Conference on Computer Vision. Sydney, Australia: IEEE, 2013: 1545−1552
    [17] Dong C, Loy C C, He K, Tang X. Learning a deep convolutional network for image super-resolution. In: Proceedings of the European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 184−199
    [18] Shi W, Caballero J, Huszár F, Totz J, Aitken A P, Bishop R et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 1874−1883
    [19] Lim B, Son S, Kim H, Nah S, Mu Lee K. Enhanced deep residual networks for single image super-resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Honolulu, USA: IEEE, 2017: 136−144
    [20] 周登文, 赵丽娟, 段然, 柴晓亮. 基于递归残差网络的图像超分辨率重建. 自动化学报, 2019, 45(6): 1157-1165.

    Zhou Deng-Wen, Zhao Li-Juan, Duan Ran, Chai Xiao-Liang. Image super-resolution based on recursive residual networks. Acta Automatica sinica, 2019, 45(6): 1157-1165.
    [21] 张毅锋, 刘袁, 蒋程, 程旭. 用于超分辨率重建的深度网络递进学习方法. 自动化学报, 2020, 46(2): 274-282.

    Zhang Yi-Feng, Liu Yuan, Jiang Cheng, Cheng Xu. A curriculum learning approach for single image super resolution. Acta Automatica Sinica, 2020, 46(2): 274-282.
    [22] Huang L, Zhang J, Zuo Y, Wu Q. Pyramid-structured depth map super-resolution based on deep dense-residual network. IEEE Signal Processing Letters, 2019, 26(12): 1723-1727. doi: 10.1109/LSP.2019.2944646
    [23] Song X, Dai Y, Zhou D, Liu L, Li W, Li H et al. Channel attention based iterative residual learning for depth map super-resolution. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 5631−5640
    [24] Zhao L, Bai H, Liang J, Zeng B, Wang A, Zhao Y. Simultaneous color-depth super-resolution with conditional generative adversarial networks. Pattern Recognition, 2019, 88: 356-369. doi: 10.1016/j.patcog.2018.11.028
    [25] Hui T W, Loy C C, Tang X. Depth map super-resolution by deep multi-scale guidance. In: Proceedings of the European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016: 353−369
    [26] Zuo Y, Fang Y, Yang Y, Shang X, Wang B. Residual dense network for intensity-guided depth map enhancement. Information Sciences, 2019, 495: 52-64. doi: 10.1016/j.ins.2019.05.003
    [27] Zuo Y, Wu Q, Fang Y, An P, Huang L Chen Z. Multi-scale frequency reconstruction for guided depth map super-resolution via deep residual network. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 30(2): 297-306.
    [28] Ye X, Sun B, Wang Z, Yang J, Xu R, Li H, Li B. PMBANet: Progressive multi-branch aggregation network for scene depth super-resolution. IEEE Transactions on Image Processing, 2020, 29: 7427-7442. doi: 10.1109/TIP.2020.3002664
    [29] Guo C, Li C, Guo J, Cong R, Fu H, Han P. Hierarchical features driven residual learning for depth map super-resolution. IEEE Transactions on Image Processing, 2018, 28(5): 2545-2557.
    [30] Kingma D P, Ba J. Adam: A method for stochastic optimization. In: Proceedings of the 3rd International Conference on Learning Representations. San Diego, CA, USA, 2015: 1−15
    [31] Scharstein D, Szeliski R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision, 2002, 47(1-3): 7-42.
    [32] Scharstein D, Pal C. Learning conditional random fields for stereo. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA: IEEE, 2007: 1−8
    [33] Scharstein D, Hirschmüller H, Kitajima Y, Krathwohl G, Nešić N, Wang X, et al. High-resolution stereo datasets with subpixel-accurate ground truth. In: Proceedings of the German Conference on Pattern Recognition. Münster, Germany: Springer, 2014: 31−42
    [34] Butler D J, Wulff J, Stanley G B, Black M J. A naturalistic open source movie for optical flow evaluation. In: Proceedings of the European Conference on Computer Vision. Florence, Italy: Springer, 2012: 611−625
    [35] Scharstein D, Szeliski R. High-accuracy stereo depth maps using structured light. In: Proceedings of the 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Madison, USA: IEEE, 2003, 1: I−I
    [36] Hirschmuller H, Scharstein D. Evaluation of cost functions for stereo matching. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA: IEEE, 2007: 1−8
    [37] Timofte R, Rothe R, Van Gool L. Seven ways to improve example-based single image super resolution. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016: 1865−1873
  • 期刊类型引用(14)

    1. 王圣洁,刘乾义,文超,李忠灿,田文华. 考虑致因的初始晚点影响列车数预测模型研究. 综合运输. 2024(02): 105-110 . 百度学术
    2. 刘鲁岳,肖宝弟,岳丽丽. 基于改进RF-XGBoost算法的列车运行晚点预测研究. 铁道标准设计. 2023(03): 38-43 . 百度学术
    3. 李建民,许心越,丁忻. 基于多阶段特征优选的高速铁路列车晚点预测模型. 中国铁道科学. 2023(04): 219-229 . 百度学术
    4. 林鹏,田宇,袁志明,张琦,董海荣,宋海锋,阳春华. 高速铁路信号系统运维分层架构模型研究. 自动化学报. 2022(01): 152-161 . 本站查看
    5. 文超,李津,李忠灿,智利军,田锐,宋邵杰. 机器学习在铁路列车调度调整中的应用综述. 交通运输工程与信息学报. 2022(01): 1-14 . 百度学术
    6. 张芸鹏,朱志强,王子维. 高速铁路行车调度作业风险管控信息系统设计研究. 铁道运输与经济. 2022(03): 47-52+59 . 百度学术
    7. 张红斌,李军,陈亚茹. 京沪高铁列车运行晚点预测方法研究. 铁路计算机应用. 2022(05): 1-6 . 百度学术
    8. 俞胜平,韩忻辰,袁志明,崔东亮. 基于策略梯度强化学习的高铁列车动态调度方法. 控制与决策. 2022(09): 2407-2417 . 百度学术
    9. 唐涛,甘婧. 基于国内外铁路运营数据的列车运行时间预测模型. 中国安全科学学报. 2022(06): 123-130 . 百度学术
    10. 刘睿,徐传玲,文超. 基于马尔科夫链的高铁列车连带晚点横向传播. 铁道科学与工程学报. 2022(10): 2804-2812 . 百度学术
    11. 廖璐,张亚东,葛晓程,郭进,禹倩. 基于GBDT的列车晚点时长预测模型研究. 铁道标准设计. 2021(08): 149-154+176 . 百度学术
    12. 闫璐,张琦,王荣笙,丁舒忻. 基于动力学特性的列车运行态势分析. 铁道运输与经济. 2021(08): 64-70 . 百度学术
    13. 张俊,张欣愉,叶玉玲. 高速铁路非正常事件下初始延误场景聚类研究. 物流科技. 2021(06): 1-4+9 . 百度学术
    14. 徐传玲,文超,胡瑞,冯永泰. 高速铁路列车连带晚点产生机理及其判定. 交通运输工程与信息学报. 2020(04): 31-37 . 百度学术

    其他类型引用(28)

  • 加载中
图(7) / 表(7)
计量
  • 文章访问数:  2008
  • HTML全文浏览量:  562
  • PDF下载量:  310
  • 被引次数: 42
出版历程
  • 收稿日期:  2020-07-13
  • 修回日期:  2020-09-30
  • 网络出版日期:  2020-12-07
  • 刊出日期:  2022-04-13

目录

/

返回文章
返回