2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于线性化核标签融合的脑MR图像分割方法

刘悦 魏颖 贾晓甜 王楚媛

高迎彬, 孔祥玉, 崔巧花, 侯立安.主子空间跟踪信息准则及算法.自动化学报, 2020, 46(10): 2214-2220 doi: 10.16383/j.aas.c180141
引用本文: 刘悦, 魏颖, 贾晓甜, 王楚媛.基于线性化核标签融合的脑MR图像分割方法.自动化学报, 2020, 46(12): 2593−2606 doi: 10.16383/j.aas.c180407
Gao Ying-Bin, Kong Xiang-Yu, Cui Qiao-Hua, Hou Li-An. Principal subspace tracking information criterion and algorithm. Acta Automatica Sinica, 2020, 46(10): 2214-2220 doi: 10.16383/j.aas.c180141
Citation: Liu Yue, Wei Ying, Jia Xiao-Tian, Wang Chu-Yuan. Linearized kernel-based label fusion method for brain MR image segmentation. Acta Automatica Sinica, 2020, 46(12): 2593−2606 doi: 10.16383/j.aas.c180407

基于线性化核标签融合的脑MR图像分割方法

doi: 10.16383/j.aas.c180407
基金项目: 

国家自然科学基金 61871106

详细信息
    作者简介:

    刘悦  东北大学信息科学与工程学院博士研究生.主要研究方向为图像处理, 计算机视觉与模式识别. E-mail: 18512478164@163.com

    贾晓甜  东北大学信息科学与工程学院模式识别与智能系统专业硕士研究生.主要研究方向为模式识别与图像处理. E-mail: jxt_neu@163.com

    王楚媛  东北大学信息科学与工程学院模式识别与智能系统专业硕士研究生.主要研究方向为模式识别与图像处理. E-mail: wangchuyuan0718@163.com

    通讯作者:

    魏颖  东北大学信息科学与工程学院教授.主要研究方向为图像处理与模式识别, 医学影像计算与分析, 计算机辅助诊断, 计算机视觉.本文通信作者. E-mail: weiying@ise.neu.edu.cn

Linearized Kernel-Based Label Fusion Method for Brain MR Image Segmentation

Funds: 

National Natural Science Foundation of China 61871106

More Information
    Author Bio:

    LIU Yue  Ph. D. candidate at the College of Information Science and Engineering, Northeastern University. Her research interest covers image processing, computer vision, and pattern recognition

    JIA Xiao-Tian  Master student of science in pattern recognition and intelligent systems at the College of Information Science and Engineering, Northeastern University. Her research interest covers pattern recognition and image processing

    WANG Chu-Yuan  Master student of Science in Pattern Recognition and Intelligent Systems at the College of Information Science and Engineering, Northeastern University. Her research interest covers pattern recognition and image processing

    Corresponding author: WEI Ying  Professor at the College of Information Science and Engineering, Northeastern University. Her research interest covers image processing and pattern recognition, medical image computation and analysis, computeraided diagnosis, and computer vision. Corresponding author of this paper
  • 摘要: 深层脑结构的形态变化和神经退行性疾病相关, 对脑MR图像中的深层脑结构分割有助于分析各结构的形态变化.多图谱融合方法利用图谱图像中的先验信息, 为脑结构分割提供了一种有效的方法.大部分现有多图谱融合方法仅以灰度值作为特征, 然而深层脑结构灰度分布之间重叠的部分较多, 且边缘不明显.为克服上述问题, 本文提出一种基于线性化核多图谱融合的脑MR图像分割方法.首先, 结合纹理与灰度双重特征, 形成增强特征用于更好地表达脑结构信息.其次, 引入核方法, 通过高维映射捕获原始空间中特征的非线性结构, 增强数据间的判别性和线性相似性.最后, 利用Nyström方法, 对高维核矩阵进行估计, 通过特征值分解计算虚样本, 并在核标签融合过程中利用虚样本替代高维样本, 大大降低了核标签融合的计算复杂度.在三个公开数据集上的实验结果表明, 本文方法在较少的时间消耗内, 提高了分割精度.
    Recommended by Associate Editor ZHANG Dao-Qiang
  • 在信息处理领域, 通常将信号自相关矩阵最大特征值对应的特征向量称之为信号的主成分, 而由信号的多个主成分张成的空间称为信号的主子空间.在很多信号处理问题中, 需要对信号的主子空间进行在线跟踪, 如视觉跟踪[1]、波达方向估计[2]、图像处理[3]、谱分析[4]等领域.因此, 发展主子空间跟踪算法就成为了一件非常有意义的工作.

    以往解决主子空间跟踪问题主要依靠矩阵特征值分解(Eigenvalue decomposition, EVD)和奇异值分解(Singular value decomposition, SVD)等, 然而该方法计算复杂度高, 而且难以满足实时信号处理的要求.为了克服这些缺点, 学者们提出了基于Hebbian神经网络的主子空间跟踪方法.相比传统的EVD和SVD方法, 神经网络方法具有以下3个方面的优点: 1)可以对输入信号的自相关矩阵进行在线估计; 2)算法的计算复杂度较低; 3)能够处理非平稳的随机信号[4].基于上述优势, 神经网络方法已经成为近些年来国际上的一个研究热点.

    基于单层线性神经网络, Oja提出了著名的Oja算法[5], 然而Oja算法是一个单维主成分提取算法.为了能够实现对信号主子空间的跟踪, 学者们通过对Oja算法进行了改进提出了很多算法, 如FDPM (Fast data projection method)算法[6]、SOOJA (Stable and orthonormal OJA algorithm)算法[7]、SDPM (Stable DPM algorithm)算法[8]等, 然而上述算法大多是基于启发式推理提出来的, 而并没有建立相对应的信息准则.由于信息准则在算法发展中具有很重要的意义[9], 因此研究主子空间准则是一件非常有意义的工作.在文献[10]中, 基于最小均方误差(Least mean squared error, LMSE)准则, Yang提出了投影近似子空间跟踪算法(Projection approximation subspace tracking, PAST); 此后, Miao等提出了NIC (Novel information criterion)准则[11], 并分别导出了梯度和递归型主子空间跟踪算法; 基于Rayleigh商函数, Kong等提出了UIC (Unified information criterion)准则[12], 仿真实验表明基于UIC准则导出的算法具有很快的收敛速度.目前, 发展主子空间跟踪准则仍然具有很强的研究价值.

    本文将提出一种新型的主子空间跟踪信息准则, 并通过梯度法导出快速的主子空间跟踪算法.论文的结构安排如下:第1节是提出一种新的主子空间信息准则; 第2节是对所提信息准则进行前景分析; 第3节主要是采用梯度上升法导出主子空间算法; 第4节通过两组仿真实验对所提算法的性能进行验证; 本文的结论在第5节.

    考虑一个具有如下形式的多输入多输出线性神经网络模型:

    $$ \begin{equation} {\pmb{y}} = {{W}^{\rm T}}{\pmb{x}} \end{equation} $$ (1)

    其中, $ {W} = [{\pmb {w}_1}, {\pmb {w}_2}, \cdots , {\pmb {w}_r}] \in {{\bf {R}}^{n \times r}} $是神经网络的权矩阵, $ {\pmb {w}_i} $是权矩阵$ {W} $的第$ i $列; $ {\pmb{x}} \in {{\bf {R}}^{n \times 1}} $是采样信号, 这里作为神经网络的输入; $ {\pmb{y}} \in {{\bf {R}}^{r \times 1}} $为采样信号的低维表示, $ r $是子空间的维数.本文的目的就是构造合适的神经网络权矩阵迭代更新方程, 使神经网络的权矩阵最终能够收敛到采样信号的主子空间.

    基于上述神经网络模型, 给定域$ \Omega = \{ {W}|0 < {{W}^{\rm T}}{RW} < \infty , {{W}^{\rm T}}{W} \ne 0\} $, 提出如下信息准则:

    $$ \begin{align} {{W}^*} = \, & {\rm{arg}}{\kern 1pt} \mathop {\max }\limits_{{W} \in \Omega } J({W})\\& J({W}) = \frac{1}{2}{\rm tr}\left[ {({{W}^{\rm T}}{RW}){{({{W}^{\rm T}}{W})}^{ - 1}}} \right]+\\& \frac{1}{2}{\rm tr}\left[ {\ln ({{W}^{\rm T}}{W}) - {{W}^{\rm T}}{W}} \right] \end{align} $$ (2)

    其中, $ {{R}} = {\rm E}[{{\pmb {xx}}}_{}^{\rm T}] $为采样信号的自相关矩阵.根据矩阵理论可得:矩阵$ {{R}} $是一个对称的正定矩阵, 且特征值均是非负的.对矩阵$ {{R}} $特征值分解得:

    $$ \begin{equation} {{R}} = {{U\Lambda }}{{{U}}^{\rm T}} \end{equation} $$ (3)

    其中, $ {{U}} = [{{\pmb {u}}_1}, {{\pmb {u}}_2}, \cdots , {{\pmb {u}}_n}] $是由矩阵$ {{R}} $的特征向量构成的矩阵, $ {{\Lambda }} = {\rm {\rm {\rm diag}}}\{{\lambda _1}, {\lambda _2}, \cdots , {\lambda _n}\} $是由矩阵$ {{R}} $的特征值组成.为了后续使用方便, 这里将特征值按降序进行排列, 即特征值满足如下方程:

    $$ \begin{equation} {\lambda _1} > {\lambda _2} > \cdots > {\lambda _r} > \cdots > {\lambda _n} > 0 \end{equation} $$ (4)

    根据主子空间的定义可知特征值$ {\lambda _1}, {\lambda _2}, \cdots , {\lambda _r} $所对应的特征向量张成的子空间称为输入信号的主子空间.从式(2)可得$ J({W}) $是无下界的, 且当$ {W} $趋于无穷大时, $ J({W}) $将趋于负无穷大, 因此研究$ J({W}) $的极小值是没有任何意义的.实际上, 我们关心的是$ J({W}) $的极大点.具体说来, 我们关心以下几个问题:

    1) $ J({W}) $有没有全局极大点?

    2) $ J({W}) $的全局极大点与信号的主子空间之间的关系是什么?

    3) $ J({W}) $有没有其他局部极值?

    上述三个问题的回答将由下在一节中完成.

    信息准则(2)的全局最优值分析通过定理1和定理2来完成.

    定理1.  在域$ \Omega = \{ {W}|0 < {{W}^{\rm T}}{RW} < \infty , {{W}^{\rm T}}{W} \ne 0\} $内, 当且仅当$ {W} = {{{U'}}_r}{{Q}} $时, 权矩阵$ {W} $是信息准则$ J({W}) $的一个平稳点, 其中$ {{{U'}}_r} = [{{\pmb {u}}_{j1}}, {{\pmb {u}}_{j2}}, \cdots , {{\pmb {u}}_{jr}}] $是由自相关矩阵$ {{R}} $的任意$ r $个特征向量构成的矩阵, $ {{Q}} $是任意一个$ r \times r $维正交矩阵.

    将$ {{R}} $的特征向量作为空间$ {{\bf{R}}^{n \times n}} $的一组正交基, 则权矩阵$ {W} $可以表示为: $ {W} = {{{U}}^{\rm T}}{{\tilde W}} $, 其中$ {{\tilde W}} \in {{\bf {R}}^{n \times r}} $称为系数矩阵.将这一结果代入式(2)可得:

    $$ \begin{align} {{{{\tilde W}}}^*} = \, & {\rm{arg}}{\kern 1pt} \mathop {\max }\limits_{{W} \in \Omega } E({{\tilde W}})\\ E({{\tilde W}}) = \, & \frac{1}{2}{\rm tr}[({{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}}){({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}}]+\\& \frac{1}{2}{\rm tr}[\ln ({{{{\tilde W}}}^{\rm T}}{{\tilde W}}) - {{{{\tilde W}}}^{\rm T}}{{\tilde W}}] \end{align} $$ (5)

    显然式(2)和式(5)是等价的, 即定理1的证明是可以通过对下述推论的证明来完成.

    推论1.   在域$ \tilde \Omega = \left\{ {{{\tilde W}}|0 < {{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} < \infty} \right. $, $ \left. { {{{{\tilde W}}}^{\rm T}}{{\tilde W}} \ne 0} \right\} $中, 当且仅当$ {{\tilde W}} = {{{P}}_r}{{Q}} $时, $ {{\tilde W}} $是$ E({{\tilde W}}) $的一个平稳点, 其中$ {{{P}}_r} \in {{ {R}}^{n \times r}} $是任意一个$ n \times r $维置换矩阵.

    证明参见附录A.

    定理2.   在域$ \Omega $内, 当且仅当$ {W} = {{{\tilde U}}_r}{{Q}} $时, 其中$ {{{\tilde U}}_r} = [{{\pmb {u}}_1}, {{\pmb {u}}_2}, \cdots , {{\pmb {u}}_r}] $是由自相关矩阵$ {{R}} $的前$ r $个特征向量构成的矩阵且$ {{Q}} $是任意一个$ r \times r $维正交矩阵, 信息准则$ J({W}) $达到全局极大. $ J({W}) $没有其他局部极值, 在全局最大点处有:

    $$ \begin{equation} J({W}) = \frac{1}{2}\sum\limits_{i = 1}^r {{\lambda _i}} - \frac{r}{2} \end{equation} $$ (6)

    同定理1的证明过程一样, 这里将通过对推论2的证明来完成定理2的证明.

    推论2.   在域$ \tilde \Omega $中, 当且仅当$ {{\tilde W}} = {{\bar PQ}} $, 信息准则$ E({{\tilde W}}) $达到全局最大点, 其中$ {{\bar P}} = {( {{{\tilde P}}}\; \; {{0}})^{\rm T}} \in {{ {\bf R}}^{n \times r}} $一个$ n \times r $维矩阵, $ {{\tilde P}} $是一个置换矩阵, 而$ E({{\tilde W}}) $所有其他的平稳点都是鞍点.

    证明参见附录B.

    通过定理1和定理2可知, 当神经网络权矩阵$ {W} $刚好收敛到自相关矩阵$ {{R}} $的主子空间的一组正交基时, $ J({W}) $取得全局极大值, 从而建立起神经网络与信号主子空间之间的关系.由于信息准则$ J({W}) $只有一个全局最大点, 而没有局部极值, 因此采用非线性规划算法(如梯度法、共轭梯度法、牛顿法等)来求解该优化问题.梯度算法是采用$ J({W}) $的梯度作为迭代步长; 共轭梯度法需要不断修正算法的共轭方向, 所导出的算法通常具有较高的计算复杂度; 牛顿法则用到的Hessian矩阵, 而当$ {W} $是一个矩阵时该Hessian矩阵是非常难以获得的.相比共轭梯度法和牛顿算法, 梯度法具有算法结构更为简单, 计算复杂度低, 因此下一节将采用梯度算法导出新型的主子空间跟踪算法.

    假定$ {\pmb{x}}(k), k = 0, 1, 2, \cdots $是一个平稳的随机过程, 这里将其作为神经网络模型的输入.根据随机学习理论, 权矩阵$ {W} $的变化规律与输入向量$ {\pmb{x}}(k) $并不相关.取式(2)作为最优化函数, 则可以得出所提信息准则的梯度流为:

    $$ \begin{align} \frac{{{\rm d}{W}(t)}}{{\rm d}{t}} = \, & \left[ {\frac{{{W}(t)}}{{{{W}^{\rm T}}(t){W}(t)}} - {W}(t)} \right]+\\& \left[ {{RW}(t) - \frac{{{W}(t){{W}^{\rm T}}(t){RW}(t)}} {{{{W}^{\rm T}}(t){W}(t)}}} \right]\times\\& {\left\{ {{{W}^{\rm T}}(t){W}(t)} \right\}^{ - 1}} \end{align} $$ (7)

    应用随机近似理论可得:

    $$ \begin{align} &\frac{{{\rm d}{W}(t)}}{{\rm d}{t}} = \\&\quad \left[ {{W}(t){{\left\{ {{{W}^{\rm T}}(t){W}(t)} \right\}}^{ - 1}} - {W}(t)} \right]- \\&\quad \left[ {{W}(t){{W}^{\rm T}}(t){\pmb{x}}(t){{\pmb{x}}^{\rm T}}(t){W}(t){{\left\{ {{{W}^{\rm T}}(t){W}(t)} \right\}}^{ - 1}}} \right.- \\&\quad \left. {{\pmb{x}}(t){{\pmb{x}}^{\rm T}}(t){W}(t)} \right]{\left\{ {{{W}^{\rm T}}(t){W}(t)} \right\}^{ - 1}} \end{align} $$ (8)

    对式(8)进行离散化操作后获得如下方程:

    $$ \begin{align} &{W}\left( {k + 1} \right) = \\&\quad {{W}}(k) - \eta \left[ {{{W}}(k){{\left( {{{{W}}^{\rm T}}(k){{W}}(k)} \right)}^{ - 1}}{\pmb{y}}(k){{\pmb{y}}^{\rm T}}(k)} \right.- \\&\quad \left. {{\pmb{x}}(k){{\pmb{y}}^{\rm T}}(k)} \right] {\left( {{{{W}}^{\rm T}}(k){{W}}(k)} \right)^{ - 1}} - \eta {{W}}(k)+ \\&\quad \eta {{W}}(k){\left( {{{{W}}^{\rm T}}(k){{W}}(k)} \right)^{ - 1}} \end{align} $$ (9)

    其中, $ \eta $是神经网络的学习因子, 且满足$ 0 < \eta < 1 $.式(9)所描述的算法在每一步迭代过程中计算复杂度为: $ n{{r}^{2}}+4{{r}^{3}}\text{ /}3 $, 这点与UIC算法[12]是相同的, 要少于NIC算法[11]中的$ 2{n^2}r + {\rm O}(n{r^2}) $的计算量和共轭梯度算法[13] $ 12{n^2}r + {\rm O}(n{r^2}) $的计算量.

    本节通过两个仿真实例来对所提算法的性能进行验证.第一个实验考察所提算法提取多维主子空间的能力并将仿真结果与其他同类型算法进行对比; 第二个是应用所提算法解决图像重构问题.

    在本实验中, 所提算法将与UIC算法和SDPM算法进行对比.为了衡量算法的收敛性能, 这里采用如下两个评价函数, 第一个是第$ k $次迭代时的权矩阵模值

    $$ \begin{equation} p({{{W}}_k}) = {\left\| {{{W}}_k^{\rm T}{{{W}}_k}} \right\|_F} \end{equation} $$ (10)

    第二个是指标参数

    $$ \begin{equation} {\rm{dist}}({{{W}}_k}) = {\left\| {{{W}}_k^{\rm T}{{{W}}_k}{\rm diag}{\left\{{{{W}}_k^{\rm T}{{{W}}_k}} \right\}^{ - 1}} - {{{I}}_r}} \right\|_F} \end{equation} $$ (11)

    指标参数代表着权矩阵正交化的偏离程度.显然, 如果$ {\rm{dist}}({{{W}}_k}) $收敛到0, 则意味着权矩阵收敛到了主子空间的一个正交基.

    本实验中信号产生方法与文献[12]相同, 即输入信号$ {{{X}}_k} = {{B}}{{\pmb {z}}_k} $, 其中$ B=\text{randn}(31,31)/31$是一个随机产生的矩阵, $ {{\pmb {z}}_k} \in {{ {\bf R}}^{31 \times 1}} $是高斯的、瞬时白的、随机产生的向量.在本实验中, 分别采用UIC算法、SDPM算法和所提算法对信号的12维主子空间进行提取跟踪.三种算法采用相同的学习因子$ \eta = 0.1 $, 初始权矩阵是随机产生的(即矩阵的每一个元素均服从均值为零方差为1的高斯分布).通常情况下, 取不同的初始化权矩阵时, 算法具有不同的收敛速度.为了更全面地衡量算法性能, 通常取多次实验的平均值来描述算法收敛过程.在图 1图 2分别给出了三种算法在迭代过程中的权矩阵模值曲线和指标参数曲线, 该结果曲线是100次独立实验结果平均得到的.图中实线代表着所提算法, 虚线代表UIC算法, 点划线代表SDPM算法.

    图 1  权矩阵模值曲线
    Fig. 1  Curves of the weight matrix norm
    图 2  指标参数曲线
    Fig. 2  Curves of the parameter index

    图 1图 2中可以发现, 所提算法的权矩阵模值曲线收敛到了一个常数而且指标参数收敛到了零.这就表明所提算法具备跟踪信号主子空间的能力.从图 1中我们还可以发现, 所提算法的权矩阵模值在200步时就已经收敛, 而UIC算法则需要300步, SDPM算法需要800步, 即所提算法的权矩阵模值曲线具有最快的收敛速度.同理, 从图 2中可以发现所提算法指标参数的收敛速度要优于其他两个算法.综合两图可以得出结论:三种算法中, 所提算法具有最快的收敛速度.

    数据压缩是主子空间算法的一个很重要的应用.本实验将利用所提算法对著名的Lena图像进行压缩重构.如图 3所示, 原始Lena图像的像素为$ 512 \times 512 $.在本实验中, 将Lena图像分解成若干个$ 8 \times 8 $不重叠的小块.将每一个小块中的数据按照从左至右从上到下的顺序排列起来, 构成一个64维向量.在去掉均值和标准化后, 将这些图像数据构成一个输入序列.然后采用SDPM算法、UIC算法以及所提算法对该图像进行压缩重构, 这里重构维数为5.与实验1相同, 本实验同样采用权矩阵模值和指标参数两个评价函数.

    图 3  原始的Lena图像
    Fig. 3  The original image of Lena

    本实验中三种算法的初始化参数设置方法与实验1相类似, 具体参数如下:学习因子$ \eta = 0.2 $, 初始化权矩阵是随机产生的.图 4是经过所提算法压缩后重构出来的Lena图像, 图 5是三种算法的权矩阵模值曲线, 图 6是三种算法的指标参数曲线, 该结果曲线都是100次独立实验的平均值.对比图 3图 4可以发现, 重构的Lena图像是很清晰的, 即所提算法能够有效解决图像压缩重构问题.通过图 5图 6可以发现:不论是权矩阵模值曲线还是指标参数曲线, 所提算法的收敛速度均要快于UIC算法和SDPM算法.这进一步证实了所提算法在收敛速度方面的优势.

    图 4  所提算法压缩重构的Lena图像
    Fig. 4  Reconstructed image by the proposed algorithm
    图 5  三种算法权矩阵模值曲线
    Fig. 5  Norm curves of the three algorithms
    图 6  三种算法的指标参数曲线
    Fig. 6  Parameter index curves of the three

    主子空间跟踪算法在现代信息科学各个领域均有着很重要的应用.基于Hebbian神经网络的主子空间跟踪是近些年来国际上的一个研究热点.然而目前大多数主子空间跟踪神经网络算法是基于启发式推理而提出来的, 能够提供信息准则的算法并不多见.针对这一问题, 本文提出了一种新型的信息准则, 并对所提信息准则的前景进行了严格的证明.通过梯度上升法导出了一个主子空间跟踪算法.仿真实验表明:相比一些现有主子空间跟踪算法, 所提算法具有更快的收敛速度.

    进一步的研究方向是寻找新型的主子空间信息准则, 创新信息准则的平稳点分析方法, 将主子空间算法应用于更广泛的领域.

    证明   在域$ \tilde \Omega $内, $ E({{\tilde W}}) $对于矩阵$ {{\tilde W}} $的一阶微分存在, 且有

    $$ \begin{align} \nabla E({{\tilde W}}) = \, & {{\Lambda \tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}} - {{\tilde W}} - \\& {{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 2}}{{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} + {{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}} \end{align} $$ (A1)

    定义一个矩阵集$ \left\{ {{{\tilde W}}|{{\tilde W}} = {{{P}}_r}{{Q}}} \right\} $, 则在该集合内的任意一点均有:

    $$ \begin{align} & \nabla E({{\tilde W}}){|_{{{\tilde W}} = {{{P}}_r}{{Q}}}} = \\&\qquad {{\Lambda }}{{{P}}_r}{{Q}}{({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{{P}}_r} {{Q}})^{ - 1}} + {{{P}}_r}{{Q}}{({{{Q}}^{\rm T}} {{P}}_r^{\rm T}{{{P}}_r}{{Q}})^{ - 1}}- \\&\qquad {{{P}}_r}{{Q}}{({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{{P}}_r}{{Q}})^{ - 2}}{{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}{{Q}} - {{{P}}_r}{{Q}} = \\&\qquad {{\Lambda }}{{{P}}_r}{{Q}} + {{{P}}_r}{{Q}}{{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}{{Q}} = 0 \end{align} $$ (A2)

    反之, 根据定义可得, 在$ E({{\tilde W}}) $平稳点处有$ \nabla E({{\tilde W}}) = {{0}} $成立, 即

    $$ \begin{align} &{{\Lambda \tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}} + {{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}}- \\&\qquad {{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 2}}{{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} - {{\tilde W}} = {{0}} \end{align} $$ (A3)

    将上式左右两边各乘以$ {{{\tilde W}}^{\rm T}} $可得:

    $$ \begin{align} & {{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}} + {{{{\tilde W}}}^{\rm T}}{{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}}- \\&\qquad {{{{\tilde W}}}^{\rm T}}{{\tilde W}}{({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 2}}{{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} - {{{{\tilde W}}}^{\rm T}}{{\tilde W}} = \\&\qquad {{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} {({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}} - {{{{\tilde W}}}^{\rm T}}{{W}}- \\&\qquad {({{{{\tilde W}}}^{\rm T}}{{\tilde W}})^{ - 1}}{{{{\tilde W}}}^{\rm T}}{{\Lambda \tilde W}} + {{I}} = \\&\qquad {{I}} - {{{{\tilde W}}}^{\rm T}}{{W}} = {{0}} \end{align} $$ (A4)

    根据上式可得, 在$ E({{\tilde W}}) $平稳点处有

    $$ \begin{equation} {{{\tilde W}}^{\rm T}}{{W}} = {{I}} \end{equation} $$ (A5)

    上式表明在$ E({{\tilde W}}) $平稳点处矩阵$ {{\tilde W}} $的各个列向量之间是相互正交的.将式(A5)代入式(A3)可得:

    $$ \begin{equation} {{\Lambda \tilde W}} = {{\tilde W}}{{{\tilde W}}^{\rm T}}{{\Lambda \tilde W}} \end{equation} $$ (A6)

    令矩阵$ {\tilde W}$的行向量为${{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{u}}}_{i}}\ (i=1,2,\cdots ,n) $, 即有$ \tilde W{\rm{ = }}{\left[ {\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\smile$}} \over u} _1^{\rm{T}},\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\smile$}} \over u} _2^{\rm{T}}, \cdots ,\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\smile$}} \over u} _n^{\rm{T}}} \right]^{\rm{T}}} $, 同时定义矩阵$ {{B}} = {{{\tilde W}}^{\rm T}}{{\Lambda \tilde W}} $, 则根据式(11)可得:

    $$ \begin{equation} {\sigma _i}{\mathord{\buildrel{\lower3pt\hbox{$ \smile$}} \over u} _i} = {\mathord{\buildrel{\lower3pt\hbox{$ \smile$}} \over u} _i}{{B}}, \quad i = 1, 2, \cdots , n \end{equation} $$ (A7)

    显然, 上式可以看作是矩阵$ {{B}} $的特征值分解.由于$ {{B}} $是一个$ r \times r $维对称正定矩阵, 只有$ r $个相互正交的左行特征向量, 即矩阵$ {{\tilde W}} $只有$ r $个相互正交的行向量.更进一步, 矩阵$ {{\tilde W}} $的这$ r $个非零行向量正好构成了一个正交矩阵, 也就是说此时矩阵$ {{\tilde W}} $可以通过$ {{\tilde W}} = {{{P}}_r}{{Q}} $来表示.

    证明    定义一个置换矩阵$ {{{P}}_r} \ne {{\bar P}} $, 则矩阵$ {{{P}}_r} $中的第$ r + 1 $到$ n $个行向量之中必有一个非零的行向量.由于$ {{{P}}_r} $和$ {{\bar P}} $同为两个置换矩阵, 则必定存在两个对角矩阵$ {{\bar \Lambda }} $和$ {{\hat \Lambda }} $使得下式成立:

    $$ \begin{equation} {{{\bar P}}^{\rm T}}{{\Lambda \bar P}} = {{\bar \Lambda }}, {{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r} = {{\hat \Lambda }} \end{equation} $$ (B1)

    根据上式可得:

    $$ \begin{equation} \begin{cases} {\rm tr}\left( {{{{{\bar P}}}^{\rm T}}{{\Lambda \bar P}}} \right) = \sum\limits_{i = 1}^r {{\lambda _i}} \\ {\rm tr}\left( {{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}} \right) = \sum\limits_{i = 1}^r {{\lambda _{{{\hat j}_i}}}} \end{cases} \end{equation} $$ (B2)

    将特征值$ {\lambda _{\hat ji}} $ $ (i = 1, 2, \cdots , r) $按照降序顺序排列, 即有$ {\hat \lambda _{\hat j1}} > {\hat \lambda _{\hat j2}} > \cdots > {\hat \lambda _{\hat jr}} $, 则对于$ {{{P}}_r} \ne {{\bar P}} $, 则必定存在有$ {\lambda _i} > {\hat \lambda _{\hat ji}}\; (i = 1, 2, \cdots , r) $成立, 即有:

    $$ \begin{equation} {\rm tr}\left( {{{{{\bar P}}}^{\rm T}}{{\Lambda \bar P}}} \right) > {\rm tr}\left( {{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}} \right) \end{equation} $$ (B3)

    由于

    $$ \begin{align} E({{{P}}_r}{{Q}}) = \, & \frac{1}{2}{\rm tr}[({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}{{Q}}){({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{{P}}_r}{{Q}})^{ - 1}}]+\\& \frac{1}{2}{\rm tr}[\ln ({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{{P}}_r}{{Q}}) - {{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{{P}}_r}{{Q}}] = \\& \frac{1}{2}{\rm tr}[({{{Q}}^{\rm T}}{{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r}{{Q}})] - \frac{r}{2} = \\& \frac{1}{2}{\rm tr}[({{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r})] - \frac{r}{2} \end{align} $$ (B4)
    $$ \begin{align} E({{{{\bar P}}}^{\rm T}}{{Q}}) = \, & \frac{1}{2}{\rm tr}[({{{Q}}^{\rm T}}{{{{\bar P}}}^{\rm T}}{{\Lambda \bar PQ}}){({{{Q}}^{\rm T}}{{{{\bar P}}}^{\rm T}}{{\bar PQ}})^{ - 1}}]+ \\& \frac{1}{2}{\rm tr}[\ln ({{{Q}}^{\rm T}}{{{{\bar P}}}^{\rm T}}{{\bar PQ}}) - {{{Q}}^{\rm T}}{{{{\bar P}}}^{\rm T}}{{\bar PQ}}] = \\& \frac{1}{2}{\rm tr}[({{{Q}}^{\rm T}}{{{{\bar P}}}^{\rm T}}{{\Lambda \bar PQ}})] - \frac{r}{2} = \\& \frac{1}{2}{\rm tr}[({{{{\bar P}}}^{\rm T}}{{\Lambda \bar P}})] - \frac{r}{2} \end{align} $$ (B5)

    根据式(B3)有:

    $$ \begin{equation} E({{{P}}_r}{{Q}}) < E({{{\bar P}}^{\rm T}}{{Q}}) \end{equation} $$ (B6)

    即集合$ \left\{ {{P_r}Q|{Q^{\rm{T}}}\Lambda Q > 0\& {{\rm{P}}_{\rm{r}}} \ne {\rm{\bar P}}} \right\} $的点并不是全局极大点.

    由于$ {{{P}}_r} \ne {{\bar P}} $, 则矩阵$ {{\bar P}} $中必定存在一列向量$ {{{\bar p}}_i} $ $ (1 \le i \le r) $, 使得:

    $$ \begin{equation} {{\bar p}}_i^{\rm T}{{{P}}_r} = {{0}} \end{equation} $$ (B7)

    同理, 矩阵$ {{{P}}_r} $中也存在一列向量$ {{{p}}_{r, j}}\; (1 \le j \le r) $使得

    $$ \begin{equation} {{{p}}_{r, j}}{{\bar P}} = {{0}} \end{equation} $$ (B8)

    令$ {{{\bar p}}_i} $的非零元素为$ {\bar j_i} $行, $ {{{p}}_{r, j}} $的非零元素为$ {\hat j_j} $行, 则有$ {\bar j_i} > {\hat j_j} $和$ {\lambda _{{{\hat j}_j}}} > {\lambda _{{{\bar j}_i}}} $.定义矩阵:

    $$ \begin{equation} {{B}} = \left[ {{{{p}}_{r, 1}}, \cdots , \frac{{{{{p}}_{r, i}} + \varepsilon {{{{\bar p}}}_i}}}{{\sqrt {1 + {\varepsilon ^2}} }}, \cdots , {{{p}}_{r, r}}} \right] \end{equation} $$ (B9)

    其中, $ \varepsilon $是正任意小数.由$ {{{\bar p}}_i} $和$ {{{p}}_{r, j}} $有且仅有一个非零元素得

    $$ \begin{align} {{\Lambda B}} = \, & {\rm diag}\left\{ {{\lambda _{\hat j1}}{{{p}}_{r, 1}}, \cdots , } {\frac{{{\lambda _{\hat jj}}{{{p}}_{r, i}} + \varepsilon {\lambda _{\bar ji}}{{{{\bar p}}}_i}}}{{\sqrt {1 + {\varepsilon ^2}} }}, \cdots , {\lambda _{\hat jr}}{{{p}}_{r, r}}} \right\} \end{align} $$ (B10)

    更进一步有:

    $$ \begin{equation} {{{B}}^{\rm T}}{{\Lambda B}} = {\rm diag}\left\{ {{\lambda _{\hat j1}}, \cdots , \frac{{{\lambda _{\hat jj}} + \varepsilon {\lambda _{\bar ji}}}}{{1 + {\varepsilon ^2}}}, \cdots , {\lambda _{\hat jr}}} \right\} \end{equation} $$ (B11)

    通过式(A8)可得:

    $$ \begin{align} & {{{B}}^{\rm T}}{{\Lambda B}} - {{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r} = \\& \qquad {\rm diag}\left\{ {{\lambda _{\hat j1}}, \cdots , \frac{{{\lambda _{\hat jj}} + \varepsilon {\lambda _{\bar ji}}}}{{1 + {\varepsilon ^2}}}, \cdots , {\lambda _{\hat jr}}} \right\}- \\& \qquad {\rm diag}\left\{ {{\lambda _{\hat j1}}, \cdots , {\lambda _{\hat jj}}, \cdots , {\lambda _{\hat jr}}} \right\} = \\& \qquad {\rm diag}\left\{ {0, \cdots , \frac{{\left( { - {\lambda _{\hat jj}} + {\lambda _{\bar ji}}} \right){\varepsilon ^2}}}{{1 + {\varepsilon ^2}}}, \cdots , 0} \right\} \end{align} $$ (B12)

    由于$ {\lambda _{\hat jj}} > {\lambda _{\bar ji}} $, 所以$ {{{B}}^{\rm T}}{{\Lambda B}} - {{P}}_r^{\rm T}{{\Lambda }}{{{P}}_r} $是一个负定矩阵, 因此有:

    $$ \begin{equation} E({{BQ}}) = \frac{1}{2}{\rm tr}[{{{B}}^{\rm T}}{{\Lambda B}}] - \frac{r}{2} < E({{{P}}_r}{{Q}}) \end{equation} $$ (B13)

    即集合$ \left\{ {{P_r}Q|{Q^{\rm{T}}}\hat \Lambda Q > \;0{\rm{\& }}{P_r} \ne \bar P} \right\} $中所有平稳点都是不稳定的鞍点.

    接下来将证明: $ J({{W}}) $没有其他局部极值.令$ {{{\dot U}}_r} = {{{\tilde U'}}_r} + \varepsilon {{{M}}_1} $, 其中$ {{{M}}_1} = [{{0}}, \cdots , {{\pmb {u}}_k}, \cdots , {{0}}] $, $ 1 \le k \le r $.即$ {{{\dot U}}_r} $是$ {{{\tilde U'}}_r} $沿$ {{\pmb {u}}_k} $的方向增长而成.由于$ {{{\tilde U'}}_r} \ne {{{\tilde U}}_r} $, 则必定有$ {\lambda _k} > {\lambda _{jk}} $.

    当$ {{W}} = {{{\dot U}}_r}{{Q}} $时, 有:

    $$ \begin{align} & {\left. {J({{W}})} \right|_{{{W}} = {{{{\dot U}}}_r}{{Q}}}} - {\left. {J({{W}})} \right|_{{{W}} = {{{{\tilde U'}}}_r}{{Q}}}} = \\& \qquad \frac{1}{2}\left( {{\lambda _k} - {\lambda _{jk}}} \right){\varepsilon ^2} + o({\varepsilon ^2}) \end{align} $$ (B14)

    令$ {{{\ddot U}}_r} = {{{\tilde U'}}_r} + \varepsilon {{{M}}_2} $, 其中$ {{{M}}_2} = [{{0}}, \cdots , {{\pmb {u}}_{jk}}, \cdots , {{0}}] $, $ 1 \le k \le r $.即$ {{{\dot U}}_r} $是$ {{{\tilde U'}}_r} $沿$ {{\pmb {u}}_{jk}} $的方向增长而成.当$ {{W}} = {{{\dot U}}_r}{{Q}} $时, 有:

    $$ \begin{align} & {\left. {J({{W}})} \right|_{{{W}} = {{{{\ddot U}}}_r}{{Q}}}} - {\left. {J({{W}})} \right|_{{{W}} = {{{{\tilde U'}}}_r}{{Q}}}} = - 2{\varepsilon ^2} + o({\varepsilon ^2}) \end{align} $$ (B15)

    从式(B14)$ \, \sim\, $(B15)得当$ {{W}} = {{{U'}}_r}{{Q}} $且$ {{W}} \ne {{{\tilde U}}_r}{{Q}} $时, $ J({{W}}) $沿$ {{\pmb {u}}_k} $方向是增的, 而沿$ {{\pmb {u}}_{jk}} $方向是减的, 所以$ J({{W}}) $在该平稳点处不可能取得局部极值.


  • 本文责任编委 张道强
  • 图  1  搜索邻域示意图.图示为某一图谱MRI的搜索邻域, 对于每个图谱, 都以同样的方法选择搜索邻域内的图像块, 所有图像块集合成预定义字典

    Fig.  1  Diagram of search volume. For each atlas, the same strategy is used to extract image patches in search volume. All patches form predefined dictionary

    图  2  纹理特征计算过程.用LBP算子遍历整幅MRI, 计算每个像素的LBP值, 得到MRI对应的LBP图像

    Fig.  2  Calculation of texture feature. Use LBP operator to traverse the entire MRI and calculate the LBP value for each pixel. Then, the corresponding LBP image is obtained

    图  3  增强特征计算过程示意图.取MR图像和LBP图像同一位置的图像块, 拼接成增强特征向量

    Fig.  3  Calculation of augmented feature. Image patches with the same coordinate in MRI and LBP image concatenate together to form AF vector

    图  4  特征的相似性(a)原始特征的线性相似度; (b)高维特征的线性相似度.映射后的特征具有较好的相似性

    Fig.  4  Similarity of features. (a) Similarity between original features; (b) Similarity between high dimensional features. Mapped data have better similarities

    图  5  线性化核标签融合算法的整体流程

    Fig.  5  Process of linearized kernel-based label fusion method

    图  6  IBSR中的六种脑结构(以第2组为例)

    Fig.  6  Six structures in IBSR dataset (The second subject)

    图  7  各脑结构分割准确率随图谱数目变化趋势

    Fig.  7  Dice value of each structure with different atlas numbers

    图  8  搜索邻域大小对LK + SRC的影响

    Fig.  8  Impact of search volume size on LK + SRC

    图  9  图像块大小对LK + SRC的影响

    Fig.  9  Impact of image patch size on LK + SRC

    图  10  采样对LK + SRC的影响

    Fig.  10  Impact of sample on LK + SRC

    图  11  核函数参数对分割结果的影响

    Fig.  11  Impact of kernel on LK + SRC

    图  12  不同图像特征对分割结果的影响(AF为本文所提的增强特征方法)

    Fig.  12  Impact of different features on segmentation result. AF is the proposed method

    图  13  深层脑结构分割二维结果(黑色加粗的方法为本文所提方法)

    Fig.  13  2D results of subcortical brain structures (Black bolds show the proposed method)

    图  14  深层脑结构分割三维结果(其中, (e)为本文所提方法)

    Fig.  14  3D results of subcortical brain structures ((e) show the proposed method)

    图  15  线性化核标签融合方法在SATA数据集上的分割准确率

    Fig.  15  Dice value of linearized kernel-based label fusion method on SATA dataset

    图  16  各方法消耗时间对比

    Fig.  16  Computational complexity

    表  1  数据集基本信息

    Table  1  Information of each dataset

    数据集 个体数 年龄 类别数 尺寸 分辨率(mm)
    IBSR 18 7$\sim$71 32 $256 \times 256 \times 128$ $0.94 \times 0.94 \times 1.5$和$0.84 \times 0.84 \times 1.5$
    Hammers67n 20 20$\sim$54 67 $192 \times 256 \times 124$ $0.937 \times 0.937 \times 1.5$
    SATA 35 - 14 $256 \times 256 \times 287$ $1.0 \times 1.0 \times 1.0$
    下载: 导出CSV

    表  2  LK方法在IBSR上的Dice值, 加粗的Dice值为同种LF + AF方法中的最高值

    Table  2  Dice value of LK method on IBSR. Blue bolds show the maximum in the same LF + AF method

    方法 丘脑 壳核 尾状核 苍白球 海马 杏仁核 平均
    PB + AF 无LK 0.885 0.802 0.807 0.746 0.811 0.688 0.790
    有LK ${\bf{0.899}}$ ${\bf{0.881}}$ ${\bf{0.886}}$ ${\bf{0.837}}$ ${\bf{0.816}}$ ${\bf{0.743}}$ ${\bf{0.844}}$
    SRC + AF 无LK 0.864 0.823 0.809 0.758 0.714 0.639 0.768
    有LK ${\bf{0.898}}$ ${\bf{0.883}}$ ${\bf{0.866}}$ ${\bf{0.831}}$ ${\bf{0.818}}$ ${\bf{0.678}}$ ${\bf{0.829}}$
    DDL + AF 无LK 0.902 0.892 0.882 0.851 0.830 ${\bf{0.695}}$ 0.842
    有LK ${\bf{0.905}}$ ${\bf{0.898}}$ ${\bf{0.883}}$ ${\bf{0.854}}$ ${\bf{0.839}}$ 0.678 ${\bf{0.843}}$
    下载: 导出CSV

    表  3  LK方法在Hammers67n20上的Dice值, 加粗的Dice值为每种LF + AF方法中的最高值

    Table  3  Dice value of LK method on Hammers67n20. Blue bolds show the maximum in the same LF + AF method

    方法 丘脑 壳核 尾状核 苍白球 海马 杏仁核 平均
    PB + AF 无LK 0.844 0.849 0.838 0.762 0.799 0.825 0.820
    有LK ${\bf{0.879}}$ ${\bf{0.890}}$ ${\bf{0.889}}$ ${\bf{0.811}}$ ${\bf{0.831}}$ ${\bf{0.868}}$ ${\bf{0.861}}$
    SRC + AF 无LK 0.862 0.859 0.852 0.748 0.793 0.802 0.819
    有LK ${\bf{0.887}}$ ${\bf{0.885}}$ ${\bf{0.893}}$ ${\bf{0.792}}$ ${\bf{0.842}}$ ${\bf{0.839}}$ ${\bf{0.856}}$
    DDL + AF 无LK 0.875 0.882 0.870 0.789 0.812 ${\bf{0.860}}$ 0.848
    有LK ${\bf{0.892}}$ ${\bf{0.891}}$ ${\bf{0.875}}$ ${\bf{0.802}}$ ${\bf{0.830}}$ 0.857 ${\bf{0.858}}$
    下载: 导出CSV

    表  4  本文方法和现有脑结构分割方法在IBSR数据集上的结果, 评价指标Dice

    Table  4  Results compared with existing brain structure segmentation method, measured with Dice

    FIRST FreeSurfer MS-CNN BrainSegNet FCNN M-net Dolz 本文方法
    丘脑 0.889 0.840 0.889 0.89 0.87 0.90 0.92 0.905
    壳核 0.875 0.809 0.875 0.91 0.83 0.90 0.90 0.898
    尾状核 0.827 0.803 0.849 0.87 0.78 0.87 0.91 0.886
    苍白球 0.810 0.703 0.787 0.82 0.75 0.82 0.83 0.854
    海马 0.811 0.764 0.788 0.82 - 0.82 - 0.839
    杏仁核 0.750 0.589 0.654 0.74 - 0.73 - 0.743
    平均 0.827 0.751 0.807 0.842 0.808 0.84 0.89 0.844
    下载: 导出CSV
  • [1] Goodro M, Sameti M, Patenaude B, Fein G. Age effect on subcortical structures in healthy adults. Psychiatry Research: Neuroimaging, 2012, 203(1): 38-45 doi: 10.1016/j.pscychresns.2011.09.014
    [2] Kim M J, Hamilton J P, Gotlib I H. Reduced caudate gray matter volume in women with major depressive disorder. Psychiatry Research: Neuroimaging, 2008, 164(2): 114-122 doi: 10.1016/j.pscychresns.2007.12.020
    [3] Rangini M, Jiji G W. Detection of Alzheimer$'$s disease through automated hippocampal segmentation. In: Proceedings of the 2013 Automation, Computing, Communication, Control and Compressed Sensing. Kottayam, India: IEEE, 2013. 144-149
    [4] Fischl B. FreeSurfer. Neuroimage, 2012, 62(2): 774-781 doi: 10.1016/j.neuroimage.2012.01.021
    [5] Patenaude B, Smith S M, Kennedy D N, Jenkinson M. A Bayesian model of shape and appearance for subcortical brain segmentation. Neuroimage, 2011, 56(3): 907-922 doi: 10.1016/j.neuroimage.2011.02.046
    [6] Bao S Q, Chung A C S. Multi-scale structured CNN with label consistency for brain MR image segmentation. Computer Methods in Biomechanics and Biomedical Engineering: Imaging and Visualization, 2018, 6(1): 113-117 doi: 10.1080/21681163.2016.1182072
    [7] Mehta R, Majumdar A, Sivaswamy J. BrainSegNet: a convolutional neural network architecture for automated segmentation of human brain structures. Journal of Medical Imaging, 2017, 4(2): 024003 doi: 10.1117/1.JMI.4.2.024003
    [8] Shakeri M, Tsogkas S, Ferrante E. Sub-cortical brain structure segmentation using F-CNN$'$s. In: Processings of the 13th International Symposium on Biomedical Imaging. Prague, Czech Republic: IEEE, 2016. 269-272
    [9] Mehta R, Sivaswamy J. M-net: a convolutional neural network for deep brain structure segmentation. In: Processings of the 14th International Symposium on Biomedical Imaging. Melbourne, Australia: IEEE, 2017. 437-440
    [10] Dolz J, Desrosiers C, Ayed I B. 3D fully convolutional networks for subcortical segmentation in MRI: a large-scale study. NeuroImage, 2017, 170(2018): 456-470 http://europepmc.org/abstract/MED/28450139
    [11] Shen D G, Moffat S, Resnick S M, Davatzikos C. Measuring size and shape of the hippocampus in MR images using a deformable shape model. NeuroImage, 2002, 15(2): 422-434 doi: 10.1006/nimg.2001.0987
    [12] Wu G R, Kim M, Sanroma G, Wang Q, Munsell B C, Shen D G. Hierarchical multi-atlas label fusion with multi-scale feature representation and label-specific patch partition. NeuroImage, 2017, 170(2018): 456-470
    [13] 田娟秀, 刘国才, 谷珊珊, 鞠忠建, 刘劲光, 顾冬冬.医学图像分析深度学习方法研究与挑战.自动化学报, 2018, 44(3): 401-424 doi: 10.16383/j.aas.2018.c170153

    Tian Juan-Xiu, Liu Guo-Cai, Gu Shan-Shan, Jv Zhong-Jian, Liu Jin-Guang, Gu Dong-Dong. Deep learning in medical image analysis and its challenges. Acta Automatica Sinica, 2018, 44(3): 401-424 doi: 10.16383/j.aas.2018.c170153
    [14] Babalola K O, Patenaude B, Aljabar P, Schnabel J, Kennedy D, Crum W. An evaluation of four automatic methods of segmenting the subcortical structures in the brain. Neuroimage, 2009, 47(4): 1435-1447 doi: 10.1016/j.neuroimage.2009.05.029
    [15] Gonzámlez-Villàm S, Oliver A, Valverde S, Wang L P, Zwiggelaar R, Lladó X. A review on brain structures segmentation in magnetic resonance imaging. Artificial Intelligence in Medicine, 2016, 73(2016): 45-69 http://www.ncbi.nlm.nih.gov/pubmed/27926381/
    [16] Coupé P, Manjón J V, Fonov V, Pruessner J, Robles M, Collins D L. Patch-based segmentation using expert priors: application to hippocampus and ventricle segmentation. Neuroimage, 2011, 54(2): 940-954 doi: 10.1016/j.neuroimage.2010.09.018
    [17] Rousseau F, Habas P A, Studholme C. A supervised patch-based approach for human brain labeling. IEEE Transactions on Medical Imaging, 2011, 30(10): 1852-1862 doi: 10.1109/TMI.2011.2156806
    [18] Eskildsen S F, Coupé P, Fonov V, Manjó J V, Leung K K, Guizard N. BEaST: brain extraction based on nonlocal segmentation technique. Neuroimage, 2012, 59(3): 2362-2373 doi: 10.1016/j.neuroimage.2011.09.012
    [19] Golts A, Elad M. Linearized kernel dictionary learning. IEEE Journal of Selected Topics in Signal Processing, 2016, 10(4): 726-739. doi: 10.1109/JSTSP.2016.2555241
    [20] Li Y H, Jia F C, Qin J. Brain tumor segmentation from multimodal magnetic resonance images via sparse representation. Artificial Intelligence in Medicine, 2016, 73(2016): 1-13 http://www.ncbi.nlm.nih.gov/pubmed/27926377
    [21] Tong T, Wolz R, Coupé P, Hajnal J V, Rueckert D. Segmentation of MR images via discriminative dictionary learning and sparse coding: application to hippocampus labeling. Neuroimage, 2013, 76(1): 11-23 http://europepmc.org/abstract/med/23523774
    [22] Bai W J, Shi W Z, Ledig C, Rueckert D. Multi-atlas segmentation with augmented features for cardiac MR images. Medical Image Analysis, 2015, 19(1): 98-109 doi: 10.1016/j.media.2014.09.005
    [23] Vapnik V N. The nature of statistical learning theory. Technometrics, 1997, 38(4): 409-409 http://portal.acm.org/citation.cfm?id=211359
    [24] Smola A J. Kernel principal component analysis. In: Processings of the 1997 International Conference on Artificial Neural Networks. Springer-Verlag. 1997: 583-588
    [25] Vincent P, Bengio Y. Kernel matching pursuit. Machine Learning, 2002, 48(1-3): 165-187
    [26] Guigue V, Rakotomamonjy A, Canu S. Kernel basis pursuit. In: Processings of the 2005 European Conference on Machine Learning. Berlin, Heidelberg, Germany: Springer, 2005. 146-157
    [27] Nguyen H V, Patel V M, Nasrabadi N M, Chellappa R. Kernel dictionary learning. In: Processings of the 2012 International Conference on Acoustics, Speech, and Signal Processing. Kyoto, Japan: IEEE, 2012. 2021-2024
    [28] Drineas P, Kannan R, Mahoney M W. Fast Monte Carlo algorithms for matrices I: approximating matrix multiplication. SIAM Journal on Computing, 2006, 36(1): 132-157 doi: 10.1137/S0097539704442684
    [29] Lee J, Kim S J, Chen R, Herskovits E H. Brain tumor image segmentation using kernel dictionary learning. In: Processings of the 37th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Milan, Italy: IEEE, 2015. 658-661
    [30] Williams C K I, Seeger M. Using the Nyström method to speed up kernel machines. In: Processings of the 2001 Advances in Neural Information Processing Systems. 2001. 682-688
    [31] Schnabel J A, Rueckert D, Quist M, Blackall J M, Castellano-Smith A D, Hartkens T. Design of non-linear discriminative dictionaries for image classification. In: Processings of the 2001 International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin, Heidelberg, Germany: Springer, 2001. 573-581
    [32] Ashburner J, Friston K J. Nonlinear spatial normalization using basis functions. Human Brain Mapping, 2015, 7(4): 254-266 http://brain.oxfordjournals.org/lookup/external-ref?access_num=10408769&link_type=MED&atom=%2Fbrain%2F129%2F4%2F963.atom
    [33] Wang H Z, Yushkevich P A. Dependency prior for multi-atlas label fusion. In: Processings of the 9th IEEE International Symposium on Biomedical Imaging. Barcelona, Spain: IEEE, 2012. 892-895
    [34] Mairal J, Bach F, Ponce J. Online dictionary learning for sparse coding. In: Processings of the 2009 International Conference on Machine Learning. Montreal, Canada: IEEE, 2009. 689-696
    [35] Ojala T, Pietikäinen M, Mäenpää T. Gray scale and rotation invariant texture classification with local binary patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987 doi: 10.1109/TPAMI.2002.1017623
    [36] Ghorbani M, Targhi A T, Dehshibi M M. HOG and LBP: towards a robust face recognition system. In: Processings of the 10th International Conference on Digital Information Management. Jeju, Korea: IEEE, 2016. 138-141
    [37] Zhang K, Tsang I W, Kwok J T. Improved Nyström low-rank approximation and error analysis. In: Processings of the 25th International Conference on Machine Learning. Helsinki, Finland: ACM, 2008. 1232-1239
    [38] Feldman D, Feigin M, Sochen N. Learning big (image) data via coresets for dictionaries. Journal of Mathematical Imaging and Vision, 2013, 46(3): 276-291 doi: 10.1007/s10851-013-0431-x
    [39] Drineas P, Mahoney M W. On the Nyström method for approximating a gram matrix for improved kernel-based learning. Journal of Machine Learning Research, 2005, 6(12): 2153-2175 http://dl.acm.org/citation.cfm?id=1194916
  • 期刊类型引用(1)

    1. 赵俊,冯宇翔,赵骥. 基于小波分析及活动轮廓模型的图像分割方法. 辽宁科技大学学报. 2021(03): 216-221 . 百度学术

    其他类型引用(2)

  • 加载中
  • 图(16) / 表(4)
    计量
    • 文章访问数:  1069
    • HTML全文浏览量:  402
    • PDF下载量:  209
    • 被引次数: 3
    出版历程
    • 收稿日期:  2018-06-08
    • 录用日期:  2019-01-09
    • 刊出日期:  2020-12-29

    目录

    /

    返回文章
    返回