2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

级联稀疏卷积与决策树集成的病理图像细胞核分割方法

宋杰 肖亮 练智超

宋杰, 肖亮, 练智超. 级联稀疏卷积与决策树集成的病理图像细胞核分割方法. 自动化学报, 2021, 47(2): 378−390 doi: 10.16383/j.aas.c190672
引用本文: 宋杰, 肖亮, 练智超. 级联稀疏卷积与决策树集成的病理图像细胞核分割方法. 自动化学报, 2021, 47(2): 378−390 doi: 10.16383/j.aas.c190672
Song Jie, Xiao Liang, Lian Zhi-Chao. Cascade sparse convolution and decision tree ensemble model for nuclear segmentation in pathology images. Acta Automatica Sinica, 2021, 47(2): 378−390 doi: 10.16383/j.aas.c190672
Citation: Song Jie, Xiao Liang, Lian Zhi-Chao. Cascade sparse convolution and decision tree ensemble model for nuclear segmentation in pathology images. Acta Automatica Sinica, 2021, 47(2): 378−390 doi: 10.16383/j.aas.c190672

级联稀疏卷积与决策树集成的病理图像细胞核分割方法

doi: 10.16383/j.aas.c190672
基金项目: 国家自然科学基金(61871226, 62001247), 国家重点研发计划(2016YFF0103604), 中央高校基本科研专项资金(30918011104), 江苏省社会发展重点研发计划(BE2018727), 南京邮电大学引进人才科研启动基金(NY219152)资助, 江苏省高等学校自然科学研究面上项目(20KJB520005)资助
详细信息
    作者简介:

    宋杰:博士, 南京邮电大学自动化学院、人工智能学院讲师. 主要研究方向为生物医学图像处理, 机器学习与模式识别.E-mail: j.song0041@gmail.com

    肖亮:博士, 南京理工大学计算机科学与工程学院教授. 主要研究方向为信号处理, 计算机视觉, 生物医学图像处理, 机器学习与模式识别. 本文通信作者. E-mail: xiaoliang@mail.njust.edu.cn

    练智超:博士, 南京理工大学计算机科学与工程学院副教授. 主要研究方向为医学图像处理, 神经影像, 机器学习与模式识别.E-mail: newlzcts@gmail.com

Cascade Sparse Convolution and Decision Tree Ensemble Model for Nuclear Segmentation in Pathology Images

Funds: Supported by National Natural Science Foundation of China (61871226, 62001247), National Major Research Plan of China (2016YFF0103604), Fundamental Research Funds for the Central Universities (30918011104), Jiangsu Provincial Social Developing Project (BE2018727), NUPTSF (NY219152), Natural Science Foundation for Colleges and Universities in Jiangsu Province (20KJB520005)
  • 摘要: 数字病理图像分析对于乳腺癌、肾癌等良恶性分级诊断具有重要意义, 其中细胞核的形态测量是病理量化分析的关键. 然而, 由于病理图像背景复杂, 细胞核高密度分布、细胞粘连等, 个体细胞核精准分割是一个挑战性问题. 本文提出一个级联稀疏卷积与决策树集成学习的细胞核分割模型. 该模型由稀疏可分离卷积模块和集成决策树学习的正则化回归模块堆叠级联组成, 其中: 前者采取秩-1张量分解学习机制, 可分层抽取细胞核的多尺度方向分布式抽象特征; 而后者采取随机采样、树剪枝以及正则化回归机制提升逐像素回归分类能力. 相比于现有深度学习模型, 该模型无需非线性激活和后向传播计算, 参数规模较小, 可实现端到端的学习. 通过乳腺、前列腺、肾脏、胃和膀胱等多组病理图像的分割实验表明: 该模型能够实现复杂数字病理图像中的高密度细胞核的快速个体目标检测和分割, 在Jaccard相似性系数、F1分数和平均边缘距离三个指标上均优于目前CNN2、CNN3和U-Net等深度学习方法, 具有较好应用前景.
  • 复杂背景病理图像个体细胞分割是在成千上万个体细胞汇集的图像中逐个分割出具有相对完整边界的细胞, 为后续细胞形态计算和病理特征提供定量分析. 传统的病理切片分割方法, 需要经过专门训练的病理医师在图像中逐个寻找感兴趣区域(Regions of interest, RoI), 而后根据专业知识分析诊断. 一张病理切片通常包含成百上千个细胞或细胞核, 这给医师带来很大的工作负担, 疲劳阅片现象时有发生[1]. 虽然目前已有很多病理细胞图像处理方法, 但这些方法大多只关注于特定类型或单一器官的细胞或细胞核分割. 因此, 临床和医学研究迫切需要能够进行多个器官和疾病状态的细胞核病理图像高精度分割方法[2]. 然而, 如图1所示, 个体分割具有如下挑战: 一方面, 对于病理状态(例如增生或某种癌症亚型)图像而言, 由于细胞核增大, 并呈现染质浓集贴边, 即核內染质较浅, 而边缘附近染质较深; 而着色较深的核仁也大量出现在核内. 另一方面, 由于病理图像中往往细胞密度高、细胞间出现重叠和成团等突出问题, 加剧了个体细胞分割的难度. 目前方法体系主要分两类: 传统基于人工特征的图像分割方法和基于表示特征学习的图像分割方法.

    图 1  病理细胞核图像分割的挑战与人工分割结果
    Fig. 1  Challenges in nuclear segmentation and associated ground truth

    传统图像分割方法包括: 水平集方法、图论方法和分水岭方法等. 水平集算法是目前比较流行的分割方法. 其基本模型包括两类: 基于边缘的水平集模型[3]和基于区域的水平集模型[4]. 近年来, 基于后者, 很多改进的方法[5]被提出来广泛应用于病理图像的细胞分割中. 在现有方法中, 基于图论的分割方法是病理图像分析中应用最为广泛的技术之一. 最常用算法是最小割算法[6], 除了主流的图割方法, 其他类型的图模型也已经应用到个体细胞核的分割, 例如属性关系图模型[7]. 另一类基于图像分析的代表性方法是分水岭算法, 分水岭算法通常期望目标细胞核内灰度分布均匀, 并且目标与背景具有明显灰度或颜色差异. 图像中的噪声、目标内部灰度变化, 都会产生过度分割的现象. 为此, 人们提出若干标记控制的分水岭及其变种算法[8-10]. 传统图像分割方法为了得到精确的个体分割结果, 通常需要分析RoI特有属性来设计额外的后处理步骤, 从而导致算法可迁移性较差.

    虽然深度学习方法能较好地处理病理图像细胞核表观多样性的分割问题, 但由于网络架构、网络复杂性以及超参数的影响, 使其分割性能受到限制. 针对病理图像细胞核表观多样性的分割问题及深度神经网络的局限性, 国内外研究者提出了系列具有较小参数规模的快速浅层分割学习模型. 与现有深度学习模型相比, 浅层学习模型无需非线性激活和后向传播计算, 且学习模型参数规模较小. 传统浅层分割学习方法[11-12]为了得到密集预测结果, 通常使用像素周围的一个图像块作为模型的输入用于训练和预测. 由于只能提取一些局部的特征, 从而导致分割的性能受到限制. 而基于卷积操作的浅层学习模型[13-18]则是从抽象的特征中恢复出每个像素所属的类别, 从而可以实现比传统模型更加精确的分割结果. 然而, 这类浅层分割学习模型没有充分考虑像素间的局部依赖关系, 因此对图像细节特征快速捕获和紧致表达能力有待加强. 此外, 在传统集成决策树学习算法中最先学习得到的一两棵树对预测结果的影响最为显著, 这使得整个模块对这些树所做出的决策过于敏感, 容易产生过拟合现象.

    为了解决这些问题, 本文的主要贡献是:

    1) 提出了级联稀疏卷积与决策树集成(Cascade sparse convolution and decision tree ensemble, CscDTE)学习模型, 该模型没有非线性激活和后向传播计算, 且学习模型参数规模较小, 其特征学习过程具有一种替代深度神经网络的新型学习机制;

    2) 采取多层稀疏可分离卷积特征学习捕获图像上下文特征; 采取秩-1张量分解[19]的可分离卷积加速特征学习过程;

    3) 建立集成决策树学习的正则化回归模型, 采取局部二阶近似逼近优化决策树, 提高分类回归泛化性能;

    4) 在乳腺、前列腺、肾脏、胃和膀胱等多组病理图像的分割实验表明该模型优于目前CNN2、CNN3和U-Net等深度学习方法, 对于病理图像分割具有较好应用前景.

    浅层特征学习分割方法中代表性方法包括稀疏编码方法[11, 13]以及多层稀疏卷积特征学习方法[15-18]. 相比标准的卷积滤波器组来说, 稀疏可分离卷积滤波器组能够在不影响其性能的情况下大大降低计算复杂度. 例如Sironi等[13-15]通过学习一组可分离卷积滤波器有效提取图像中曲线状奇异边缘结构. 具体地, 稀疏卷积滤波器学习方法是利用一组样本, 通过利用稀疏编码方法[20-21]学习 $ J $ 个卷积滤波器 $ {{f}} = \{ {{{f}}_j} \} _{j = 1}^J $ : =

    $$\mathop {\arg \min }\limits_{\left\{ {{{f}_j}} \right\},\left\{ {{a}_j^i} \right\}} \sum\limits_i {\left( {\left\| {{I^i} - \sum\limits_{j = 1}^J {{{f}_j}*{a}_j^i} } \right\|_2^2 + \beta \cdot \sum\limits_{j = 1}^J {{{\left\| {{a}_j^i} \right\|}_1}} } \right)} $$ (1)

    其中, $ {{f}}_j \in {\bf{R}}{^{d \times d}}, {{a}}_j^i $ 是输入图像 $ {I}^i $ 的稀疏编码, $ \beta $ 是正则化参数. 模型(1)可通过交替方向法[22]迭代优化更新 $ {{a}}_j^i $ $ {{f}}_j $ 进行求解. 当得到一组卷积滤波器 $ \{ {{{f}}_j} \} _{j = 1}^J $ 之后, 则可以采取 $ \{ {{{f}}_j} \} _{j = 1}^J $ 对图像 $ {I} $ 进行卷积生成一组卷积特征图 $ {{m}}{\rm{ = }}\left\{ {{{{m}}_j}} \right\}_{j = 1}^J ,$ 其中, $ {{{m}}_j} = $ ${{{f}}_j} * {I} ,$ 符号 $ * $ 表示卷积运算. 受稀疏编码方法的启发, Song等[16]通过在线学习稀疏卷积特征并在模型更深层引入上下文信息实现了鲁棒的显微颗粒目标联立检测和分割. 进一步, Song等[17]通过结合分层稀疏特征学习和人工特征, 设计了Boosting判别概率二叉决策树分类方法.

    随着深度学习的兴起, 研究者提出了系列深层特征表示学习的病理图像分割方法[23-27]. 代表性网络包括卷积神经网络(Convolutional neural networks, CNN)[24-25] 和全卷积网络(Fully convolutional network, FCN)[26-27]. 深度学习方法为解决细胞核表观多样性的图像分割问题提供了有效途径. 通常, CNN网络在卷积层之后会接上若干个全连接层, 将卷积层产生的特征图映射成一个固定长度的特征向量, 以实现图像级的分割任务[28] (见图2). 例如, Xing等[24]针对组织病理细胞核图像, 构建了两个卷积—池化层对和两个全连接层构成的CNN2模型, 实现了端到端的模型训练, 进而对测试图像的细胞核进行分割. 在此基础上, Kumar等[25]提出了更深的CNN3模型, 实现了更广泛病理图像的分割. 与CNN不同, FCN可以接受任意尺寸的输入图像, 采用反卷积层对最后卷积层的特征图进行上采样, 使它恢复到输入图像相同的尺寸, 从而可实现逐像素预测, 并可保留原始输入图像的空间信息, 最后在上采样的特征图上进行逐像素分类[29], 完成像素级的分割. 例如, Zhang等[26]通过结合FCN和基于图论的方法, 提出了一种宫颈癌细胞核分割新方法. 最近, Ronneberger等训练了一种特殊的U-Net网络结构[27] (见图3), 通过在收缩路径上捕获全局特征和在扩展路径上实现精确定位, 较好解决了复杂神经元结构的分割问题. 然而, 深度学习方法需要较大规模的训练数据集以经验拟合深层网络参数.

    图 2  用于病理图像分割的CNN体系结构
    Fig. 2  The CNN-style architecture for pathology image segmentation
    图 3  用于病理图像分割的U-Net体系结构
    Fig. 3  The U-Net-style architecture for pathology image segmentation

    目前, Zhou等提出了一种多粒度级联森林方法, 称为gcForest[12]. 这是一种采取非神经网络, 而采取决策树集成的方法, 性能较之深度神经网络有很强的竞争力. 深度神经网络需要花大力气调参, 相比之下, gcForest方法更容易训练得多. 实际上, 在几乎完全一样的超参数设置下, gcForest在处理不同领域的不同数据时, 也能达到极佳的性能.

    针对病理图像细胞核表观多样性的分割问题以及深度神经网络的局限性, 本文提出了一种复杂病理细胞核分割的级联稀疏卷积与决策树集成(CscDTE)学习模型, 如图4 所示. 假设 $ \left( {{{m}},{{y}}} \right) $ 表示训练样本集, 其中, $ {{m}} = \left\{ {{{{f}}_{1,j}} * {I}} \right\}_{j = 1}^{{J_1}} $ 是从输入图像 $ {I} $ 提取的特征图集, $ {{{f}}_1} $ 是第一层学习得到的卷积滤波器组, $ {{y}} $ 是尝试预测的目标. CscDTE框架旨在渐进地提供一种非线性模型 $ {\varphi _{{h}}}\left( {{m}} \right) $ 拟合数据样本, 其中, $ {h} $ 表示模型参数.

    图 4  两层CscDTE学习模型示例
    Fig. 4  Example of two-layer CscDTE architecture

    一般而言, $ {{{f}}_j} $ 是满秩的, 当卷积较大图像时, 计算耗时. 如果将这些卷积滤波器 $ \{ {{{f}}_j} \} _{j = 1}^J $ 堆叠成一个三维张量 $ {\cal Z} \in {\bf{R}}{^{d \times d \times J}} $ , 其中, $ {\cal Z} $ 的第 $ j $ 个切片对应第 $ j $ 个卷积滤波器 $ {{{f}}_j} $ , 可发现该张量存在大量冗余特征. 为此, 为了学习可分离核, 本文进一步引入低秩张量分解技术[19], 利用一组秩为1 (秩-1)张量的线性组合来近似 $ {\cal Z} $ , 从而实现可分离卷积核, 加速特征计算. 该方法基于如下假设: 一个秩为 $ R $ 的滤波器 $ {{{f}}_j} $ 总能由一组秩-1可分离核: $ \left\{ {{{{k}}_{r}} } \right\}_{r = 1}^R $ 线性表示: $ {{{f}}_j} = \displaystyle\sum\nolimits_{r = 1}^R {c_j^r{\kern 1pt}{{{k}}_r}} $ , 其中, $ c_j^r $ 为标量权重. 此时所有的 $ {{{f}}_j} $ 共享同一组秩-1可分离核 $ \left\{ {{{{k}}_{r}} } \right\}_{r = 1}^R $ , 只有权重系数 $ c_j^r $ 因不同的 $ {{{f}}_j} $ 而改变, 且 $ R < J $ . 因此, 为了得到上式中的分解形式, 本文利用低秩张量分解求解如下优化问题来学习 $ \left\{ {{{{k}}_{r}} } \right\}_{r = 1}^R $ :

    $$\mathop {\min }\limits_{{{\left\{ {{{a}^r},{{b}^r},{{c}^r}} \right\}}_r}} \left\| {Z - \sum\limits_{r = 1}^R {{{a}^r}\circ {{b}^r}\circ {{c}^r}} } \right\|_2^2$$ (2)

    其中, $ {{{a}}^r} $ $ {{{b}}^r} $ 均是长度为 $ d $ 的向量, $ {{{c}}^r} $ 是一个长度为 $ J $ 的向量, 符号 $ \circ $ 表示张量积. 式(2)的求解可通过使用共轭梯度下降法[30]来实现. 如图5所示, 可分离核 $ {{{k}}_{r}} $ 可由典范多元分解(Canonical polyadic decomposition, CPD) 成分 $ {{{a}}^r} $ $\; {{{b}}^r}$ 给出, 即 $ {{{k}}_{r}} \! = \! {{{a}}^r} \!\circ\! {{{b}}^r} $ . 用于重构卷积滤波器 $ {{{f}}_j} $ 的权重 $ c_j^r $ 则由向量 $ {{{c}}^r} $ 的第 $ j $ 个成分给出. 为了捕获不同类型的图像特征, 本文相应学习多个可分离核组. 归于可分离卷积核的学习机制, 每个 $ {{{k}}_{r}} $ 都能分解成一个水平滤波器和一个垂直滤波器. 因此, 为了获得 $ {{m}} $ , 首先使用 $ \left\{ {{{{k}}_{r}} } \right\}_{r = 1}^R $ 对图像 $ I $ 进行快速卷积, 生成一组可分离特征图. 然后, 针对每个像素位置, 将这些 $ R $ 维向量映射到一个 $ J $ 维向量. 这等价于在可分离特征图上应用 $ J $ 个空间维度为 $ 1 \times 1 $ 的滤波器[31].

    图 5  基于张量分解技术学习一组秩-1可分离核
    Fig. 5  Tensor decomposition for learning rank-1 separable kernels

    这样, 基于秩-1张量分解学习机制, 本文实现了病理细胞核的多尺度方向分布式抽象特征的分层抽取. 模型的每层始于稀疏可分离卷积核组的训练及相应卷积特征图的计算. 然后以卷积特征作为样本输入, 通过集成决策树学习的正则化回归模块生成得分图预测结果, 如图4所示.

    ${f_i} \! = \! f \left( {{{{x}}_i}, {I}} \right) \;\!\!\in\!\!\; {\bf{R}}{^J}$ 表示输入图像 $ {I} $ 中像素点 $ {{{x}}_i} $ 对应的特征向量, 则从给定的样本集 $ \left( {{{m}},{{y}}} \right) $ 中随机采样 $ N $ 对训练样本集 $ \left\{ {\left( {{f_i}, {y_i}} \right)} \right\}_{i = 1}^N ,{y_i} \in {\bf{R}}. $ CscDTE框架中的集成决策树学习模块的目标是学习 $ M $ 棵既有预测能力又相对简单的决策树(见图6): $ \left\{ {h_l^m\left( \cdot \right)} \right\}_{m = 1}^M :{{\bf{R}}^{{J_l}}} \mapsto {\bf{R}}, $ 并使用这 $ M $ 棵决策树的组合来预测每层的输出:

    图 6  CscDTE框架中的集成决策树学习模块的训练过程
    Fig. 6  Flowchart of the training procedure for the decision tree ensemble learning module of CscDTE framework
    $${\varphi _l}\left( {{{\alpha }_l},{{h}_l}\left( {f\left( {{x},I} \right)} \right)} \right) = \sum\limits_{m = 1}^M {\alpha _l^mh_l^m\left( {f\left( {{x},I} \right)} \right)} $$ (3)

    其中, 第 $ l $ 层第 $ m $ 棵决策树 $ h_l^m\left( \cdot \right) $ 定义如下:

    $$h_l^m\left( {f\left( {{x},I} \right)} \right) = {{w}_{s_l^m\left( {f\left( {{x},I} \right)} \right)}}$$ (4)

    其中, $ s_l^m\left( \cdot \right):{{\bf{R}}^{J_l}} \mapsto \left\{ {1,2,\cdots,C_l^m} \right\} $ 为决策树结构, 表示将一个样本映射到相应的叶节点索引. $ C_l^m =$ $ \left| {h_l^m}\left( \cdot \right) \right| $ 为当前决策树中叶节点的数目. ${{w}}_{s_\ell^{m}\left( \cdot \right)} = $ $ {\left[ {{w_1},\cdots,{w_{C_l^m}}} \right]^{\rm{T}}} \in {\bf{R}}{^{C_\ell^{m}}} $ 为所有叶节点的响应值向量. 这样, 每棵决策树对应一个独立的结构和一组叶节点响应值. 那么, 给定一个输入样本, 就可以利用不同决策树的结构将其划分到叶节点中, 然后对相应叶节点的响应值进行累加求和来计算最终输出. 为了学习模块中的 $ M $ 棵决策树, 本文以贪婪加性方式[32-33]定义如下代价函数:

    $$\begin{split} {\cal L}\left( {{y},\varphi _l^m} \right) =& \left\| {{y} - \left( {\varphi _l^{m - 1} + {{w}_{s_l^m\left( f \right)}}} \right)} \right\|_2^2+\\ & \frac{1}{2}\lambda \left\| {{{w}_{s_l^m\left( f \right)}}} \right\|_2^2 + \gamma \left| {{{w}_{s_l^m\left( f \right)}}} \right| \end{split}$$ (5)

    其中, 第一项为数据拟合项, 该项中 $ {{y}} \! = \! {\left[ {y_1},\cdots,{y_N}\right]^{\rm{T}}}; $ 第二项对应 $ {\ell _2} $ 正则化, 第三项 $ \left| { {{{w}}_{s_l^{m}\left( f \right)}} } \right| $ 表示决策树 $ h_l^m\left( \cdot \right) $ 上叶节点的个数, 第二项和第三项将起到决策树剪枝作用[32], 用于控制决策树的复杂度来避免过拟合, 参数 $ \lambda $ 为正则化系数, 参数 $ \gamma $ 表示引入额外叶节点复杂度成本. 直观地, 最小化上述代价函数有利于算法选择既有预测能力又相对简单的决策树.

    为降低计算复杂度, 本文采用代价函数的一个局部二阶近似来对式(5)进行优化. 集成决策树学习的正则化回归算法通过计算损失函数的二阶导数, 有利于梯度下降的更快更准[34]. 这样, 对于一个固定的决策树结构 $ s_l^m\left( \cdot \right) $ , 则可通过 $ {\cal L} $ 的局部二阶近似计算第 $ c $ 个叶节点的最优响应值, 即 ${\hat w_c} = $ ${{G_{l,c}^m}}\bigg/\left({{H_{l,c}^m + \dfrac{\lambda }{2}}} \right),$ 其中, $ {G_{l,c}^m} $ $ {H_{l,c}^m} $ 分别对应一阶梯度和海森(Hessian)值. 一旦得到 $ {\hat w_c} $ , 就可以通过计算最优 $ {\hat {\cal L}} $ 来选择最优决策树结构 $ {\hat s_l^{m}\left( \cdot \right)} $ . 算法终止条件为: 可预先设置决策树的最大深度值, 使得当决策树的生长到达该深度时, 算法停止继续分裂. 重复上述加性训练过程直至最后一棵决策树. 需要注意的是, 每次迭代学习得到最优决策树 $ \hat {h}_{l}^{m}\left( \cdot \right) $ 之后, 可利用线搜索算法[16]计算其相应的贡献权重 $ \alpha _l^m $ . 然后, 将当前模块更新为 $\varphi _l^m = \varphi _l^{m - 1} + \alpha _l^m \cdot \hat h_l^m$ . 当然, 我们也可以取平均来赋值每个权重 $ \alpha _l^m $ 的值, 即 $\alpha _l^m = {1}/{M}$ .

    在测试阶段, 基于所学的决策树结构 $ \hat s_l^m\left( \cdot \right) $ , 每个新的特征样本被独立地推送到各棵训练好的决策树中. 当该特征样本到达叶节点时, 通过累加求和不同决策树最优 $ {\hat w_c} $ 值来确定此测试样本的预测响应.

    所构建的CscDTE框架由 $ L-1 $ 个隐层和 $ 1 $ 个最终输出层构成, 且每层包含一个稀疏可分离卷积模块和一个集成决策树学习的正则化回归模块. 不妨将第 $ l $ 层的输出定义为 $ {\varphi _l} = {\left[ {{\varphi _{l,1}},{\varphi _{l,2}} ,\cdots,{\varphi _{l,n}}} \right]^{\rm{T}}} ,$ 其中, $ n $ 为图像的像素个数. CscDTE模型将模块对进行堆叠, 这样上层集成决策树学习模块的得分图输出为下层稀疏可分离卷积模块的输入. 对于给定参数集合 $ {{h}}_l ,$ CscDTE模型的前向生成过程为:

    $$\begin{split} &{\varphi _1}\left( {{{\alpha }_1},{{h}_{\rm{1}}}\left( {\left\{ {{{f}_{1,j}}*I} \right\}_{j = 1}^{{J_1}}} \right)} \right)=\\ &\qquad\qquad\quad {\alpha }_1^{\rm{T}}{{h}_{\rm{1}}}\left( {m} \right) = \sum\limits_{m = 1}^M {\alpha _1^mh_1^m\left( {m} \right)} \\ &{{\varphi _2}\left( {{{\alpha }_2},{{h}_2}\left( {{m},\left\{ {{{f}_{2,j}}*{\varphi _1}} \right\}_{j = 1}^{{J_2}}} \right)} \right)}=\\ & \qquad\qquad\quad{\alpha }_2^{\rm{T}}{{h}_2}\left( {{m},{{n}_1}} \right) = \sum\limits_{m = 1}^M {\alpha _2^mh_2^m\left( {{m},{{n}_1}} \right)} \\ &\qquad\qquad\qquad\qquad \cdots \\ & {{\varphi _L}\left( {{{\alpha }_L},{{h}_L}\left( {{m},\left\{ {{{f}_{L,j}}*{\varphi _{L - 1}}} \right\}_{j = 1}^{{J_L}}} \right)} \right)}=\\ & \qquad\qquad\quad {\alpha }_L^{\rm{T}}{{h}_L}\left( {{m},{{n}_{L - 1}}} \right) = \sum\limits_{m = 1}^M {\alpha _L^mh_L^m\left( {{m},{{n}_{L - 1}}} \right)} \end{split}$$ (6)

    其中, $ {{n}}_l $ 表示从第 $ l $ 层输出结果 $ {\varphi _l} $ 提取的特征图集, 且作为第 $ l+1 $ 层集成决策树学习模块 $ {\varphi _{l + 1}} \left( \cdot \right) $ 的输入.

    图7所示, 由于低级图像表观特征占主导作用, 较浅层对背景杂斑和细胞核内不均匀的染质较为敏感. 因此, 本文进一步引入高级上下文特征[35]. 具体地, 从得分图中训练一组新的稀疏可分离卷积核并获取新的上下文卷积特征图集 $ {{n}}_l $ . 为了实现更好的预测, 采用级联卷积特征 $ \left[ {{{m}}, {{{n}}_l}} \right] $ 代替 $ {{{n}}_l} $ 作为新层集成决策树学习模块的样本输入. 重复这一过程 $ L $ 次, 最终获得一个最大程度近似目标区域的输出(见图7(c)). 同时, 由于卷积特征的级联将产生分布式冗余特征, 为此, 本文采取了如下两个策略: 1) 在每层训练之前, 从输入样本中随机采样新的像素位置以构建新的训练集; 2) 随机采样这些像素对应的卷积特征.

    图 7  基于本文提出的CscDTE模型的分割改进
    Fig. 7  Improvement obtained by our CscDTE model

    本节首先介绍用于测试分割方法的病理图像数据集, 并在此基础上, 给出所提出的CscDTE模型的最优超参数设置. 然后, 我们描述评估指标, 并对比标记控制的分水岭分割方法[10]、CNN2[24]、CNN3[25]、U-Net技术[27]以及CscDTE模型的分割性能及参数规模.

    癌症基因组图谱(The cancer genome atlas, TCGA)是被广泛用于细胞核分割的病理数据集, 因为它覆盖了多家医院、多位病人、不同器官以及疾病状态信息. 为了最大化细胞核表观多样性, 本文使用Kumar等采集并标注的TCGA全切片图像(Whole slide images, WSIs)集[25] 作为算法的验证和比较. 其中, 每张图像大小为 $ {\rm{1\;000}} \times {\rm{1\;000}} $ . 为了便于算法的验证和比较, 采用Kumar等的方法将整个数据集拆分成三个部分. 第一部分用于训练和验证, 对应12位病人, 3个器官, 包括4张乳腺病理细胞核图像、4张前列腺病理细胞核以及4张肾脏病理细胞核图像, 总共有11 460个细胞核. 因此, 不管是基于图像块级分类的分割方法还是基于像素级分类的分割方法, 即使不对数据进行扩充, 这个数目也足以使它们训练出相应的学习系统, 并产生预测的分割结果. 第二部分用于相同器官的测试, 对应不同病人, 相同三个器官, 图像总数为6幅. 大多数已有的细胞核分割学习算法只局限于同一器官的训练与测试, 因此, 这一部分能够对模型的泛化能力进行有效的评估. 第三部分用于更具挑战性的不同器官的测试, 对应2个器官, 包括2张胃病理细胞核图像和2张膀胱病理细胞核图像.

    为了进一步验证本文方法的有效性, 本文也采用肾细胞癌(KIdney renal cell carcinoma, KIRC)病理数据集[36]来训练相应CscDTE模型, 并分析分割性能. 来自TCGA数据门户网站的KIRC病理数据集包含了不同类型的WSIs, 涵盖了一定范围的KIRC病理分级. 实验中, 18幅图像用于训练, 20幅图像用于测试, 且平均每幅图像具有96个细胞核, 大小为 $ {\rm{400}} \times {\rm{400}} $ .

    基于验证集中的样本, 采用留一交叉验证方法[37]来确定CscDTE模型关键超参数的最优值, 包括训练样本数量、集成决策树学习模块尺寸、CscDTE模型尺寸以及稀疏可分离卷积滤波器尺寸和数目. 表1列出了在TCGA WSIs病理数据集上所提出CscDTE模型的最优超参数值. 在训练过程中, 随机采样四分之一的像素位置用于集成决策树学习模块的训练, 在计算每棵树的响应之后, 进而使用所有的位置样本来学习式(3)中的权重 $ \alpha _l^m $ .

    表 1  提出的CscDTE模型的最优参数值. 像素位置样本总数为800 000
    Table 1  The optimal hyper-parameter values of our CscDTE model. The total number of pixel samples is 800 000
    数据集 $N$ $L$ ${d^2(R)}$( ${1^{\rm{st}}}$layer; ${2^{\rm{nd}}\sim L^{\rm{th}}}$layers) $M$
    TCGA WSIs 200 000 5 $11^2$(25), $17^2$(8), $21^2$(72), $29^2$(8), $43^2$(44); $11^2$(25), $21^2$(36), $43^2$(36) 50
    下载: 导出CSV 
    | 显示表格

    为了与深度学习技术进行对比, 本文研究了三种不同的网络体系: CNN2[24]、CNN3[25]和U-Net[27], 并在NVIDIA GeForce GTX 1080 Ti® 图形处理单元上使用Tensorflow框架训练所有的网络模型.

    表2表3分别给出了用于复杂TCGA WSIs病理图像分割的CNN2和CNN3体系结构, 包括连续的卷积—池化层对以及若干个全连接层. 最后一层是Softmax层, 旨在基于学习到的特征预测输入图像块属于每一类的概率. Xing等[24]采取两个卷积层和两个全连接层, 而Kumar等[25]则采取三个卷积层和两个全连接层, 因为加入更多的层并不会显著提高网络的分割精确度, 反而会增加计算时间. 为了获得最好的分割性能, 经验设置其他的超参数值, 包括卷积层中的滤波器尺寸和数量、隐层节点数目、以及输入输出尺寸等. 图3给出了用于复杂TCGA WSIs病理图像分割的U-Net体系结构[27]. 该体系结构由编码器和解码器组成. 编码器包含由修正线性单元(Rectified linear unit, ReLU)实现的填充卷积操作, 共两层. 每两个卷积层之后, 有一个步长为2的最大池化操作. 每次最大池化层下采样之后, 特征通道数加倍. 在解码器中, 每两个卷积层之前, 有一个 $ {\rm{2}} \times {\rm{2}} $ 的上采样操作, 且其输出与来自相应编码器部分的特征相结合. 最后两层分别是 $ {\rm{1}} \times {\rm{1}} $ 卷积操作和像素级Softmax输出, 其中, $ {\rm{1}} \times {\rm{1}} $ 卷积层用于将特征图的通道数降至所需的类别数. 在本文的U-Net网络实现中, 代替数据扩充, 只是随机提取了图像块, 不过仍然实现了令人满意的分割性能. 本文使用Tensorflow深度学习框架在TCGA WSIs病理数据集的所有样本上对CNN2、CNN3和U-Net网络均训练了95次(Epochs). 针对每个网络, 分别从12幅训练图像和3幅验证图像中提取了158 400个图像块和32 000个图像块用于训练和验证, 其中包括相等数目的以细胞核像素为中心的正样本块和以非细胞核像素为中心的负样本块. 另外, 基于TCGA WSIs病理数据集, 比较实验分析了标记控制的分水岭分割方法[10].

    表 2  用于病理图像分割的CNN2体系结构
    Table 2  The CNN2 architecture for pathology image segmentation
    网络层 滤波器尺寸 激活 输出尺寸 随机丢弃率
    输入 $ {\rm{55}} \times {\rm{55}} \times {\rm{3}} $
    卷积 1 $ {\rm{6}} \times {\rm{6}} $ ReLU $ {\rm{50}} \times {\rm{50}} \times {\rm{48}} $ 0.1
    池化 1 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{25}} \times {\rm{25}} \times {\rm{48}} $
    卷积 2 $ {\rm{4}} \times {\rm{4}} $ ReLU $ {\rm{22}} \times {\rm{22}} \times {\rm{48}} $ 0.2
    池化 2 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{11}} \times {\rm{11}} \times {\rm{48}} $
    全连接 1 ReLU $ {\rm{1\,024}} \times {\rm{1}} $ 0.5
    全连接 2 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    输出 SoftMax $ 2 \times 1 $
    下载: 导出CSV 
    | 显示表格
    表 3  用于病理图像分割的CNN3体系结构
    Table 3  The CNN3 architecture for pathology image segmentation
    网络层 滤波器尺寸 激活 输出尺寸 随机丢弃率
    输入 $ {\rm{51}} \times {\rm{51}} \times {\rm{3}} $
    卷积 1 $ {\rm{4}} \times {\rm{4}} $ ReLU $ {\rm{48}} \times {\rm{48}} \times {\rm{25}} $ 0.1
    池化 1 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{24}} \times {\rm{24}} \times {\rm{25}} $
    卷积 2 $ {\rm{5}} \times {\rm{5}} $ ReLU $ {\rm{20}} \times {\rm{20}} \times {\rm{50}} $ 0.2
    池化 2 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{10}} \times {\rm{10}} \times {\rm{50}} $
    卷积 3 $ {\rm{6}} \times {\rm{6}} $ ReLU $ {\rm{5}} \times {\rm{5}} \times {\rm{80}} $ 0.25
    池化 3 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{3}} \times {\rm{3}} \times {\rm{80}} $
    全连接 1 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    全连接 2 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    输出 SoftMax $ 3 \times 1 $
    下载: 导出CSV 
    | 显示表格

    图8图9显示了在5个器官和疾病状态下, 病理细胞核图像的分割算法对比. 图8图9中第(a) ~ (g)列分别是原始图像、人工分割结果、CscDTE模型分割结果、U-Net网络分割结果、CNN3网络分割结果、CNN2网络分割结果和标记控制的分水岭分割结果. 需要注意的是, 考虑到不同类型病理图像颜色的异质性, 在分割模型训练之前, 将原始图像从RGB颜色空间转换到CIE LUV均匀颜色空间并作线性归一化. 可以看出, 所提出CscDTE模型能有效应对细胞核大小、形状和方向的变化, 并最大程度地检测正确细胞核的数目. 另外, 针对存在染色质稀疏、重叠和复杂背景杂斑的情形, 例如, 部分前列腺病理图像和膀胱病理图像, CscDTE模型也表现出了良好的鲁棒性(见图10). 相比之下, 虽然U-Net通过融入上下文信息能较好地避免复杂背景杂斑的干扰, 但由于网络深度的影响, 仍然对染色质稀疏的细胞核内细节不够敏感. CNN2利用各向同性区域生长从网络输出中获取细胞核种子标记, 因而易受细胞核形状的影响, 尤其是带分割目标存在重叠和成团的情况, 产生欠分割的现象. CNN3使用各向异性区域生长代替CNN2中的各向同行区域生长, 虽然增加了对重叠、成团分割的鲁棒性, 但其受限于图像块级的分类. 由于只能提取局部特征, 导致其分割精度相比于CscDTE模型较低. 作为传统图像分析的方法, 分水岭在分割灰度均匀的孤立细胞核时, 表现得相当优异, 例如图8中的肾脏细胞核分割. 然而, 对于Kumar病理数据中复杂背景图像, 其分割性能遭受大幅度的下降. 提出的CscDTE模型在训练和预测时间上也优于基于CNN和FCN的体系结构, 训练所有的细胞核仅花费了两个小时左右.

    图 8  Kumar病理细胞核相同器官图像的分割比较
    Fig. 8  Comparative segmentation results on the Kumar same-organs testing pathology images
    图 9  Kumar病理细胞核不同器官图像的分割比较
    Fig. 9  Comparative segmentation results on the Kumar different-organs testing pathology images
    图 10  不同算法在具有重叠、形状及大小不规则的病理图像上的轮廓可视化分割结果图
    Fig. 10  Visualizing segmented contours of different algorithms on the pathology image with shape and color variations and overlapping regions

    图11显示了通过使用KIRC数据集对比细胞核分割算法的可视化结果. 图中第1, 5、2, 6、3, 7和4, 8行分别是原始图像、人工分割结果、本文方法分割结果以及U-Net网络分割结果. 提出的CscDTE模型提供了一种定义复杂形式假设 $ {\varphi}\left( \cdot \right) $ 的级联方式, 并使用其最优参数拟合病理数据. 本文方法使得模型在训练过程中能够获取足够多的上下文信息. 如图11所示, 相比U-Net, CscDTE模型驱动的拟合重构能够起到信号正则化的作用. 因此, 即使当细胞核出现密集重叠以及形状、大小等变化时, 提出的分割方法也仍然有效.

    图 11  本文方法与U-Net方法在KIRC数据集上的分割比较
    Fig. 11  Comparative segmentation using ours and U-Net on the KIRC dataset

    为了定量评估分割算法的性能, 本文分别使用Jaccard相似性系数、精确率、F1分数和平均边缘距离(ABD)三个指标来比较算法输出的掩模 $ P $ 与Ground Truth掩模 $ R $ , 计算如下

    $$\begin{split} &{\rm{Jaccard}} \!=\! \frac{{\left| {P \cap R} \right|}}{{\left| {P \cup R} \right|}},{\rm{Precision}} \!=\! \frac{{\left| {P \cap R} \right|}}{{\left| P \right|}},{\rm{F1}} = \frac{{2\left| {P \cap R} \right|}}{{\left| P \right| + \left| R \right|}},\\ &{\rm{ABD = }}\frac{{\rm{1}}}{{\rm{2}}}\left( {\frac{{\displaystyle\sum\limits_{x \in PB} d \left( {x,RB} \right)}}{{\left| {PB} \right|}} + \frac{{\displaystyle\sum\limits_{u \in RB} d \left( {u,PB} \right)}}{{\left| {RB} \right|}}} \right) \end{split}$$ (7)

    其中, $ PB $ $ RB $ 分别对应 $ P $ $ R $ 的边缘. 表4表5给出了在TCGA WSIs病理数据集上不同算法实现的定量分割结果. 可以看出, 相比其他方法, 提出的CscDTE模型在不同器官图像和整个数据集上对三个指标值的改进明显. 由于本文方法更加有效地级联低级图像表观特征和高级上下文特征, 并结合集成决策树学习模块的使用, 提出方法在Jaccard相似性系数和F1分数整体值上分别超出表现最好的U-Net和CNN3方法4.4 %和2.7 %, 同时在平均边缘距离值上相比U-Net减少了大约4.8个像素. 另外, 定量分割结果也反映出U-Net和CNN3在相同器官和不同器官测试方面均强于CNN2, 而在前列腺病理细胞核图像上, 所提出方法略逊于U-Net和CNN3. 需要注意的是: 1) 虽然标记控制的分水岭分割算法在相同器官测试上, 超过CNN2的性能, 但它们的分割精度较差, 造成了大量的误分割结果; 2) 本文算法无需非线性激活和后向传播计算, 虽然性能较之深度神经网络有很强的竞争力, 但由于端到端训练的简易性, 因而当染质稀疏较为严重时, 分割结果会有较大差异. 为了便于模型的显著性差异分析, 本文进一步采用双样本 $ t $ -检验统计指标[38]来对不同方法进行比较. 基于F1分数, 虽然提出的CscDTE模型在整个Kumar数据集上与U-Net模型、CNN3模型、CNN2模型、分水岭模型之间没有显著性差异发生的概率( $ p $ 值)分别为0.491、0.493、0.197、0.110, 但在不同器官图像上却有本质区别, 概率分别为0.001、0.141、0.018、0.021. 表6给出了本文方法和U-Net方法在KIRC测试图像上的各指标均值和标准差. 可以看出, CscDTE模型的分割性能明显优于表现最好的U-Net模型, 且具有更好的可靠性.

    表 4  本文方法与其他方法在Kumar病理数据集上的分割性能(均值)比较
    Table 4  Performance comparison of other methods with our CscDTE (For each metric, the mean are listed)
    器官 图像 Jaccard相似性系数 精确率 F1分数 平均边缘距离
    本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭
    乳腺 1 0.594 0.539 0.570 0.569 0.545 0.810 0.832 0.756 0.764 0.591 0.745 0.700 0.726 0.725 0.706 14.90 42.78 29.68 64.46 42.36
    2 0.675 0.613 0.603 0.448 0.592 0.832 0.803 0.844 0.853 0.625 0.806 0.760 0.752 0.619 0.744 12.99 13.12 14.34 62.27 18.49
    前列腺 1 0.646 0.634 0.656 0.625 0.585 0.867 0.858 0.858 0.871 0.679 0.785 0.776 0.792 0.769 0.739 12.56 15.87 11.41 10.22 24.40
    2 0.342 0.485 0.459 0.387 0.409 0.834 0.827 0.906 0.832 0.603 0.510 0.653 0.629 0.558 0.581 88.69 34.51 40.34 56.01 37.81
    肾脏 1 0.692 0.673 0.641 0.691 0.570 0.752 0.782 0.848 0.755 0.606 0.818 0.804 0.781 0.817 0.726 12.14 15.25 19.47 12.24 30.03
    2 0.513 0.539 0.524 0.463 0.512 0.765 0.789 0.763 0.681 0.570 0.678 0.701 0.687 0.633 0.677 16.35 21.48 12.73 21.38 9.48
    膀胱 1 0.603 0.551 0.581 0.550 0.325 0.846 0.756 0.720 0.795 0.330 0.752 0.711 0.735 0.709 0.490 41.97 86.13 22.91 52.33 79.61
    2 0.759 0.629 0.580 0.656 0.508 0.867 0.898 0.926 0.909 0.516 0.863 0.772 0.734 0.792 0.674 6.58 14.32 17.09 19.03 22.04
    1 0.781 0.645 0.622 0.577 0.647 0.881 0.920 0.824 0.913 0.692 0.877 0.784 0.767 0.732 0.785 1.99 7.44 8.49 9.16 3.67
    2 0.785 0.641 0.714 0.623 0.679 0.891 0.931 0.948 0.910 0.736 0.880 0.781 0.833 0.767 0.809 1.09 6.82 5.41 6.75 1.76
    相同器官 0.577 0.581 0.576 0.531 0.536 0.810 0.815 0.829 0.793 0.612 0.724 0.732 0.728 0.687 0.696 26.27 23.84 21.33 37.76 27.10
    不同器官 0.732 0.617 0.624 0.602 0.540 0.871 0.876 0.855 0.882 0.569 0.843 0.762 0.767 0.750 0.690 12.91 28.68 13.48 21.82 26.77
    整体 0.639 0.595 0.595 0.559 0.537 0.835 0.840 0.839 0.828 0.595 0.771 0.744 0.744 0.712 0.693 20.93 25.77 18.19 31.39 26.97
    下载: 导出CSV 
    | 显示表格
    表 5  本文方法与其他方法在Kumar病理数据集上的分割性能(标准差)比较
    Table 5  Performance comparison of other methods with our CscDTE (For each metric, the standard deviation are listed)
    器官 Jaccard相似性系数 精确率 F1分数 平均边缘距离
    本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭
    乳腺 0.057 0.052 0.023 0.086 0.033 0.016 0.021 0.062 0.063 0.024 0.043 0.042 0.018 0.075 0.027 1.35 20.97 10.85 1.55 16.88
    前列腺 0.215 0.105 0.139 0.168 0.125 0.023 0.022 0.034 0.028 0.054 0.195 0.087 0.115 0.149 0.112 53.83 13.18 20.46 32.38 9.48
    肾脏 0.127 0.095 0.083 0.161 0.041 0.009 0.005 0.060 0.052 0.026 0.099 0.073 0.067 0.130 0.035 2.98 4.41 4.77 6.46 14.53
    膀胱 0.110 0.055 0.001 0.075 0.129 0.015 0.100 0.146 0.081 0.132 0.079 0.043 0.001 0.059 0.130 25.02 50.78 4.12 23.55 40.71
    0.003 0.003 0.065 0.033 0.023 0.007 0.008 0.088 0.002 0.031 0.002 0.002 0.047 0.025 0.017 0.64 0.44 2.18 1.70 1.35
    相同器官 0.132 0.071 0.075 0.117 0.069 0.044 0.029 0.058 0.072 0.037 0.116 0.057 0.062 0.099 0.061 30.62 12.09 11.45 25.79 12.23
    不同器官 0.087 0.044 0.063 0.047 0.161 0.020 0.081 0.105 0.058 0.185 0.061 0.034 0.046 0.037 0.145 19.52 38.45 8.00 21.02 36.39
    整体 0.136 0.062 0.071 0.098 0.106 0.047 0.061 0.076 0.078 0.113 0.112 0.049 0.057 0.084 0.096 26.37 24.09 10.52 24.18 22.91
    下载: 导出CSV 
    | 显示表格
    表 6  本文方法与U-Net在KIRC数据集上的分割性能(均值, 标准差)比较
    Table 6  Performance comparison of U-Net with our CscDTE (For each metric, the mean and standard deviation are listed)
    KIRC Jaccard系数 精确率 F1分数 平均边缘距离
    均值 标准差 均值 标准差 均值 标准差 均值 标准差
    本文方法 0.735 0.054 0.832 0.050 0.846 0.037 22.66 9.51
    U-Net 0.642 0.064 0.742 0.093 0.780 0.049 57.78 23.11
    下载: 导出CSV 
    | 显示表格

    对于逐像素分割任务而言, 学习模型的参数规模是另一个重要的性能评估指标. 学习模型中带参数的层主要有卷积层、批归一化层以及全连接层等, 而激活函数、池化层和上采样层旨在提供一种非线性变换, 无需学习. 本文采取秩-1可分离卷积核代替卷积滤波器, 且无需全连接层特征映射, 参数规模较之传统深度学习方法较小, 如表7所示.

    表 7  不同算法在病理数据集上的参数规模
    Table 7  Number of parameters of different algorithms on the pathology dataset
    方法 本文算法 U-Net CNN3 CNN2
    参数规模 184KB 1.75MB 1.97MB 7.04MB
    下载: 导出CSV 
    | 显示表格

    本文提出了一个级联稀疏卷积与决策树集成学习(CscDTE)的细胞核分割模型. 常用的分水岭分割方法和深度学习网络对算法初始化和病理图像数据的多样性较为敏感. 与之相比, CscDTE模型具有四个方面的优势:

    1) 为了实现鲁棒特征的提取和CscDTE模型算法的加速, 基于秩-1张量分解学习机制, CscDTE模型在各层引入稀疏可分离卷积模块, 分层抽取细胞核的多尺度方向分布式抽象特征;

    2) 为了提升模型的分割性能, 充分考虑像素间的关系, CscDTE模型使用级联卷积特征作为样本输入, 迭代有监督地训练集成决策树模块直到收敛;

    3) 为了增强集成决策树模块对数据复杂性和可变性的自适应能力, CscDTE模型采取随机采样、树剪枝以及正则化回归机制提升逐像素分布式特征集成回归分类能力;

    4) 不同器官和疾病状态的复杂病理数据集上的大量试验表明了所提出的CscDTE方法相比于已有最先进技术的优越性.

    在现有框架的基础上, 将利用更先进的预测模型对集成决策树学习模块进行替换, 以实现更好的分割性能; 将结合语义分割, 在应用层面对CscDTE其进行拓展; 将探索管状显微结构的提取与重构, 例如血管、神经突等, 并拓展至三维医学图像应用.

  • 图  1  病理细胞核图像分割的挑战与人工分割结果

    Fig.  1  Challenges in nuclear segmentation and associated ground truth

    图  2  用于病理图像分割的CNN体系结构

    Fig.  2  The CNN-style architecture for pathology image segmentation

    图  3  用于病理图像分割的U-Net体系结构

    Fig.  3  The U-Net-style architecture for pathology image segmentation

    图  4  两层CscDTE学习模型示例

    Fig.  4  Example of two-layer CscDTE architecture

    图  5  基于张量分解技术学习一组秩-1可分离核

    Fig.  5  Tensor decomposition for learning rank-1 separable kernels

    图  6  CscDTE框架中的集成决策树学习模块的训练过程

    Fig.  6  Flowchart of the training procedure for the decision tree ensemble learning module of CscDTE framework

    图  7  基于本文提出的CscDTE模型的分割改进

    Fig.  7  Improvement obtained by our CscDTE model

    图  8  Kumar病理细胞核相同器官图像的分割比较

    Fig.  8  Comparative segmentation results on the Kumar same-organs testing pathology images

    图  9  Kumar病理细胞核不同器官图像的分割比较

    Fig.  9  Comparative segmentation results on the Kumar different-organs testing pathology images

    图  10  不同算法在具有重叠、形状及大小不规则的病理图像上的轮廓可视化分割结果图

    Fig.  10  Visualizing segmented contours of different algorithms on the pathology image with shape and color variations and overlapping regions

    图  11  本文方法与U-Net方法在KIRC数据集上的分割比较

    Fig.  11  Comparative segmentation using ours and U-Net on the KIRC dataset

    表  1  提出的CscDTE模型的最优参数值. 像素位置样本总数为800 000

    Table  1  The optimal hyper-parameter values of our CscDTE model. The total number of pixel samples is 800 000

    数据集 $N$ $L$ ${d^2(R)}$( ${1^{\rm{st}}}$layer; ${2^{\rm{nd}}\sim L^{\rm{th}}}$layers) $M$
    TCGA WSIs 200 000 5 $11^2$(25), $17^2$(8), $21^2$(72), $29^2$(8), $43^2$(44); $11^2$(25), $21^2$(36), $43^2$(36) 50
    下载: 导出CSV

    表  2  用于病理图像分割的CNN2体系结构

    Table  2  The CNN2 architecture for pathology image segmentation

    网络层 滤波器尺寸 激活 输出尺寸 随机丢弃率
    输入 $ {\rm{55}} \times {\rm{55}} \times {\rm{3}} $
    卷积 1 $ {\rm{6}} \times {\rm{6}} $ ReLU $ {\rm{50}} \times {\rm{50}} \times {\rm{48}} $ 0.1
    池化 1 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{25}} \times {\rm{25}} \times {\rm{48}} $
    卷积 2 $ {\rm{4}} \times {\rm{4}} $ ReLU $ {\rm{22}} \times {\rm{22}} \times {\rm{48}} $ 0.2
    池化 2 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{11}} \times {\rm{11}} \times {\rm{48}} $
    全连接 1 ReLU $ {\rm{1\,024}} \times {\rm{1}} $ 0.5
    全连接 2 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    输出 SoftMax $ 2 \times 1 $
    下载: 导出CSV

    表  3  用于病理图像分割的CNN3体系结构

    Table  3  The CNN3 architecture for pathology image segmentation

    网络层 滤波器尺寸 激活 输出尺寸 随机丢弃率
    输入 $ {\rm{51}} \times {\rm{51}} \times {\rm{3}} $
    卷积 1 $ {\rm{4}} \times {\rm{4}} $ ReLU $ {\rm{48}} \times {\rm{48}} \times {\rm{25}} $ 0.1
    池化 1 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{24}} \times {\rm{24}} \times {\rm{25}} $
    卷积 2 $ {\rm{5}} \times {\rm{5}} $ ReLU $ {\rm{20}} \times {\rm{20}} \times {\rm{50}} $ 0.2
    池化 2 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{10}} \times {\rm{10}} \times {\rm{50}} $
    卷积 3 $ {\rm{6}} \times {\rm{6}} $ ReLU $ {\rm{5}} \times {\rm{5}} \times {\rm{80}} $ 0.25
    池化 3 $ {\rm{2}} \times {\rm{2}} $ Max $ {\rm{3}} \times {\rm{3}} \times {\rm{80}} $
    全连接 1 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    全连接 2 ReLU ${\rm{1\,024} } \times {\rm{1} }$ 0.5
    输出 SoftMax $ 3 \times 1 $
    下载: 导出CSV

    表  4  本文方法与其他方法在Kumar病理数据集上的分割性能(均值)比较

    Table  4  Performance comparison of other methods with our CscDTE (For each metric, the mean are listed)

    器官 图像 Jaccard相似性系数 精确率 F1分数 平均边缘距离
    本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭
    乳腺 1 0.594 0.539 0.570 0.569 0.545 0.810 0.832 0.756 0.764 0.591 0.745 0.700 0.726 0.725 0.706 14.90 42.78 29.68 64.46 42.36
    2 0.675 0.613 0.603 0.448 0.592 0.832 0.803 0.844 0.853 0.625 0.806 0.760 0.752 0.619 0.744 12.99 13.12 14.34 62.27 18.49
    前列腺 1 0.646 0.634 0.656 0.625 0.585 0.867 0.858 0.858 0.871 0.679 0.785 0.776 0.792 0.769 0.739 12.56 15.87 11.41 10.22 24.40
    2 0.342 0.485 0.459 0.387 0.409 0.834 0.827 0.906 0.832 0.603 0.510 0.653 0.629 0.558 0.581 88.69 34.51 40.34 56.01 37.81
    肾脏 1 0.692 0.673 0.641 0.691 0.570 0.752 0.782 0.848 0.755 0.606 0.818 0.804 0.781 0.817 0.726 12.14 15.25 19.47 12.24 30.03
    2 0.513 0.539 0.524 0.463 0.512 0.765 0.789 0.763 0.681 0.570 0.678 0.701 0.687 0.633 0.677 16.35 21.48 12.73 21.38 9.48
    膀胱 1 0.603 0.551 0.581 0.550 0.325 0.846 0.756 0.720 0.795 0.330 0.752 0.711 0.735 0.709 0.490 41.97 86.13 22.91 52.33 79.61
    2 0.759 0.629 0.580 0.656 0.508 0.867 0.898 0.926 0.909 0.516 0.863 0.772 0.734 0.792 0.674 6.58 14.32 17.09 19.03 22.04
    1 0.781 0.645 0.622 0.577 0.647 0.881 0.920 0.824 0.913 0.692 0.877 0.784 0.767 0.732 0.785 1.99 7.44 8.49 9.16 3.67
    2 0.785 0.641 0.714 0.623 0.679 0.891 0.931 0.948 0.910 0.736 0.880 0.781 0.833 0.767 0.809 1.09 6.82 5.41 6.75 1.76
    相同器官 0.577 0.581 0.576 0.531 0.536 0.810 0.815 0.829 0.793 0.612 0.724 0.732 0.728 0.687 0.696 26.27 23.84 21.33 37.76 27.10
    不同器官 0.732 0.617 0.624 0.602 0.540 0.871 0.876 0.855 0.882 0.569 0.843 0.762 0.767 0.750 0.690 12.91 28.68 13.48 21.82 26.77
    整体 0.639 0.595 0.595 0.559 0.537 0.835 0.840 0.839 0.828 0.595 0.771 0.744 0.744 0.712 0.693 20.93 25.77 18.19 31.39 26.97
    下载: 导出CSV

    表  5  本文方法与其他方法在Kumar病理数据集上的分割性能(标准差)比较

    Table  5  Performance comparison of other methods with our CscDTE (For each metric, the standard deviation are listed)

    器官 Jaccard相似性系数 精确率 F1分数 平均边缘距离
    本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭 本文 U-Net CNN3 CNN2 分水岭
    乳腺 0.057 0.052 0.023 0.086 0.033 0.016 0.021 0.062 0.063 0.024 0.043 0.042 0.018 0.075 0.027 1.35 20.97 10.85 1.55 16.88
    前列腺 0.215 0.105 0.139 0.168 0.125 0.023 0.022 0.034 0.028 0.054 0.195 0.087 0.115 0.149 0.112 53.83 13.18 20.46 32.38 9.48
    肾脏 0.127 0.095 0.083 0.161 0.041 0.009 0.005 0.060 0.052 0.026 0.099 0.073 0.067 0.130 0.035 2.98 4.41 4.77 6.46 14.53
    膀胱 0.110 0.055 0.001 0.075 0.129 0.015 0.100 0.146 0.081 0.132 0.079 0.043 0.001 0.059 0.130 25.02 50.78 4.12 23.55 40.71
    0.003 0.003 0.065 0.033 0.023 0.007 0.008 0.088 0.002 0.031 0.002 0.002 0.047 0.025 0.017 0.64 0.44 2.18 1.70 1.35
    相同器官 0.132 0.071 0.075 0.117 0.069 0.044 0.029 0.058 0.072 0.037 0.116 0.057 0.062 0.099 0.061 30.62 12.09 11.45 25.79 12.23
    不同器官 0.087 0.044 0.063 0.047 0.161 0.020 0.081 0.105 0.058 0.185 0.061 0.034 0.046 0.037 0.145 19.52 38.45 8.00 21.02 36.39
    整体 0.136 0.062 0.071 0.098 0.106 0.047 0.061 0.076 0.078 0.113 0.112 0.049 0.057 0.084 0.096 26.37 24.09 10.52 24.18 22.91
    下载: 导出CSV

    表  6  本文方法与U-Net在KIRC数据集上的分割性能(均值, 标准差)比较

    Table  6  Performance comparison of U-Net with our CscDTE (For each metric, the mean and standard deviation are listed)

    KIRC Jaccard系数 精确率 F1分数 平均边缘距离
    均值 标准差 均值 标准差 均值 标准差 均值 标准差
    本文方法 0.735 0.054 0.832 0.050 0.846 0.037 22.66 9.51
    U-Net 0.642 0.064 0.742 0.093 0.780 0.049 57.78 23.11
    下载: 导出CSV

    表  7  不同算法在病理数据集上的参数规模

    Table  7  Number of parameters of different algorithms on the pathology dataset

    方法 本文算法 U-Net CNN3 CNN2
    参数规模 184KB 1.75MB 1.97MB 7.04MB
    下载: 导出CSV
  • [1] Webster J D, Dunstan R W. Whole-slide imaging and automated image analysis: Considerations and opportunities in the practice of pathology. Veterinary Pathology, 2014, 51(1): 211−223 doi: 10.1177/0300985813503570
    [2] Yu K H, Zhang C, Berry G J, Altman R B, Re C, Rubin D L, et al. Predicting non-small cell lung cancer prognosis by fully automated microscopic pathology image features. Nature Communications, 2016, 7(12474): 1−10
    [3] 郑强, 董恩清. 窄带主动轮廓模型及在医学和纹理图像局部分割中的应用. 自动化学报, 2013, 39(1): 21−30 doi: 10.1016/S1874-1029(13)60003-8

    Zheng Qiang, Dong En-Qing. Narrow band active contour model for local segmentation of medical and texture images. Acta Automatica Sinica, 2013, 39(1): 21−30 doi: 10.1016/S1874-1029(13)60003-8
    [4] 张帆, 张新红. 基于位错理论的距离正则化水平集图像分割算法. 自动化学报, 2018, 44(5): 943−952

    Zhang Fan, Zhang Xin-Hong. Distance regularized level set image segmentation algorithm by means of dislocation theory. Acta Automatica Sinica, 2018, 44(5): 943−952
    [5] Yan P, Zhou X, Shah M, Wong S T C. Automatic segmentation of high-throughput RNAi fluorescent cellular images. IEEE Transactions on Information Technology in Biomedicine, 2008, 12(1): 109−117 doi: 10.1109/TITB.2007.898006
    [6] Al-Kofahi Y, Lassoued W, Lee W, Roysam B. Improved automatic detection and segmentation of cell nuclei in histopathology images. IEEE Transactions on Biomedical Engineering, 2010, 57(4): 841−852 doi: 10.1109/TBME.2009.2035102
    [7] Arslan S, Ersahin T, Cetin-Atalay R, Gunduz-Demir C. Attributed relational graphs for cell nucleus segmentation in fluorescence microscopy images. IEEE Transactions on Medical Imaging, 2013, 32(6): 1121−1131 doi: 10.1109/TMI.2013.2255309
    [8] Koyuncu C F, Arslan S, Durmaz I, Cetin-Atalay R, Gunduz-Demir C. Smart markers for watershed-based cell segmentation. PLoS One, 2012, 7(11): e48664 doi: 10.1371/journal.pone.0048664
    [9] Veta M, Huisman A, Viergever M A, van Diest P J, Pluim J P W. Automatic nuclei segmentation in H&E stained breast cancer histopathology images. PLoS One, 2013,8(7): e70221 doi: 10.1371/journal.pone.0070221
    [10] Dong F, Irshad H, Oh E Y, Lerwill M F, Brachtel E F, Jones N C, et al. Computational pathology to discriminate benign from malignant intraductal proliferations of the breast. PLoS One, 2014, 9(12): e114885 doi: 10.1371/journal.pone.0114885
    [11] Zhou Y, Chang H, Barner K E, Parvin B. Nuclei segmentation via sparsity constrained convolutional regression. In: Proceedings of the 2015 IEEE International Symposium on Biomedical Imaging. New York, NY, USA: IEEE, 2015. 1284−1287
    [12] Zhou Z-H, Feng J. Deep forest: Towards an alternative to deep neural networks. In: Proceedings of the 2017 International Joint Conference on Artificial Intelligence. Melbourne, Australia: Morgan Kaufmann, 2017. 3553−3559
    [13] Sironi A, Tekin B, Rigamonti R, Lepetit V, Fua P. Learning separable filters. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(1): 94−106 doi: 10.1109/TPAMI.2014.2343229
    [14] Sironi A, Lepetit V, Fua P. Multiscale centerline detection by learning a scale-space distance transform. In: Proceedings of the 2014 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014. 2697−2704
    [15] Sironi A, Türetken E, Lepetit V, Fua P. Multiscale centerline detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(7): 1327−1341 doi: 10.1109/TPAMI.2015.2462363
    [16] Song J, Xiao L, Lian Z C. Contour-seed pairs learning-based framework for simultaneously detecting and segmenting various overlapping cells/nuclei in microscopy images. IEEE Transactions on Image Processing, 2018, 27(12): 5759−5774 doi: 10.1109/TIP.2018.2857001
    [17] Song J, Xiao L, Molaei M, Lian Z C. Multi-layer boosting sparse convolutional model for generalized nuclear segmentation from histopathology images. Knowledge-Based Systems, 2019, 176: 40−53 doi: 10.1016/j.knosys.2019.03.031
    [18] Sulam J, Papyan V, Romano Y, Elad M. Multilayer convolutional sparse modeling: pursuit and dictionary learning. IEEE Transactions on Signal Processing, 2018, 66(15): 4090−4104
    [19] Kolda T G, Bader B W. Tensor decompositions and applications. SIAM Review, 2009, 51(3): 455−500 doi: 10.1137/07070111X
    [20] Wright J, Ma Y, Mairal J, Sapiro G, Huang T S, Yan S. Sparse representation for computer vision and pattern recognition. Proceedings of the IEEE, 2010, 98(6): 1031−1044 doi: 10.1109/JPROC.2010.2044470
    [21] Rigamonti R, Brown M, Lepetit V. Are sparse representations really relevant for image classification. In: Proceedings of the 2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE, 2011. 1545−1552
    [22] Bach F, Jenatton R, Mairal J, Obozienski G. Optimization with sparsity-inducing penalties. Foundations and Trends in Machine Learning, 2012, 4(1): 1−106
    [23] Xu J, Xiang L, Liu Q, Gilmore H, Wu J, Tang J, et al. Stacked sparse autoencoder (SSAE) for nuclei detection on breast cancer histopathology images. IEEE Transactions on Medical Imaging, 2016, 35(1): 119−130 doi: 10.1109/TMI.2015.2458702
    [24] Xing F, Xie Y, Yang L. An automatic learning-based framework for robust nucleus segmentation. IEEE Transactions on Medical Imaging, 2016, 5(2): 550−566
    [25] Kumar N, Verma R, Sharma S, Bhargava S, Vahadane A, Sethi A. A dataset and a technique for generalized nuclear segmentation for computational pathology. IEEE Transactions on Medical Imaging, 2017, 36(7): 1550−1560 doi: 10.1109/TMI.2017.2677499
    [26] Zhang L, Sonka M, Lu L, Summers R M, Yao J. Combining fully convolutional networks and graph-based approach for automated segmentation of cervical cell nuclei. In: Proceedings of the 2017 IEEE International Symposium on Biomedical Imaging. Melbourne, VIC, Australia: IEEE, 2017. 406−409
    [27] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation. In: Proceedings of Medical Image Computing and Computerassisted Intervention: MICCAI International Conference on Medical Image Computing and Computer-assisted Intervention. Berlin Heidelberg: Springer, 2015. 234−241
    [28] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks. In: Proceedings of Advances in Neural Information Processing Systems 25: Proceedings of the 2012 Conference. Cambridge: MIT Press, 2012. 1097−1105
    [29] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640−651 doi: 10.1109/TPAMI.2016.2572683
    [30] Acar E, Dunlavy D M, Kolda T G. A scalable optimization approach for fitting canonical tensor decompositions. Journal of Chemometrics, 2011, 25(2): 67−86 doi: 10.1002/cem.1335
    [31] Lin M, Chen Q, Yan S. Network In Network. In: Proceedings of the 2014 International Conference on Learning Representations. Banff, AB, Canada: OpenReview, 2014. 1−10
    [32] Hastie T, Tibshirani R, Friedman J. The elements of statistical learning. New York, NY, USA, Berlin Heidelberg: Springer, 2001
    [33] Rokach L. Ensemble-based classifiers. Artificial Intelligence Review, 2010, 33(1-2): 1−39 doi: 10.1007/s10462-009-9124-7
    [34] Chen T, Guestrin C. XGBoost: a scalable tree boosting system. In: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco, CA, USA: ACM, 2016. 785−794
    [35] Tu Z, Bai X. Auto-context and its application to high-level vision tasks and 3D brain image segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(10): 1744−1757 doi: 10.1109/TPAMI.2009.186
    [36] Irshad H, Montaser-Kouhsari L, Waltz G, Bucur O, Nowak J A, Dong F, Knoblauch N W, Beck A H. Crowdsourcing image annotation for nucleus detection and segmentation in computational pathology: evaluating experts, automated methods, and the crowd, In: Proceedings of Pacific Symposium on Biocomputing, Fairmont Orchid, Hawaii, USA: PSB, 2014. 294−305
    [37] Mairal J, Bach F, Ponce J. Task-driven dictionary learning. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(4): 791−804 doi: 10.1109/TPAMI.2011.156
    [38] McDonald J H. Handbook of biological statistics. Baltimore, MD: Sparky House, 2014.
  • 期刊类型引用(5)

    1. 陈亮,郭慧慧,尹涛. 基于轻量网络的白细胞快速检测算法. 中国生物医学工程学报. 2025(01): 66-76 . 百度学术
    2. 唐智贤,李镇,郭俏,胡家祺,王雪,姚旭峰. 基于可变形注意力transformer的胃肠癌病理图像细胞核自动分割方法. 复旦学报(医学版). 2024(03): 396-403 . 百度学术
    3. 崔文成,杨丹,邵虹. 基于双路特征的宫颈细胞核分割. 电子测量技术. 2023(06): 129-136 . 百度学术
    4. 柴媛媛. 基于YOLOv4-tiny模型的细胞图像识别技术研究. 现代电子技术. 2022(09): 46-49 . 百度学术
    5. 宋杰,肖亮,练智超,蔡子贇,蒋国平. 基于深度学习的数字病理图像分割综述与展望. 软件学报. 2021(05): 1427-1460 . 百度学术

    其他类型引用(13)

  • 加载中
图(11) / 表(7)
计量
  • 文章访问数:  1564
  • HTML全文浏览量:  529
  • PDF下载量:  263
  • 被引次数: 18
出版历程
  • 收稿日期:  2019-09-23
  • 录用日期:  2020-03-12
  • 网络出版日期:  2021-02-26
  • 刊出日期:  2021-02-26

目录

/

返回文章
返回