2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于逐像素点深度卷积网络分割模型的上皮和间质组织分割

骆小飞 徐军 陈佳梅

王卫卫, 李小平, 冯象初, 王斯琪. 稀疏子空间聚类综述. 自动化学报, 2015, 41(8): 1373-1384. doi: 10.16383/j.aas.2015.c140891
引用本文: 骆小飞, 徐军, 陈佳梅. 基于逐像素点深度卷积网络分割模型的上皮和间质组织分割. 自动化学报, 2017, 43(11): 2003-2013. doi: 10.16383/j.aas.2017.c160464
WANG Wei-Wei, LI Xiao-Ping, FENG Xiang-Chu, WANG Si-Qi. A Survey on Sparse Subspace Clustering. ACTA AUTOMATICA SINICA, 2015, 41(8): 1373-1384. doi: 10.16383/j.aas.2015.c140891
Citation: LUO Xiao-Fei, XU Jun, CHEN Jia-Mei. A Deep Convolutional Network for Pixel-wise Segmentation on Epithelial and Stromal Tissues in Histologic Images. ACTA AUTOMATICA SINICA, 2017, 43(11): 2003-2013. doi: 10.16383/j.aas.2017.c160464

基于逐像素点深度卷积网络分割模型的上皮和间质组织分割

doi: 10.16383/j.aas.2017.c160464
基金项目: 

江苏创新创业团队人才计划 JS201526

国家自然科学基金 61273259

江苏省自然科学基金 BK20141482

国家自然科学基金 61771249

江苏省"六大人才高峰"高层次人才项目资助计划 2013-XXRJ-019

详细信息
    作者简介:

    骆小飞 2013年和2016年在南京信息工程大学获得学士和硕士学位.主要研究方向为机器学习, 计算机视觉, 医学图像分析.E-mail:luoxiaofeifly@163.com

    陈佳梅 武汉大学中南医院博士研究生.2012年获得武汉大学学士学位.主要研究方向为基于计算机图像和分子探针影像分析的乳腺癌生物学行为研究.E-mail:cjm7352@163.com

    通讯作者:

    徐军 南京信息工程大学教授.主要研究方向为计算病理学, 数字病理, 癌症的计算机辅助检测、诊断与预后, 基于深度学习及大数据驱动的医学数据分析, 临床转化医学.本文通信作者.E-mail:jxu@nuist.edu.cn

A Deep Convolutional Network for Pixel-wise Segmentation on Epithelial and Stromal Tissues in Histologic Images

Funds: 

Jiangsu Innovation and Entrepreneurship Group Talents Plan JS201526

National Natural Science Foundation of China 61273259

Natural Science Foundation of Jiangsu Province BK20141482

National Natural Science Foundation of China 61771249

Six Major Talents Summit of Jiangsu Province 2013-XXRJ-019

More Information
    Author Bio:

    Received his bachelor and master degrees at Nanjing University of Information Science and Technology in 2013 and 2016, respectively. His research interest covers machine learning, computer vision, and medical image analysis

    Ph. D. candidate at Zhongnan Hospital, Wuhan University. She received her bachelor degree at Wuhan University in 2012. Her research interest covers computerized image analysis and molecular probes techniques for biological behavior of breast cancer

    Corresponding author: XU Jun Professor at Nanjing University of Information Science and Technology. His research interest covers computational pathology, digital pathology, computer-aided detection, diagnosis, and prognosis on cancers, deep learning and big data driven analysis for medical data analysis, and clinical transitional medicine. Corresponding author of this paper
  • 摘要: 上皮和间质组织是乳腺组织病理图像中最基本的两种组织,约80%的乳腺肿瘤起源于乳腺上皮组织.为了构建基于乳腺组织病理图像分析的计算机辅助诊断系统和分析肿瘤微环境,上皮和间质组织的自动分割是重要的前提条件.本文构建一种基于逐像素点深度卷积网络(CN-PI)模型的上皮和间质组织的自动分割方法.1)以病理医生标注的两类区域边界附近具有类信息为标签的像素点为中心,构建包含该像素点上下文信息的正方形图像块的训练集.2)以每个正方形图像块包含的像素的彩色灰度值作为特征,以这些图像块中心像素类信息为标签训练CN模型.在测试阶段,在待分割的组织病理图像上逐像素点地取包含每个中心像素点上下文信息的正方形图像块,并输入到预先训练好的CN网络模型,以预测该图像块中心像素点的类信息.3)以每个图像块中心像素为基础,逐像素地遍历图像中的每一个像素,将预测结果作为该图像块中心像素点类信息的预测标签,实现对整幅图像的逐像素分割.实验表明,本文提出的CN-PI模型的性能比基于图像块分割的CN网络(CN-PA)模型表现出了更优越的性能.
  • 自2006年Hinton等[1]提出第一个深度置信网络开始,经过十年的发展,深度学习已逐渐成为机器学习研究领域的前沿热点.深度置信网络[2]、深度卷积神经网络[3]、深度自动编码器[4]等深度网络也广泛应用于机器学习的各个领域,如图像识别、语音分析、文本分析等[5-7].相对于传统的机器学习网络,深度网络取得了更好的效果,极大地推动了技术发展水平(State-of-the-art)[8].尤其在大数据背景下,针对海量无标签数据的学习,深度网络具有明显的优势[9].

    受限玻尔兹曼机(Restricted Boltzmann machine,RBM)[10]是深度学习领域中的一个重要模型,也是构成诸多深度网络的基本单元之一.由于RBM较难训练,所以在很多大数据量任务上使用较少.但相对于其他基本模型,RBM具备较强的理论分析优势和可解释性,是帮助我们理解深度网络和其他基本模型内在机理的重要模型,而且在某些特殊数据集上,RBM可以获得更好的学习效果. 所以,研究RBM仍然很有意义. RBM具有两层结构,在无监督学习下,隐层单元可以对输入层单元进行抽象,提取输入层数据的抽象特征.当多个RBM或RBM与其他基本单元以堆栈的方式构成深度网络时,RBM隐层单元提取到的抽象特征可以作为其他单元的输入,继续进行特征提取.通过这种方式,深度网络可以提取到抽象度非常高的数据特征.当采用逐层贪婪(Greedy layer-wise)[11]训练方法对深度网络进行训练时,各个基本单元是逐一被训练的.因此,RBM训练的优劣将直接影响整个深度网络的性能.

    2006年,Hinton等提出了对比散度(Contrastive divergence,CD)算法[12]用以训练RBM网络.在每次训练迭代时,CD算法以数据样本为初始值,通过多步Gibbs迭代获得目标分布的近似采样,然后通过该近似采样来近似目标梯度,取得了较好的效果,是目前RBM训练的标准算法.但研究表明,CD算法对目标梯度的估计是有偏估计[13],而且每次迭代时都需要重新启动Gibbs采样链,这降低了CD算法的训练性能.为此,Tieleman等以CD算法为基础,于2008年提出了持续对比散度(Persistent contrastive divergence,PCD)算法[14].在学习率足够小的前提下,每次参数更新后,RBM模型的变化不大,可以认为RBM网络分布基本不变.基于此假设,PCD算法只运行一条独立的采样链,以上次采样迭代的采样值作为下次采样迭代的初值继续迭代,而不是像CD算法那样每次采样都以样本数据为采样初值,取得了比CD算法更好的训练效果.为了加速PCD算法,Tieleman又于2009年提出了加速持续对比散度(Fast persistent contrastive divergence,FPCD)算法[15],引入了额外的加速参数来提高训练速度. PCD算法和FPCD算法虽然训练性能较CD算法有所提高,但并没有从本质上提高CD算法的混合率[16].不管是CD算法,还是以CD算法为基础的PCD算法、FPCD算法,都是通过一条Gibbs采样链来逼近目标分布,对于目标分布较简单的数据,可以取得较好的效果.但当数据分布复杂,尤其为多模分布时,即目标分布函数存在多个峰值,Gibbs采样链很容易陷入局部极小域,导致样本不能描述数据分布的整体结构[17].为克服这个问题,Desjardins (2010)等[18]、Cho (2010)等[19]、 Brakel (2012)等[20]等分别提出应用并行回火算法(Parallel tempering,PT)来训练RBM. PT算法并行化多条温度链,每条温度链上进行多步Gibbs迭代.高温链采样目标总体分布的结构信息,低温链采样目标局部分布的精确信息.不同温度链之间以一定的交换概率进行交换,不断迭代,最后低温链就可以精确获得目标分布的总体信息.对于多模分布数据,PT算法的训练效果要明显优于CD算法[21].

    通过以上描述可知,不管是CD算法还是PT算法,本质上都是以Gibbs采样来获得关于目标分布的采样样本.因此,Gibbs采样性能的优劣将直接影响以上算法的训练效果.本文研究发现,当采用多步Gibbs采样时,在训练初期会发生采样发散现象,严重影响网络收敛速度,而且算法运行速度较慢;当采用单步Gibbs采样时,前期网络收敛性质较好,且算法运行速度较快,但后期采样精度不高.如何在前期保证良好的收敛性质,同时在后期保证网络训练精度并提高算法运行速度,是目前基于Gibbs采样的RBM训练算法亟需解决的问题,从现有文献来看,尚无人对以上问题进行研究.因此,本文将从马尔科夫采样理论的角度对以上问题进行分析,并提出了动态Gibbs采样算法,最后给出了仿真验证.

    受限玻尔兹曼机是一个马尔科夫随机场模型[22],它具有两层结构,如图 1所示.下层为输入层,包含m个输入单元vi ,用来表示输入数据,每个输入单元包含一个实值偏置量ai ;上层为隐层,包含n个隐层单元hj ,表示受限玻尔兹曼机提取到的输入数据的特征,每个隐层单元包含一个实值偏置bj .受限玻尔兹曼机具有层内无连接,层间全连接的特点.即同层内各节点之间没有连线,每个节点与相邻层所有节点全连接,连线上有实值权重矩阵wij .这一性质保证了各层之间的条件独立性.

    图 1  RBM 结构
    Fig. 1  Con¯guration of RBM

    本文研究二值受限玻尔兹曼机[23],即随机变量(V,H)取值(v,h)∈{0,1}.由二值受限玻尔兹曼机定义的联合分布满足Gibbs分布 $P(v,h)=\frac{1}{{{Z}_{\theta }}}{{e}^{-{{E}_{\theta }}(v,h)}}$ ,其中θ为网络参数 $\theta =\{{{a}_{i}},{{b}_{j}},{{w}_{ij}}\}$ ,Eθ (v,h)为网络的能量函数:

    ${{E}_{\theta }}(v,h)=-\sum\limits_{i=1}^{n}{\sum\limits_{j=1}^{m}{{{w}_{ij}}{{v}_{i}}{{h}_{j}}}-\sum\limits_{i=1}^{m}{{{a}_{i}}{{v}_{i}}}-\sum\limits_{j=1}^{n}{{{b}_{j}}{{h}_{j}}}}$

    (1)

    Zθ为配分函数: ${{Z}_{\theta }}=\sum\limits_{v,h}{{{e}^{-{{E}_{\theta }}(v,h)}}}$ .输入层节点v的概率分布P(v)为: $P(v)=\frac{1}{{{Z}_{\theta }}}\sum\limits_{h}{{{e}^{-{{E}_{\theta }}(v,h)}}}$ .由受限玻尔兹曼机各层之间的条件独立性可知,当给定输入层数据时,输出层节点取值满足如下条件概率:

    $\begin{array}{*{35}{r}} P({{h}_{k}}=1|v)=\frac{1}{1+\exp (-{{b}_{j}}-\sum\limits_{i=1}^{n}{{{w}_{ij}}{{v}_{i}}})}= \\ sigmoid\left( {{b}_{j}}+\sum\limits_{i=1}^{n}{{{w}_{ij}}{{v}_{i}}} \right)\ \\ \end{array}$

    (2)

    相应地,当输出层数据确定后,输入层节点取值的条件概率为

    $\begin{array}{*{35}{r}} P({{h}_{k}}=1|v)=\frac{1}{1+\exp (-{{a}_{i}}-\sum\limits_{i=1}^{n}{{{w}_{ij}}{{h}_{j}}})}= \\ sigmoid\left( {{a}_{i}}+\sum\limits_{i=1}^{n}{{{w}_{ij}}{{h}_{j}}} \right)\ \\ \end{array}$

    (3)

    给定一组训练样本 $S=\{{{v}^{1}},{{v}^{2}},\cdots ,{{v}^{n}}\}$ ,训练RBM意味着调整参数θ,以拟合给定的训练样本,使得该参数下由相应RBM表示的概率分布尽可能地与训练数据的经验分布相符合.本文应用最大似然估计的方法对网络参数进行估计.这样,训练RBM的目标就是最大化网络的似然函数: ${{L}_{\theta ,w}}=\prod\limits_{i=1}^{n}{P({{v}^{i}})}$ .为简化计算,将其改写为对数形式: $\ln {{L}_{\theta ,w}}=\sum\limits_{i=1}^{n}{\ln P({{v}^{i}})}$ .进一步推导对数似然函数的参数梯度

    $\begin{align} & \frac{\partial \ln P(v)}{\partial {{a}_{i}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{a}_{i}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{a}_{i}}}={{v}_{i}}-\sum\limits_{v}{P(v){{v}_{i}}} \\ & \ \frac{\partial \ln P(v)}{\partial {{b}_{j}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{b}_{j}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{b}_{j}}}=P({{h}_{i}}=1|v)-\ \\ & \sum\limits_{v}{P(v)P({{h}_{i=1}}|v)} \\ & \ \frac{\partial \ln P(v)}{\partial {{w}_{ij}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{w}_{ij}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{w}_{ij}}}=P({{h}_{j}}=1|v){{v}_{i}}-\ \\ & \sum\limits_{v}{P(v)P({{h}_{j=1}}|v){{v}_{i}}}\ \\ \end{align}$

    (4)

    得到对数似然函数的参数梯度后,可以由梯度上升法求解其最大值.但由于数据分布P(v)未知,且包含配分函数Zθ ,因此,无法给出梯度的解析解.现有训练算法主要是基于采样的方法,首先,构造以P(v) 为平稳分布的马尔科夫链,获得满足P(v)分布的样本;然后,通过蒙特卡洛迭代来近似梯度:

    $\begin{matrix} \begin{align} & \nabla {{a}_{i}}=v_{i}^{(0)}-v_{i}^{(k)} \\ & \ \nabla {{b}_{j}}=P({{h}_{j}}=1|{{v}^{(0)}})-P({{h}_{j}}=1|{{v}^{(k)}})\ \\ & \nabla {{w}_{ij}}=P({{h}_{j}}=1|{{v}^{(0)}})v_{i}^{(0)}-P({{h}_{j}}=1|{{v}^{(k)}})v_{i}^{(k)}\ \\ \end{align} \\ \end{matrix}$

    (5)

    其中,vi(0) 为样本值,vi(k)为通过采样获得的满足P(v)分布的样本.最后,参数更新方程如下:

    $\begin{matrix} \begin{align} & {{a}_{i}}={{a}_{i}}+\nabla {{a}_{i}} \\ & \ {{b}_{i}}={{b}_{i}}+\nabla {{b}_{i}}\ \\ & {{w}_{ij}}={{w}_{ij}}+\nabla {{w}_{ij}}\ \\ \end{align} \\ \end{matrix}$

    (6)

    现有RBM训练算法,包括CD_k算法、并行回火(PT)算法,这两类算法都是以Gibbs采样为基础的,都是通过多步Gibbs采样获得一定精度的目标采样,然后分别通过其他后续操作获得最终的目标梯度近似值. CD_k算法是RBM训练的主流算法,因此,本节以CD_k算法为例,通过仿真的方式,揭示了作为以上算法基本操作单元的Gibbs采样在网络训练过程中出现的问题,研究了它对网络收敛速度和训练精度的影响.

    首先给出 CD_k 算法的操作步骤:

    步骤 1. 设定网络参数初值.

    步骤 2.将训练数据输入到输入层节点,由式(2)对隐层节点值进行采样,

    步骤 3.根据式(3)对输入层节点进行采样.再以此采样值作为输入层节点的值重复步骤2,这样就完成了一步Gibbs采样.

    步骤 4. 步骤2和步骤3重复k次,完成k步Gibbs采样,即CD_k.

    步骤 5.将步骤4获得的采样值带入式(5)中,计算参数梯度.

    步骤 6. 将步骤5中获得的参数梯度带入式(6)中,对参数进行更新.

    步骤 7.更新训练数据,重复步骤 2~6,直到达到额定迭代次数.

    相应的伪代码如算法1所示:

    算法 1. CD_k 算法伪代码

    Input: RBM(V1,…,Vm,H1,…,H_n ),training batch S

    Output: wij,aj and bi for i=1,…,n,j=1,…,m

    1: Init ▽wij =▽aj=▽bi=0 for i=1,…,n,j=1,…,m

    2: For all the vS do

    3: v(0)v

    4: for t=0,…,k-1 do

    5: for i=1,…,n do sample hi(t)p(hi|v(t))

    6: for j=1,…,m do sample vj(t+1)~ p(vj|h(t))

    7: for i=1,…,n,j=1,…,m do

    8: ▽ wij =p(Hi =1|v(0)vj (0)-p(Hi =1|v(k)· vj(k)

    9: ▽aj=vj(0) -vj(k)

    10: ▽bi=p(Hi =1|v(0))-p(Hi =0|v(k))

    11: wij =wij +η▽wij

    12: ai =ai+η▽ai

    13: bi=bi+η▽bi

    14: End For

    其中,a为可见层偏置向量,b为隐层偏置向量,w为网络权值矩阵,η为学习率.

    1) 实验设计

    本文采用的数据集是MNIST数据集,它是二值手写数据集,也是目前训练RBM网络的标准数据集.它总共包含60 000个训练样本和10 000个测试样本,每个样本是一幅28像素×28像素的灰度图.所采用的RBM网络有784×500个节点,输入层有784个可见单元,对应灰度图的784个像素点;输出层有500个隐层节点,这是目前实验显示的训练效果较好的隐层节点数目.具体的网络参数初始值设定如表 1.

    表 1  网络参数初值
    Table 1  Initial value of parameters
    网络参数初始值
    a zeros(1, 784)
    b zeros(1, 500)
    w 0.1 × randn(784, 500)
    η 0.1
    下载: 导出CSV 
    | 显示表格

    本文设计了6组对比实验,用60000个训练样本对RBM进行训练,分别迭代1000次,如表 2所示.其中CD_k表示进行k步Gibbs迭代.用于显示的样本数据的原始图片如图 2所示.实验结束后,我们比较了各组实验的重构误差,并给出了最终的误差图.

    图 2  原始数据灰度图
    Fig. 2  Gray image of initial data
    表 2  实验分组
    Table 2  Experimental grouping
    数据集算法迭代次数
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    下载: 导出CSV 
    | 显示表格

    2) 仿真结果图 3表示整个迭代过程中各组CD算法的重构误差图,图 4给出了各组实验的训练时间,图 5图 10分别给出了各组实验的采样灰度图.

    图 3  重构误差图
    Fig. 3  Reconstruction error diagram
    图 4  运行时间图
    Fig. 4  Runtime diagram
    图 5  CD_1 采样灰度图
    Fig. 5  Gray image of CD_1 sampling
    图 6  CD_5 采样灰度图
    Fig. 6  Gray image of CD_5 sampling
    图 7  CD_10 采样灰度图
    Fig. 7  Gray image of CD_10 sampling
    图 8  CD_100 采样灰度图
    Fig. 8  Gray image of CD_100 sampling
    图 9  CD_500 采样灰度图
    Fig. 9  Gray image of CD_500 sampling
    图 10  CD_1000 采样灰度图
    Fig. 10  Gray image of CD_1000 sampling

    上节实验给出了CD算法在不同Gibbs采样步数下的仿真图,可以看出,当RBM网络采用多步Gibbs算法进行采样迭代时,会出现如下问题:

    问题 1.训练初始阶段,得到的每幅重构采样图几乎完全相同.

    图 11图 12所示,在训练初始阶段,多步Gibbs采样出现了各组采样数据同分布的现象,这表明各组样本几乎完全相同,这与事实相左.在训练初期,大约0~100次迭代期间,这种现象持续存在.

    图 11  CD_500 采样灰度图
    Fig. 11  Gray image of CD_500 sampling
    图 12  CD_1000 采样灰度图
    Fig. 12  Gray image of CD_1000 sampling

    问题 2. 采样误差分布集中,在批量训练时,存在全0全1现象.

    图 13图 14所示,当进行多步Gibbs采样时,出现了误差分布集中的现象:有些样本采样几乎全为1,而其他的样本采样几乎全为0.由仿真实验可知,在0~100次迭代期间,这种现象在迭代初期持续存在.

    图 13  CD_500 采样灰度图
    Fig. 13  Gray image of CD_500 sampling
    图 14  CD_1000 采样灰度图
    Fig. 14  Gray image of CD_1000 sampling

    问题3.一步Gibbs采样初始误差小,训练速度快,但后期训练精度低;多步Gibbs采样初始误差大,训练速度慢,但后期训练精高.

    图 15图 16所示,只进行一步Gibbs采样的CD_1算法在开始时训练误差较小,很快便收敛到较好值,但训练后期精度不如CD_10等进行多步Gibbs迭代的CD算法;进行多步Gibbs采样的CD_k迭代算法,在训练初期误差较大,且不断振荡,而且训练时间较慢,但到训练后期,它们可以达到极高的精度.

    以上实验表明,CD算法虽然对RBM具有良好的训练能力,但Gibbs采样的步数对训练性能造成了明显的影响.我们将在下节研究这种影响,并对以上问题给出理论分析.

    图 15  采样误差局部放大图
    Fig. 15  Local enlarged drawing of reconstruction error in initial phase
    图 16  CD_1000 采样误差局部放大图
    Fig. 16  Local enlarged drawing of reconstruction error in later stage

    Gibbs采样是马尔科夫链蒙特卡洛(Markov chain Monte Carlo,MCMC)采样算法的一种.在RBM训练中,它的转移核是Sigmoid函数.隐层节点和输入层节点交替采样,公式如下:

    $\begin{array}{*{35}{l}} \begin{align} & P({{h}_{j}}=1|V)=sigmoid({{b}_{j}}+\sum\limits_{i=1}^{n}{{{w}_{i,j}}{{v}_{i}}})\ \\ & P({{v}_{i}}=1|H)=sigmoid({{a}_{i}}+\sum\limits_{i=1}^{n}{{{w}_{i,j}}{{h}_{j}}})\ \\ \end{align} \\ \end{array}$

    (7)

    由马尔科夫链收敛定理可知,当n→ +∞ 时,Gibbs采样链会收敛到平衡分布,即:

    ${{\pi }_{i}}(x)={{\pi }_{i-1}}(x)P={{\pi }_{0}}{{P}^{n}}$

    (8)

    其中,π(x)为样本x的平衡分布.同时,由细致平衡准则可得:

    $\pi (i){{P}_{ij}}=\pi (j){{P}_{ji}},\ \ \forall i,j$

    (9)

    即Gibbs采样的平稳分布与迭代初始值无关,只与转移概率有关.由上面给出的RBM交替采样概率公式可知,当用Gibbs采样对RBM进行采样训练时,其平稳分布是网络参数的函数:

    $\pi (x)=f(a,b,w)$

    (10)

    从这个角度讲,训练RBM的目的就是调节网络参数,使由网络参数确定的平稳分布等于样本的真实分布.

    基于以上描述,下面对第2节中提出的问题给出理论解释.

    问题1. 训练初始阶段,得到的每幅重构采样图几乎完全相同.

    初始时刻,网络参数初值相同,在早期迭代过程中,网络参数值的变动也不大,满足如下公式:

    $\left\{ \begin{array}{*{35}{l}} \begin{align} & {{a}_{i}}-{{a}_{j}}﹤\varepsilon \\ & \ {{b}_{i}}-{{b}_{j}}﹤\varepsilon \ \\ & {{w}_{i}}={{w}_{j}}\ \\ \end{align} \\ \end{array} \right.\ \ \ \ $

    (11)

    ε为一极小正值.由网络参数决定的平稳分布也近乎相同:

    $\begin{align} & f({{a}_{i}},{{b}_{i}},w)\approx f({{a}_{j}},{{b}_{j}},w)\Rightarrow \\ & \ \pi ({{x}_{i}})\approx \pi ({{x}_{j}})\ \\ \end{align}$

    (12)

    即各样本的平稳分布相等.因此,当进行多步Gibbs采样时,各训练样本的采样样本逐渐收敛到相同的平稳分布,这时就出现了问题1描述的现象,各样本的重构采样图几乎完全相同.

    问题2. 采样误差分布集中,在批量训练时,存在全0全1现象.

    由上一部分分析可知,在训练初期,网络参数改变不大,由RBM参数决定的平衡分布几乎同构,即各采样概率收敛到相同平衡分布值.上述对比实验中,网络参数的初始值为θ =(a,b,w)=(0,0,0.1),此时网络平衡分布收敛在0.5附近,样本数据的收敛概率将在0.5附近浮动,即一部分样本的采样概率略小于0.5,另一部分样本的采样概率略大于0.5,即:

    $\begin{align} & \pi (\theta )\to 0.5\ \\ & p({{v}_{i}}|H)=0.5+\varepsilon \\ & \ p({{v}_{n-i}}|H)=0.5-\varepsilon \ \\ \end{align}$

    (13)

    其中,ε为一极小正值.这时基于随机数对样本进行采样,一部分样本的采样值将全为0,另一部分的采样值将全为1,即全0全1现象.

    问题3.一步Gibbs采样初始误差小,训练速度快,但后期训练精度低;多步Gibbs采样初始误差大,训练速度慢,但后期训练精高.

    设网络参数期望值为 $\hat{\theta }=\left( \hat{a},\hat{b},\hat{w} \right)$ ,它代表参数的真实值:设网络参数实际值为θ =(a,b,w),这是我们在训练网络过程中,网络参数的实际值,训练的目标就是使网络参数实际值逐渐逼近其真实值.定义网络参数差△θ(△a,△b,△w):

    $\begin{array}{*{35}{l}} \begin{align} & \Delta a=\hat{a}-a\ \\ & \Delta b=\hat{b}-b\ \\ & \Delta w=\hat{w}-w\ \\ \end{align} \\ \end{array}$

    (14)

    在网络训练早期,网络参数差较大,由网络参数定义的平稳分布与真实分布相差也较大,即 $\Delta \pi =\left| {{\pi }_{{\hat{\theta }}}}(x)-{{\pi }_{\theta }}(x) \right|\gg 0$ .此时,如果对样本进行多步迭代采样,采样样本将偏离真实分布,从而不能收敛到真实分布,而是收敛到与真实分布相差较大的其他分布.因此,在迭代初期,CD_1000、CD_500等算法的采样误差非常大,而且运行时间较长.而CD_1算法由于只进行了一次采样迭代,不仅运行速度加快,而且由于采样样本的分布没有偏离真实分布太多,使得这时候的CD_1算法的采样误差非常小.由实验可知,此时采样误差的大小关系为:CD_1﹤CD_5﹤CD_10﹤CD_100﹤CD_500﹤CD_1000.到了网络训练后期,由于网络参数差非常小,网络参数的实际值已经非常接近真实值,这时候进行多步Gibbs迭代能很好地逼近样本真实分布,所以这一阶段,CD_k算法的采样精度要比CD_1高.但由于网络参数差一直存在,所以,Gibbs迭代步数也不宜过高,如实验所示,CD_1000在采样到最后,采样误差仍高于CD_10.

    在现有以Gibbs采样为基础的RBM训练算法中,Gibbs采样的采样步数多为固定值,即在整个训练过程中,每次迭代采样时都进行固定步数的Gibbs采样,这样就难以兼顾训练精度和训练速度这两个训练指标.当进行多步Gibbs采样时,容易在训练前期发生误差发散的现象,且算法运行时间较长;一步Gibbs采样算法运行较快,但后期训练精度不高,基于此,本文提出了动态Gibbs采样(Dynamic Gibbs sampling,DGS)算法.

    定义1.动态Gibbs采样是指在迭代训练过程中的不同阶段,根据网络的训练误差,动态地调整Gibbs采样的步数,以达到最优训练效果.

    通过上节分析可知,在网络训练初期,网络参数几乎相等,各样本的平稳分布也近乎相等,而且网络参数差较大,样本的平稳分布与真实分布相差也较大,因此,这一阶段应尽量减少采样次数,克服多步Gibbs采样引起的误差发散,提高训练速度,使网络参数尽快逼近真实值;当网络参数逼近真实值时,此时应加大采样迭代次数,提高训练精度.

    基于以上定义和描述,DGS算法的操作步骤如下:

    步骤 1. 设定网络参数初值和动态策略M.

    步骤 2. 在1~m1 迭代范围内,设置Gibbs采样步数k1 =Gibbs_N1 .

    步骤 3. 将训练数据输入到输入层节点,由式(2)对隐层节点值进行采样.

    步骤 4. 根据式(3)对输入层节点进行采样.再以此采样值作为输入层节点的值重复步骤3,这样就完成了一步Gibbs采样.

    步骤 5. 步骤3和步骤4重复k1 次,完成k1步Gibbs采样.

    步骤 6. 将步骤5获得的采样值带入式(5)中,计算参数梯度.

    步骤 7. 将步骤6中获得的参数梯度带入式(6)中,对参数进行更新.

    步骤 8. 更新训练数据,重复步骤3到步骤7,直到迭代次数达到m1 .

    步骤 9.m1m2 迭代范围内,设置Gibbs采样步数k2 =Gibbs_N2 .

    步骤 10. 重复步骤3到步骤8,直到迭代次数达到m2 .

    步骤 11.m2Iter迭代范围内,设置Gibbs采样步数k3 =Gibbs_N3 .

    步骤 12. 重复步骤3到步骤8,直到迭代次数达到最大迭代次数Iter.

    相应的伪代码如算法2所示.

    算法2. DGS 算法伪代码

    1: Input: RBM(v1 ,v2 ,v3 ,…,vn ,h1 ,h2 ,h3 ,…,hm ),training batch S

    2: Output: wij ,ai andbj for i=1,…,n,j=1,…,m

    3: Init:▽wij =▽aj =▽bi =0 for i=1,…,n,j=1,…,m

    4: For all the S do

    5: for iter=1:m1 do

    6: for t=0,…,k-1 do Gibbs_N1

    7: for i=1,…,n do sample hi(t)p(hi|v(t))

    8: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    9: for iter=m1 :m2 do

    10: for t=0,…,k-1 do Gibbs_N2

    11: for i=1,…,n do sample hi(t)p(hi|v(t))

    12: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    13: for iter=m2:Iter do

    14: for t=0,…,k-1 do Gibbs_N3

    15: for i=1,…,n do sample hi(t)p(hi|v(t))

    16: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    17: for i=1,…,n,j=1,…,m do

    18:▽wij =p(Hi =1| v(0)vj (0)-p(Hi=1|v(k)vj(k)

    19:▽aj =vj(0) -vj(k)

    20:▽bi=p(Hi=1|v(0))-p(Hi=0|v(k))

    21: wij =wij +η▽wij

    22: ai =ai +η▽ai

    23:bi=bi+η▽bi

    24: End For}

    其中,M=(m1 ,m2 )为动态策略,且满足m2 >m1 . Iter为总的迭代次数,iter为当前迭代次数. Gibbs_Ni为Gibbs采样,Ni 表示采样次数,且满足Nn >N_n-1 .其中Gibbs采样次数N与网络训练迭代次数M之间的大致关系如下:

    $\begin{align} & Gibbs\_{{N}_{1}}=1\ \ \ \ \ \ \ \ \ \ 若\ iter\in (1\tilde{\ }{{m}_{1}}>) \\ & \ Gibbs\_{{N}_{2}}=2\tilde{\ }10\ \ \ 若\ iter\in ({{m}_{1}}\tilde{\ }{{m}_{2}})\ \\ & Gibbs\_{{N}_{3}}>10\ \ \ \ \ \ \ \ \ 若\ iter\in ({{m}_{2}}\tilde{\ }Iter) \\ & \\ \end{align}$

    (15)

    本节设计了7组对比实验,第1~6组实验采用固定Gibbs采样步数的CD_k算法进行训练仿真,第6组实验用DGS算法对网络进行训练仿真,如表 3所示.两组实验使用相同的数据集MNIST,网络结构相同,网络参数初始值相同,如表 4所示.本文设计的动态采样策略如表 5所示.下面给出仿真实验结果和分析.

    表 3  实验分组
    Table 3  Experimental grouping
    数据集训练算法Iter
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    MNIST DGS1000
    下载: 导出CSV 
    | 显示表格
    表 4  网络参数初值
    Table 4  Initial values of parameters
    算法参数CD_k DGS
    a zeros(1,784) zeros(1,784)
    b zeros(1,500) zeros(1,500)
    w 0.1 × randn(784,500) 0.1 × randn(784,500)
    η0.10.1
    V784784
    H500500
    下载: 导出CSV 
    | 显示表格
    表 5  DGS 迭代策略
    Table 5  Iterative strategy of DGS
    M Gibbs_N
    (1:m1) = (1:300) Gibbs_N1 = 1
    (m1:m2) = (300:900) Gibbs_N2 = 5
    (m2:Iter) = (900:1000) Gibbs_N3 = 10
    下载: 导出CSV 
    | 显示表格

    图 17给出了所有算法的重构误差对比图.对比结果显示,本文设计的DGS算法可以很好地训练RBM网络,从而证明了本文算法的有效性.

    图 17  重构误差对比图
    Fig. 17  Contrast of reconstruction error

    在迭代初期,DGS算法只进行一次Gibbs采样迭代,避免了采样发散,从而迅速收敛到较好的值,由误差对比图初始阶段的局部放大图(图 18)可以看出,此时误差满足:

    图 18  训练初期局部放大图
    Fig. 18  Local enlarged drawing of reconstruction error in initial phase

    $\begin{align} & \text{DGS= CD }\!\!\_\!\!\text{ 1}\succ \text{CD5}\succ \text{CD }\!\!\_\!\!\text{ 10}\succ \text{CD }\!\!\_\!\!\text{ 100}\succ \\ & \text{CD }\!\!\_\!\!\text{ 500}\succ \text{CD }\!\!\_\!\!\text{ 1000} \\ & \\ \end{align}$

    (16)

    在迭代后期,网络参数值已非常接近真实值,此时DGS逐步增大了Gibbs采样的迭代步数,获得了采样精度更高的目标样本,最终获得了更高的训练精度,即:

    $\begin{align} & \text{DGS= CD }\!\!\_\!\!\text{ 10}\succ \text{CD }\!\!\_\!\!\text{ 5}\succ \text{CD }\!\!\_\!\!\text{ 1}\succ \text{CD }\!\!\_\!\!\text{ 100}\succ \\ & \text{CD }\!\!\_\!\!\text{ 500}\succ \text{CD }\!\!\_\!\!\text{ 1000} \\ & \\ \end{align}$

    (17)

    图 19所示.

    图 19  训练后期局部放大图
    Fig. 19  Local enlarged drawing of reconstruction error in later stage

    图 20给出了所有算法的运行时间对比图.从图中可以看出,在整个训练过程中,DGS算法、CD_1算法、CD_5算法和CD_10算法的运行速度都明显比其他算法快.因此,下面根据本文设计的动态策略,对各个迭代区间内这4种算法的运行速度进行分析:

    图 20  运行时间对比图
    Fig. 20  Contrast of runtime

    在1~300迭代范围内,DGS算法的Gibbs采样步数k设为1,与CD_1算法相同.所以,此时的DGS算法的运行速度与CD_1相同,且快于其他两种算法,如图 21所示.

    图 21  运行时间对比图
    Fig. 21  Contrast of runtime

    在300~900迭代范围内,DGS算法的Gibbs采样步数k设为5.由图 22可以看出,此时DGS算法的运行速度逐渐放缓,运行时间明显上升,逐渐大于CD_1算法.

    图 22  运行时间对比图
    Fig. 22  Contrast of runtime

    在900~1000迭代范围内,DGS算法的Gibbs采样步数k设为10.所以,这个时期的DGS运行时间持续放缓.但从图 23中可以看出,即便到了训练后期,DGS算法的运行时间仍然小于CD_5算法和其他CD_k (k>5)算法.这说明,DGS算法在后期提高训练精度的同时,只付出了微小的时间代价.

    图 23  运行时间对比图
    Fig. 23  Contrast of runtime

    图 24图 28分别给出了DGS算法在不同迭代次数下的采样重构图.对比图 11图 12,可以看出,DGS在训练迭代50次以内就可以很好地重构输入样本,而且没有出现全0全1现象和采样图同构现象,从而克服了第2.2节问题1和问题2中描述的问题.

    图 24  DGS 迭代10次采样灰度图
    Fig. 24  Gray image of DGS by 10 iterations
    图 25  DGS 迭代20次采样灰度图
    Fig. 25  Gray image of DGS by 20 iterations
    图 26  DGS 迭代30次采样灰度图
    Fig. 26  Gray image of DGS by 30 iterations
    图 27  DGS 迭代40次采样灰度图
    Fig. 27  Gray image of DGS by 40 iterations
    图 28  DGS 迭代50次采样灰度图
    Fig. 28  Gray image of DGS by 50 iterations

    图 29显示了DGS训练结束后的重构灰度图,图中几乎没有噪点.可见,采用DGS算法训练网络可以获得更高的训练精度,从而解决了第2.2节中问题3描述的问题.

    图 29  DGS 重构灰度图
    Fig. 29  Gray image of DGS

    综上所述,本文设计的DGS算法在训练初期克服了多步Gibbs采样发散的缺点,在训练后期获得更高的精度,而且在保证收敛精度的情况下大幅度提高了训练速度,获得了较好的效果.

    本文首先通过仿真实验,给出了现有基于Gibbs采样的RBM训练算法在训练初期误差发散和后期训练精度不高等问题的具体描述,然后从马尔科夫采样理论的角度对Gibbs采样误差进行理论分析.证明在RBM网络下,多步Gibbs采样较差的收敛性质是导致前期采样发散和算法运行速度较低的主要原因;单步Gibbs采样是造成后期训练精度不高的主要原因.基于此,本文提出了动态Gibbs采样算法,并给出了验证实验.实验表明,本文提出的动态Gibbs采样算法在训练初期克服了多步Gibbs采样引起的误差发散,后期克服了单步Gibbs采样带来的训练精度低的问题,同时提高了训练速度,以上特点可以弥补现有以Gibbs采样为基础的RBM训练算法的不足.

    关于Gibbs采样步数、训练迭代次数与训练精度之间的关系,本文在理论分析部分只给出了定性分析;在动态Gibbs采样算法设计阶段,本文只是根据实验分析,给出Gibbs采样步数和训练迭代次数之间的经验区间. Gibbs采样步数、训练迭代次数以及网络训练精度之间是否存在精确的数学关系,如果存在,其数学模型如何构建.以上问题仍有待进一步研究.


  • 本文责任编委 张道强
  • 图  1  显微镜不同物镜放大倍数下的乳腺肿瘤组织病理图像

    Fig.  1  Histopathological images of breast tumors under different magnification of objective microscope

    图  2  上皮组织的不同形态

    Fig.  2  Different forms of epithelial tissue

    图  3  不同组织病理学分级的图像

    Fig.  3  Images of different histopathological grades

    图  4  本文使用的CN网络结构图

    Fig.  4  The CN net work structure in this paper

    图  5  在边缘处提取训练集小块示意图

    Fig.  5  The images of extracting small block in training set at the edge

    图  6  分割流程图

    Fig.  6  The images of segmentation process

    图  7  定性的分割结果对比

    Fig.  7  Compare in qualitative segmentation results

    图  8  本文模型与对比模型在NKI (a)和VGH (b)数据库中分割结果的ROC曲线

    Fig.  8  The ROC curves of segmentation results in database NKI (a) and VGH (b) of our model and comparison models

    表  1  本文使用的缩写符号及其描述

    Table  1  Abbreviated symbols and their meanings in this paper

    符号 解释
    CN 深度卷积神经网络
    LBP 局部区域二值化
    SVM 支持向量机
    PA 逐图像块
    PI 逐像素
    $ R^e$ 上皮组织图像块
    $ R^s$ 间质组织图像块
    SLIC 简单线性迭代聚类算法
    Ncut 标准化图割算法
    SMC Softmax分类器
    EP 上皮组织
    ST 间质组织
    TMAs 肿瘤组织芯片
    IHC 免疫组织化
    H & E 苏木精和伊红(染色)
    DL 深度学习
    NKI 荷兰癌症数据所数据集
    VGH 温哥华总医院数据集
    ReLU 线性纠正函数
    LRN 局部响应归一化层
    TP 真阳性
    FP 假阳性
    FN 假阴性
    TN 真阴性
    TPR 真阳性率
    TNR 真阴性率
    PPV 阳性预测值
    NPV 阴性预测值
    FPR 假阳性率
    FNR 假阴性率
    FDR 伪发现率
    ACC 准确率
    F1 F1值
    MCC 马修斯相关系数
    CT 平均每张图像的计算时间
    ROC 试者工作特征曲线
    AUC ROC曲线下面积
    下载: 导出CSV

    表  2  训练和测试样本的数量

    Table  2  The number of training and testing samples

    数据集 图像总量 组织 训练图像 测试图像
    图像数量 训练集 验证集 图像数量
    NKI 106 上皮 85 77 804 41 721 21
    间质 70 215 37 625
    VGH 51 上皮 41 40 593 16 914 10
    间质 36 634 15 264
    下载: 导出CSV

    表  3  本文使用的深度卷积网络结构参数

    Table  3  The parameters of deep convolution network structure in this paper

    层数 操作 通道数 尺寸 步长 边缘填充 激活函数 局部归一化
    1 输入 3 - - - -
    2 卷积 32 5 1 2 - -
    3 池化 32 3 2 0 ReLU LRN
    4 卷积 32 5 1 2 ReLU -
    5 池化 32 3 2 0 - LRN
    6 卷积 64 5 1 2 ReLU -
    7 池化 64 3 2 0 - -
    8 全连接 64 - - - - -
    9 全连接 64 - - - - -
    10 输出 2 - - - - -
    下载: 导出CSV

    表  4  本文中不同的对比模型及其描述

    Table  4  Different contrast models and their descriptions in this paper

    模型 图像块生成方法 图像块尺寸 步长(像素) 网络结构 分类器 预测结果
    CN-PA DCNN-SW-SVM[6] 滑动窗+正方形图像块 50×50 25 AlexNet SVM
    DCNN-SW-SMC[6] 滑动窗+正方形图像块 50×50 25 AlexNet SMC 整个图像
    CN-Ncut-SVM[6] 规范化图割+正方形图像块 50×50 AlexNet SVM 区域内像
    CN-Ncut-SMC[6] 规范化图割+正方形图像块 50×50 AlexNet SMC 素类信息
    CN-SLIC-SVM[6] 简单线性迭代聚类+正方形图像块 50×50 AlexNet SVM 相同
    CN-SLIC-SMC[6] 简单线性迭代聚类+正方形图像块 50×50 AlexNet SMC
    CN-PI 滑动窗+正方形图像块 32×32 1 AlexNet SMC 中心像素类信息
    下载: 导出CSV

    表  5  不同模型分割结果的定量评估(%)

    Table  5  Quantitative evaluation of segmentation results for different models (%)

    评估指标
    模型 数据集 TPR TNR PPV NPV FPR FDR FNR ACC F1 MCC CT(s)
    CN-PA CN-SW-SVM NKI 70.40 93.87 92.63 74.33 6.13 7.37 29.60 81.60 80.00 65.60 6
    VGH 87.01 82.20 85.15 84.36 17.80 14.85 12.99 84.79 86.07 69.36 6
    CN-SW-SMC NKI 77.95 80.68 81.63 76.86 19.32 18.37 22.05 79.25 79.25 58.56 3
    VGH 82.18 86.12 87.46 80.40 13.88 12.54 17.82 83.99 84.74 68.08 3
    CN-Ncut-SVM NKI 81.09 86.39 86.72 80.67 13.61 13.27 18.91 83.62 83.81 67.43 1 265
    VGH 88.29 88.40 89.93 86.55 11.60 10.07 11.71 88.34 89.10 76.59 1 265
    CN-Ncut-SMC NKI 88.92 67.94 75.23 84.85 32.06 24.77 11.08 78.91 81.05 58.45 1 262
    VGH 89.37 86.63 88.67 87.42 13.37 11.31 10.63 88.11 89.03 76.05 1 262
    CN-SLIC-SVM NKI 80.63 85.79 86.13 80.18 14.21 13.87 19.37 83.09 83.29 66.37 30
    VGH 88.51 83.68 86.41 86.13 16.32 13.59 11.49 86.28 87.45 72.36 30
    CN-SLIC-SMC NKI 86.31 82.15 84.11 84.60 17.85 15.89 13.66 84.34 85.21 68.60 26
    VGH 87.88 82.13 85.22 85.25 17.87 14.78 12.12 85.23 86.53 70.24 26
    CN-PI NKI 91.05 89.54 90.90 89.71 10.46 9.10 8.95 90.34 90.97 80.59 1 742
    VGH 95.44 93.41 91.95 96.29 6.59 8.06 4.56 94.30 93.66 88.54 1 742
    下载: 导出CSV
  • [1] Chen W Q, Zheng R S, Baade P D, Zhang S W, Zeng H M, Bray F, Jemal A, Yu X Q, He J. Cancer statistics in China, 2015. CA:A Cancer Journal for Clinicians, 2016, 66(2):115-132 doi: 10.3322/caac.21338
    [2] Siegel R L, Miller K D, Jemal A. Cancer statistics, 2015. CA:A Cancer Journal for Clinicians, 2015, 65(1):5-29 doi: 10.3322/caac.21254
    [3] Rubin R, Strayer D S. Rubin's Pathology:Clinicopathologic Foundations of Medicine (5th Edition). Baltimore, MD:Lippincott Williams and Wilkins, 2008.
    [4] Downey C L, Simpkins S A, White J, Holliday D L, Jones J L, Jordan L B, Kulka J, Pollock S, Rajan S S, Thygesen H H, Hanby A M, Speirs V. The prognostic significance of tumour-stroma ratio in oestrogen receptor-positive breast cancer. British Journal of Cancer, 2014, 110(7):1744-1747 doi: 10.1038/bjc.2014.69
    [5] Yuan Y Y, Failmezger H, Rueda O M, Ali H R, Gräf S, Chin S F, Schwarz R F, Curtis C, Dunning M J, Bardwell H, Johnson N, Doyle S, Turashvili G, Provenzano E, Aparicio S, Caldas C, Markowetz F. Quantitative image analysis of cellular heterogeneity in breast tumors complements genomic profiling. Science Translational Medicine, 2012, 4(157):157ra143 http://test.europepmc.org/abstract/MED/23100629
    [6] Xu J, Luo X F, Wang G H, Gilmore H, Madabhushi A. A deep convolutional neural network for segmenting and classifying epithelial and stromal regions in histopathological images. Neurocomputing, 2016, 191:214-223 doi: 10.1016/j.neucom.2016.01.034
    [7] Linder N, Konsti J, Turkki R, Rahtu E, Lundin M, Nordling S, Haglund C, Ahonen T, Pietikäinen M, Lundin J. Identification of tumor epithelium and stroma in tissue microarrays using texture analysis. Diagnostic Pathology, 2012, 7:22 doi: 10.1186/1746-1596-7-22
    [8] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7):971-987 doi: 10.1109/TPAMI.2002.1017623
    [9] Vapnik V N. Statistical Learning Theory. New York:Wiley, 1998.
    [10] Dalal N, Triggs B. Histograms of oriented gradients for human detection. In:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA:IEEE, 2005. 886-893 http://dl.acm.org/citation.cfm?id=1068507.1069007
    [11] Beck A H, Sangoi A R, Leung S, Marinelli R J, Nielsen T O, van de Vijver M J, West R B, van de Rijn M, Koller D. Systematic analysis of breast cancer morphology uncovers stromal features associated with survival. Science Translational Medicine, 2011, 3(108):108ra113 http://europepmc.org/abstract/MED/22072638
    [12] Bourzac K. Software:the computer will see you now. Nature, 2013, 502(7473):S92-S94 doi: 10.1038/502S92a
    [13] Ren X, Malik J. Learning a classification model for segmentation. In:Proceedings of the 9th IEEE International Conference on Computer Vision. Nice, France:IEEE, 2003. 10-17 http://dl.acm.org/citation.cfm?id=946677
    [14] Ali S, Lewis J, Madabhushi A. Spatially aware cell cluster (SpACCl) graphs:predicting outcome in oropharyngeal pl6+ tumors. In:Medical Image Computing and Computer-assisted Intervention:MICCAI International Conference on Medical Image Computing and Computer-assisted Intervention. Berlin Heidelberg:Springer, 2013. 412-419 http://europepmc.org/abstract/MED/24505693
    [15] Hiary H, Alomari R S, Saadah M, Chaudhary V. Automated segmentation of stromal tissue in histology images using a voting Bayesian model. Signal, Image and Video Processing, 2012, 7(6):1229-1237 doi: 10.1007/s11760-012-0393-2
    [16] Eramian M, Daley M, Neilson D, Daley T. Segmentation of epithelium in H&E stained odontogenic cysts. Journal of Microscopy, 2011, 244(3):273-292 doi: 10.1111/jmi.2011.244.issue-3
    [17] Amaral T, McKenna S, Robertson K, Thompson A. Classification and immunohistochemical scoring of breast tissue microarray spots. IEEE Transactions on Biomedical Engineering, 2013, 60(10):2806-2814 doi: 10.1109/TBME.2013.2264871
    [18] Bejnordi B E, Balkenhol M, Litjens G, Holland R, Bult P, Karssemeijer N, van der Laak J A W M. Automated detection of DCIS in whole-slide H&E stained breast histopathology images. IEEE Transactions on Medical Imaging, 2016, 35(9):2141-2150 doi: 10.1109/TMI.2016.2550620
    [19] Cirećsan D C, Giusti A, Gambardella L M, Schmidhuber J. Mitosis detection in breast cancer histology images with deep neural networks. In:Medical Image Computing and Computer-assisted Intervention:MICCAI International Conference on Medical Image Computing and Computer-assisted Intervention. Berlin Heidelberg:Springer, 2013. 411-418 doi: 10.1007/978-3-642-40763-5_51
    [20] Lécun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 1998, 86(11):2278-2324 doi: 10.1109/5.726791
    [21] Serre T, Wolf L, Poggio T. Object recognition with features inspired by visual cortex. In:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA:IEEE, 2005. 994-1000 http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=1467551
    [22] Cruz-Roa A A, Ovalle J E A, Madabhushi A, Osorio F A G. A deep learning architecture for image representation, visual interpretability and automated basal-cell carcinoma cancer detection. In:Medical Image Computing and Computer-assisted Intervention:MICCAI International Conference on Medical Image Computing and Computer-assisted Intervention. Berlin Heidelberg:Springer, 2013. 403-410 doi: 10.1007/978-3-642-40763-5_50
    [23] Su H, Xing F, Kong X F, Xie Y P, Zhang S T, Yang L. Robust cell detection and segmentation in histopathological images using sparse reconstruction and stacked denoising autoencoders. Medical Image Computing and Computer-Assisted Intervention——MICCAI 2015. Switzerland:Springer International Publishing, 2015. 383-390 doi: 10.1007/978-3-319-24574-4_46
    [24] Xu J, Xiang L, Liu Q S, Gilmore H, Wu J Z, Tang J H, Madabhushi A. Stacked sparse autoencoder (SSAE) for nuclei detection on breast cancer histopathology images. IEEE Transactions on Medical Imaging, 2016, 35(1):119-130 doi: 10.1109/TMI.2015.2458702
    [25] Wang H B, Cruz-Roa A, Basavanhally A, Gilmore H, Shih N, Feldman M, Tomaszewski J, Gonzalez F, Madabhushi A. Mitosis detection in breast cancer pathology images by combining handcrafted and convolutional neural network features. Journal of Medical Imaging, 2014, 1(3):034003 doi: 10.1117/1.JMI.1.3.034003
    [26] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks. In:Advances in Neural Information Processing Systems 25:Proceedings of the 2012 Conference. Cambridge:MIT Press, 2012. http://dl.acm.org/citation.cfm?id=3065386
    [27] Glorot X, Bordes A, Bengio Y. Deep sparse rectifier neural networks. Journal of Machine Learning Research, 2010, 15:315-323 https://hal.archives-ouvertes.fr/hal-00752497
    [28] Reinhard E, Adhikhmin M, Gooch B, Shirley P. Color transfer between images. IEEE Computer Graphics and Applications, 2001, 21(5):34-41 http://dl.acm.org/citation.cfm?id=618848
    [29] Jia Y Q, Shelhamer E, Donahue J, Karayev S, Long J, Girshick R, Guadarrama S, Darrell T. Caffe:convolutional architecture for fast feature embedding. Eprint Arxiv, 2014. arXiv:1408.5093v1 http://dl.acm.org/citation.cfm?id=2654889&preflayout=flat
    [30] Schölkopf B, Platt J, Hofmann T. Greedy layerwise training of deep networks. In:Advances in Neural Information Processing Systems 19:Proceedings of the 2006 Conference. Cambridge:MIT Press, 2007. 153-160
  • 期刊类型引用(14)

    1. 王子建. 基于深度聚合网络的单幅图像超分辨率重建. 广播电视信息. 2023(05): 53-58 . 百度学术
    2. 董国强,卜丽静,赵瑞山,张正鹏. 多先验约束正则化模型图像复原方法. 测绘工程. 2023(03): 19-26 . 百度学术
    3. 白勇强,禹晶,李一秾,肖创柏. 基于深度先验的盲图像去模糊算法. 电子学报. 2023(04): 1050-1067 . 百度学术
    4. 李公平,陆耀,王子建,吴紫薇,汪顺舟. 基于模糊核估计的图像盲超分辨率神经网络. 自动化学报. 2023(10): 2109-2121 . 本站查看
    5. 彭天奇,禹晶,肖创柏. 基于跨尺度低秩约束的图像盲解卷积算法. 自动化学报. 2022(10): 2508-2525 . 本站查看
    6. 彭天奇,禹晶,郭乐宁,肖创柏. 基于跨尺度字典学习的图像盲解卷积算法. 光学精密工程. 2021(02): 338-348 . 百度学术
    7. 兰诚栋,林宇鹏,方大锐,陈建. 多视点稀疏测量的图像绘制方法. 自动化学报. 2021(04): 882-890 . 本站查看
    8. 鱼轮,李晖晖. 基于学习字典和稀疏约束的湍流退化图像盲复原. 电子测量技术. 2020(17): 105-109 . 百度学术
    9. 兰叶深,周明安,刘文军,毛建辉. 字典学习在轴承表面缺陷分类中的研究. 内燃机与配件. 2020(22): 147-148 . 百度学术
    10. 龚军辉,刘小燕,周建松,孙刚. 基于时空双稀疏表示的成人ADHD脑网络检测与分析. 自动化学报. 2019(10): 1903-1914 . 本站查看
    11. 陈红. 稀疏正则化模糊图像盲复原模型仿真. 计算机仿真. 2019(12): 323-326 . 百度学术
    12. 李俊山,杨亚威,张姣,李建军. 退化图像复原方法研究进展. 液晶与显示. 2018(08): 676-689 . 百度学术
    13. 陈春雷,叶东毅,陈昭炯. 多局部模糊核融合的图像盲去模糊算法. 光子学报. 2018(10): 205-215 . 百度学术
    14. 李喆,李建增,胡永江,张岩. 基于频谱预处理与改进霍夫变换的离焦模糊盲复原算法. 图学学报. 2018(05): 909-916 . 百度学术

    其他类型引用(13)

  • 加载中
  • 图(8) / 表(5)
    计量
    • 文章访问数:  3712
    • HTML全文浏览量:  383
    • PDF下载量:  634
    • 被引次数: 27
    出版历程
    • 收稿日期:  2016-06-13
    • 录用日期:  2016-11-08
    • 刊出日期:  2017-11-20

    目录

    /

    返回文章
    返回