2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于条件深度卷积生成对抗网络的视网膜血管分割

蒋芸 谭宁

李新利, 邹昌铭, 杨国田, 刘禾. SealGAN: 基于生成式对抗网络的印章消除研究. 自动化学报, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459
引用本文: 蒋芸, 谭宁.基于条件深度卷积生成对抗网络的视网膜血管分割.自动化学报, 2021, 47(1): 136−147 doi: 10.16383/j.aas.c180285
Li Xin-Li, Zou Chang-Ming, Yang Guo-Tian, Liu He. SealGAN: Research on the seal elimination based on generative adversarial network. Acta Automatica Sinica, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459
Citation: Jiang Yun, Tan Ning. Retinal vessel segmentation based on conditional deep convolutional generative adversarial networks. Acta Automatica Sinica, 2021, 47(1): 136−147 doi: 10.16383/j.aas.c180285

基于条件深度卷积生成对抗网络的视网膜血管分割

doi: 10.16383/j.aas.c180285
基金项目: 

国家自然科学基金 61962054

国家自然科学基金 61163036

2016年甘肃省科技计划资助自然科学基金项目 1606RJZA047

甘肃省高校研究生导师项目 1201-16

西北师范大学第三期知识与创新工程科研骨干项目 nwnu-kjcxgc-03-67

详细信息
    作者简介:

    蒋芸  工学博士.西北师范大学计算机科学与工程学院教授.主要研究方向为数据挖掘, 粗糙集理论及应用.E-mail: jiangyun@nwnu.edu.cn

    通讯作者:

    谭宁  西北师范大学计算机科学与工程学院硕士研究生.主要研究方向为深度学习, 医学图像处理.本文通信作者.E-mail: tanning2315@126.com

Retinal Vessel Segmentation Based on Conditional Deep Convolutional Generative Adversarial Networks

Funds: 

National Natural Science Foundation of China 61962054

National Natural Science Foundation of China 61163036

2016 Gansu Provincial Science and Technology Plan Funded Natural Science Fund Project 1606RJZA047

Gansu Provincial University Graduate Tutor Project 1201-16

The third phase of the Northwest Normal University Knowledge and Innovation Engineering Research Backbone Project nwnu-kjcxgc-03-67

More Information
    Author Bio:

    JIANG Yun   Ph. D., professor at the College of Computer Science and Engineering, Northwest Normal University. Her research interest covers data mining, rough set theory and application

    Corresponding author: TAN Ning   Master student at the College of Computer Science and Engineering, Northwest Normal University. His research interest covers deep learning, medical image processing. Corresponding author of this paper
  • 摘要: 视网膜血管的分割帮助医生对眼底疾病进行诊断有着重要的意义.但现有方法对视网膜血管的分割存在着各种问题, 例如对血管分割不足, 抗噪声干扰能力弱, 对病灶敏感等.针对现有血管分割方法的缺陷, 本文提出使用条件深度卷积生成对抗网络的方法对视网膜血管进行分割.我们主要对生成器的网络结构进行了改进,在卷积层引入残差模块进行差值学习使得网络结构对输出的改变变得敏感, 从而更好地对生成器的权重进行调整.为了降低参数数目和计算, 在使用大卷积核之前使用小卷积核对输入特征图的通道数进行减半处理.通过使用U型网络的思想将卷积层的输出与反卷积层的输出进行连接从而避免低级信息共享.通过在DRIVE和STARE数据集上对本文的方法进行了验证, 其分割准确率分别为96.08 %、97.71 %, 灵敏性分别达到了82.74 %、85.34 %, $F$度量分别达到了82.08 %和85.02 %, 灵敏度比R2U-Net的灵敏度分别高了4.82 %, 2.4 %.
    Recommended by Associate Editor HUANG Qing-Ming
  • 发票是财务系统的重要组成部分, 发票的识别和处理是财务人员的首要工作. 人工智能已被广泛应用在人脸识别、车辆识别、物体检测等各个领域, 而基于人工智能的发票识别, 可为财务人员节省大量的时间. 目前发票自动识别根据使用场景不同, 可分为移动客户端、云端和本地客户端. 移动端客户端发票识别是通过手机端的离线SDK, 集成到公司财务系统的APP内, 自动检测发票的边线并拍照识别, 提取发票上的关键信息; 云端发票识别是通过调用云平台的API接口, 将拍照或者扫描的发票图像传送到云平台上进行识别; 而本地客户端识别是识别软件与扫描仪硬件配合使用进行识别. 三种方式本质都是基于识别软件进行的. 由于发票种类繁多, 格式不固定, 有的发票存在手写的内容, 且不同人手写字的风格不一, 因此基于传统数字图像处理的识别软件, 相应识别准确率较低. 随着卷积神经网络的兴起, 包括表格线定位、手写文字识别等问题得到很好的解决. 文献[1]采用卷积神经网络实现增值税发票批量识别, 通过对发票图像进行采集、预处理、字符切割, 基于CNN神经网络进行字符识别, 同时融入人工修改, 提高识别率. 但是发票上的印章对发票识别准确率依旧具有一定影响, 且印章是每张发票必不可少的, 因此如何消除印章也是现在OCR (Optical character recognition)领域的研究热点. 目前大多数研究者对于发票印章的研究主要是印章识别与验证[2-4]. 针对发票印章的去除问题, 若通过印章定位, 而后直接挖除印章则会丢失印章下的发票内容; 若采用过滤颜色的方式来消除, 会导致发票中与印章颜色相近的文字变得模糊不清, 而且不同发票的印章颜色不同. 文献[5]提出一种基于彩色图像的二次分割算法来去除印章, 但是对于发票的要求较高, 需要保证印章的颜色为红色或者蓝色, 票据不能出现明显的扭曲和变形, 字体还需要求是黑色或灰色, 其实用性较差. 文献[6]针对印章覆盖、发票折痕等干扰因素影响发票号码分割的问题, 采用基于数字结构特征的识别算法, 通过对噪声粘连区域进行修复, 解决干扰因素对数字分割的影响, 实现发票号码识别. 但是如何判断噪声区域最小连通面积的阈值是算法关键, 当发票数量增多, 印章颜色深度和位置不统一时, 消除印章干扰则很困难.

    各种图像处理软件也可用在印章消除上, 如PhotoShop, 但需要基于软件进行手动处理, 大量发票的印章消除则会新增大量工作量, 反倒得不偿失. 因此研究如何自动消除发票印章, 对提高发票识别准确率具有重要意义. 生成式对抗网络GAN (Generative adversarial network)是Goodfellow等在2014年提出的一种生成式网络[7]. 在GAN提出之前, 常见的生成式网络有最大似然估计法、近似法[8]、马尔科夫链法[9]等. 这些方法的基本步骤是, 先对样本数据进行分布假设, 然后利用数据样本直接对假设分布的参数进行拟合, 这会导致学习到的生成式模型受到限制[10]. 而GAN不同于上述的生成网络, 该方法采用对抗学习方式, 先通过判别器学习生成分布和真实分布之间的差异, 再驱使生成器去缩小差异. GAN相比于其他的生成网络, 对数据的分布不做显性的限制, 从而避免了人工设计网络分布[11]. GAN目前常用于实现图像的风格迁移以及超分辨图像的生成. 本文基于生成对抗网络提出用于消除印章的SealGAN网络. SealGAN借鉴了CycleGAN网络的循环结构, 采用两个独立的分类器来取代判别网络, 并针对印章的特点去设计生成网络, 实现发票图像的带印章到不带印章的风格迁移, 从而达到消除发票印章的效果.

    生成式对抗网络结构如图1所示, 包括一个生成网络(G)和一个判别网络(D). 生成网络用于生成目标图像, 而判别网络用于判断图像是生成的虚假图像还是真实目标图像. 在训练时, 生成网络会在损失函数的牵引下让生成的图像尽可能地逼近目标图像, 判别网络则将生成图像和真实目标图像区分开, 由此构成对抗博弈的训练方式. 通过竞争方式, 生成网络生成的图像会越来越真实, 而判别网络的判别能力也会越来越强[7].

    图 1  生成式对抗网络结构
    Fig. 1  Generative adversarial networks structure

    图1$ {{L}}_{G} $是更新生成网络G的损失, $ {{L}}_{D} $是更新判别网络D的损失, 如下式所示:

    $$ {{L}}_{G}=-\dfrac{1}{m}\displaystyle\sum _{i}^{m}{\rm{log}}\left(D\right(G\left({z}^{i}\right)\left)\right) $$ (1)
    $$ \begin{split} {{L}}_{D}=\,&-\frac{1}{m}\sum _{i}^{m}[{\rm{log}}\left(D\left({x}^{i}\right)\right)+ \\ &{\rm{log}}\left(1-D\left(G\left({z}^{i}\right)\right)\right)] \end{split}$$ (2)

    式中$ {z}^{i} $表示的是第i个输入, $ {x}^{i} $表示对应的真实图像. 生成网络和判别网络的损失函数均为交叉熵损失, 只是判别网络的目标是让真实图像的判别结果趋近于1, 生成图像结果趋近于0, 而生成网络则希望生成图像的判别结果趋近于1[7].

    生成式对抗网络的概念提出后, 便成为学术界研究的热点. 在此基础上, 一些改进网络结构相继被提出, 如引入卷积神经网络的DCGAN[12], 用于生成超分辨图像的SRGAN、LapGAN[13-14], 用于风格迁移的pix2pix、cVAE-GAN[15-16]. 但是大部分生成式对抗网络都要求待处理图像和目标图像一一匹配. 针对带印章的发票, 则很难获取印章图像与其对应的无章图像. 2017年, 伯克利大学的研究团队在ICCV上提出了CycleGAN网络, 其最大特点是不需要待处理图像和目标图像一一匹配, 只需要两个分布不同的数据集即可实现数据集之间的相互风格迁移.

    CycleGAN的基本思想是采用两个基础的生成式对抗网络, 采用循环的方式训练, 其网络结构如图2所示[17].

    图 2  CycleGAN的网络结构
    Fig. 2  GycleGAN networks structure

    假设有两个不同分布的数据集AB, CycleGAN中包含两个基础GAN网络, 一个负责把A类数据转化成B类数据, 记作$ {GAN}_{A\; to\; B} $, 另一个负责把B类数据转化成A类数据, 记作$ {GAN}_{B\; to\; A} .$设原始的A类图像为$ {X}_{A} $, 通过$ {GAN}_{A\; to\; B} $, 可以得到原始图像对应的B类风格图像$ {X'}_{B} $. 如果采用传统图像对模式, 则存在$ {X}_{A} $对应的真实图像$ {X}_{B} $, 这时只需将$ {X'}_{B} $$ {X}_{B} $做均方差之类的损失计算, 通过反向传播更新生成网络参数即可驱使生成式网络生成内容相匹配的图像. 当无法获取图像对时, CycleGAN则把生成的$ {X'}_{B}$输入$ {GAN}_{B\;to\;A} $, 生成相应的A类图像$ {X'}_{A} $, 换言之就是试图把生成的$ {X'}_{B} $还原成原图像$ {X}_{A} $, 此时计算$ {X}_{A} $$ {X'}_{A} $之间的损失即可反向传播去更新两个生成对抗网络. 这种循环的训练模式巧妙地实现了不存在图像对时的两类数据集之间相互转化.

    SealGAN网络结构如图3所示, $ {GEN}_{A \;to \;B} $$ {GEN}_{B\; to\; A} $是生成式对抗网络中抽取出来的生成网络, 采用循环训练的方式. 与CycleGAN网络相比, 本文所提出的SealGAN中, 每个生成网络并没有配备相应的专属判别网络, 而是采用原始图像和所有生成图像单独训练了两个分类器, 其中$ {Classifier}_{AB} $用于区分A类和B类数据, $ {Classifier}_{RF} $用于区分真实图像和生成图像, 然后将两个分类器所计算出的损失加入到总损失中来更新整体网络的参数.

    图 3  SealGAN网络结构
    Fig. 3  SealGAN networks structure

    在CycleGAN网络中, 采用$ {GAN}_{A\; to\; B} $$ {GAN}_{B\; to\; A} $两个基础的生成式对抗网络进行循环训练, 且有各自的判别网络. 以$ {GAN}_{A\; to\; B} $为例, 它的判别网络既需要判断输入图像是属于A类还是B类, 还需要判断输入图像是生成图像还是原始真实图像. 其实, 生成对抗网络中的判别网络是一个分类器, 对于分类器而言, 分类要求越高则分类效果越差, 而且两个判别网络虽然相互独立, 但是分类要求相似, 采用的训练样本交集较大. 因此本文所提出的SealGAN网络采用两个独立的分类器取代两个判别网络, 一个分类器用于区分A类和B类数据, 另一个分类器用于区分生成图像和真实图像. 相当于用两个独立的分类器来取代原本的判别网络, 网络整体参数数量没有太大变化, 但是对于单个分类器其分类要求降低, 分类效果更好.

    CycleGAN中有两种生成网络结构, 残差网络ResNet结构和UNet结构. ResNet结构用于解决层数较深的网络难以训练的问题. 在ResNet结构提出之前, 研究人员在提升网络性能上往往是单纯的叠加网络层数. 尽管网络层数的增加能够提高网络的特征容量, 理论上能更好地对样本进行拟合. 但是实际训练中, 当网络层数过大时, 参数的训练难度也大幅提升, 过分引入的卷积层和非线性激活不仅无法提升网络性能, 而且还难以维持浅层网络所达到的效果, 从而出现了模型退化问题[18]. ResNet结构的核心是采用了跨层连接思想, 引入了捷径连接的概念[19]. 残差网络结构如图4所示, 由于捷径连接的存在, 在训练过程中, 拟合的不再是目标分布, 而是目标分布和上一层网络输出之间的残差. 当浅层网络能够达到较好效果时, 残差趋近于零. 尽管在拟合残差时也引入了卷积和非线性激活, 但是要想拟合零只需要把所有参数都趋向零即可, 网络训练易于实现. 因此, ResNet结构的引入能够在加深网络层数, 提高网络拟合能力的同时, 也能保证达到浅层网络的效果, 从而消除网络退化问题. 图4$ F\left(x\right) $为待拟合的残差函数, $ H\left(x\right) $为待拟合的完整目标函数.

    图 4  残差网络结构
    Fig. 4  Residual networks structure

    UNet结构常用于图像分割领域, 其网络结构如图5所示. UNet结构包括下采样和上采样的过程. 在上采样过程中, 先把下采样和上采样中尺度相同的层拼接在一起, 再进行卷积和反卷积操作. 上采样层和下采样层之间的连接是UNet结构的亮点, 这些连接使得在上采样过程中可保留了更多的原始图像的纹理信息[20].

    图 5  UNet网络结构示意图
    Fig. 5  Schematic diagram of UNet structure

    本文提出的SealGAN网络中, 生成网络结合ResNet和UNet两种结构, 搭建了一个下采样−精炼−上采样的网络结构, 如图6所示. 由于在消除印章的同时, 也希望能尽可能地保留印章下的内容, 而UNet结构的优势正是能更多地保留原始图像纹理信息, 因此在SealGAN网络的生成网络中, 上下采样部分采用了UNet结构, 而精炼部分采用了ResNet结构以保证网络的效果.

    图 6  SealGAN生成网络结构示意图
    Fig. 6  Schematic diagram of SealGAN generative networks structure

    输入图像的尺寸统一缩放为$ 256\times 256 $, 并把图像像素归一化到[−1, 1]区间. 为了保证消除印章后能够尽可能保留印章下的内容, 下采样通道数应多于上采样通道数, 以保证在上采样时能够有足够多的原始图像信息. 多次实验发现, 下采样的通道数与上采样的通道数的比例设置为1.5 : 1时效果最佳. 在生成网络中, 除了输出层, 其余层的激活函数均采用LeakyReLU.

    $$ {\rm{\sigma }}_{LeakyReLU}\left(x\right)=\left\{\begin{aligned}&x,\qquad\;\;\;{\rm{if}} \;x>0\\ &0.2x,\;\;\;\;\;\;{\rm{else}}\end{aligned}\right. $$ (3)

    输出层采用tanh激活函数, 保证输出结果在[−1, 1]区间内.

    $$ {\rm{\sigma }}_{{\rm{tanh}}}\left(x\right)=\dfrac{{\rm{sinh}}x}{{\rm{cosh}}x}=\dfrac{{{\rm{e}}}^{x}-{{\rm{e}}}^{-x}}{{\rm{{e}}}^{x}+{{\rm{e}}}^{-x}} $$ (4)

    分类器网络前四层的激活函数采用LeakyReLU, 最后一层没有激活. 生成网络以及分类器的相关参数如表1所示.

    表 1  生成网络和分类器参数表
    Table 1  Parameters of the generative network and classifier
    生成网络分类器
    下采样精炼上采样
    7×7 conv, 96Residual_block(3×3, 384) ×74×4 deconv, 256, ×24×4 conv, 64, /2
    4×4 conv, 192, /24×4 deconv, 256, ×24×4 conv, 128, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 256, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 512, /2
    4×4 conv, 384, /24×4 deconv, 128, ×24×4 conv, 1
    4×4 conv, 384, /24×4 deconv, 64, ×2
    4×4 conv, 384, /27×7 conv, 3
    下载: 导出CSV 
    | 显示表格

    损失函数包括两个分类器的损失${Loss}_{AB}$${Loss}_{RF} $和一个循环回来的图像之间的像素损失$ {Loss}_{G} $. 设z为原始图像, G为生成网络, D是分类器, A为带印章图像, B对应的无印章图像. 原始的生成式对抗网络所使用的损失均为交叉熵损失, 在最近的研究中发现, 采用交叉熵损失存在梯度消失和模型坍塌的风险[21]. 相比于交叉熵损失, 最小二乘损失效果更佳[22]. 因此, SealGAN采用了最小二乘损失替换了交叉熵损失. 除此以外, 在计算生成图像和原始图像的内容损失时, 也不再使用常见的L2损失, 而是采用L1损失, 因为L2损失驱动下的生成图像更为模糊. 在训练分类器时, 损失函数如式(5)、(6)所示. 当训练生成网络时, 损失函数如式(7)、(8)、(9)所示. 其中, $ {Loss}_{AB} $$ {Loss}_{RF} $的权重为1, $ {Loss}_{G} $的权重为10时, 生成效果最佳.

    $$ {Loss}_{AB}=\sum {\{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)-1\right)}^{2}\} $$ (5)
    $$ \begin{split} {Loss}_{RF}=&\sum \{{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)\right)}^{2}+ \\ &{\left(D\left(G\left({z}_{A}\right)\right)-1\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)-1\right)}^{2}\} \end{split}$$ (6)
    $$ {Loss}_{AB}=\sum \{{\left(D\left(G\left({z}_{A}\right)-1\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (7)
    $$ {Loss}_{RF}=\sum \{{\left(D\left(G\left({z}_{A}\right)\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (8)
    $$\begin{split} {Loss}_{G}=\,&\sum \{\left|{z}_{A}-{G}_{BtoA}\left({G}_{AtoB}\left({z}_{A}\right)\right)\right|+ \\ &\left|{z}_{B}-{G}_{AtoB}\left({G}_{BtoA}\left({z}_{B}\right)\right)\right|\} \end{split} $$ (9)

    为了能够更好地评价网络的性能, 本文提出针对印章消除的综合评价指标Evaluation-score (ES), 包含风格评价指标Class-score (CS1)和内容评价指标Content-score (CS2), 如下式所示.

    $$ ES={\rm{\alpha }}\times{CS}_{1}+{\rm{\beta }}\times{CS}_{2} $$ (10)

    式中的$ {\rm{\alpha }} $$ {\rm{\beta }} $是超参数, 可基于需求重要性进行调整, 本文实验中$ {\rm{\alpha }} $$ {\rm{\beta }} $均为1.

    风格评价指标需要搭建一个分类网络, 采用的训练样本是真实的发票样本, 包含带印章和不带印章的样本. 本论文所搭建的分类网络借鉴GoogleNet网络结构[23], 损失函数采用余弦损失函数, 目标是让带印章样本的输出趋向于0, 不带印章样本的输出趋向于1. 采用余弦损失函数能够更好地增大类间距离, 公式如式(11)所示[24]. 将生成的图像通过训练好的分类网络, 所得到的结果即为CS1, 得分越高, 则消除印章的效果越好.

    $$ {\rm{L}}_{cos}=\frac{1}{N}\sum _{i}-\log\frac{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}}{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}+\displaystyle\sum _{j\ne i}{{\rm{e}}}^{s{\rm{cos}}\left({\theta }_{i,j}\right)}} $$ (11)

    内容评价指标则是利用生成图像和原带章图像之间的均方根误差计算的, 均方根误差越小, 意味着保留的内容越多. 定义的内容评价指标如下:

    $$ {CS}_{2}=\frac{1}{{\rm{log}}\left(1+\sqrt{\dfrac{\displaystyle\sum {\left({x}_{i}-{y}_{i}\right)}^{2}}{N}}\right)} $$ (12)

    训练图像一共有六千余张发票图, 其中带印章样本和不带印章样本的比例约为1 : 1, 印章样本包含了出租车票印章、增值税发票印章、高速公路收费票据印章、定额发票印章以及各类企业单位加盖的公章. 在训练网络过程中, 为选择最佳的训练集和测试集比例, 对CycleGAN-ResNet网络和CycleGAN-UNet网络, 以及本文所提的SealGAN网络等三种网络, 采用不同的训练集和测试集划分比例, 包括7 : 3、8 : 2和9 : 1三种, 进行对比实验, 并基于网络性能综合评价指标ES进行评价. 三种网络不同数据集划分比例的综合评价指标如图7所示.

    图 7  三种网络在不同数据集划分比例下的性能指标
    Fig. 7  Performance indices of three networks under different division proportion of data set

    图7可知, 随训练集和测试集比例增大, 网络综合性能评价指标也在提升. 为了让每种网络效果达到最佳, 因此在论文实验中采用训练集和测试集比例为9 : 1分布进行实验比对.

    本文分别使用了文献[5]的二次分割方法、采用ResNet和UNet生成网络的CycleGAN网络, 以及SealGAN网络, 进行发票印章消除实验. 训练模型时, 针对三种常见的优化器Momentum、RMSProp和Adam进行实验对比, 最终选择稳定性最佳的Adam优化器. 每种网络均训练了20个Epoch, Batch Size均为4. 学习率的初始值是0.0002, 每训练一个Epoch, 学习率下降10 %. 在CycleGAN模型中, 针对生成器和判别器不同的损失权重比, 包括1 : 1, 5 : 1, 10 : 1和15 : 1, 通过网络综合评价指标ES进行测试对比, 可知10:1为最佳损失权重比. 基于上述的参数设定进行实验, 图8是四种方法对发票印章消除的效果.

    图 8  基于二次分割、CycleGAN-ResNet、CycleGAN-UNet和SealGAN的印章消除对比
    Fig. 8  Comparsion of effect of the seal elimination based on re-segmentation, CycleGAN-ResNet, CycleGAN-UNet and SealGAN

    由图中可知, 采用二次分割的方法效果最差, 由于方法的核心思想是对颜色进行阈值分割来获取印章部分再进行修改, 所以当发票颜色复杂时, 对印章部分的定位不完整, 导致印章消除不全, 而且对于获取到的印章部分采用直接填充背景方法, 对发票内容造成影响. 采用ResNet生成网络的CycleGAN, 生成的结果比较模糊, 色彩与原图相比, 色差巨大; 除此以外, 内容丢失也很严重. 采用UNet生成网络的CycleGAN, 由于UNet在进行上采样时融合了下采样层的特征, 保证了上采样过程中保留更多的原始信息, 因此色彩问题得到解决, 但是依旧有明显的内容丢失, 特别是当内容的颜色与印章的颜色相近时. 基于SealGAN网络的印章消除, 采用了下采样−精炼−上采样的生成结构, 而且上采样过程也融入了下采样层的原始信息, 因此色差问题基本不存在, 生成的结果相比于前两个网络的实验结果要清晰很多. 除此以外, 由于SealGAN并不是简单地用两个基础GAN网络搭建的循环结构, 而是用两个专门的分类器来替代判别器, 其中一个分类器专门区分真实样本和生成样本, 另一个专门区分带章样本和不带章样本. 这种替换使得网络能够更好地学习到哪些部分属于印章, 哪些部分不属于印章, 因此SealGAN网络可更好地保留非章内容.

    三种不同网络消除发票印章的评价如表2所示, 可知SealGAN具有最高得分.

    表 2  三种网络性能评价指标
    Table 2  Performance evaluation indices of three kinds of network
    网络类型CS1CS2$ ES $
    二次分割0.3400.9911.331
    CycleGAN-ResNet0.6780.6991.377
    CycleGAN-UNet0.7030.6791.382
    SealGAN0.6990.7401.439
    下载: 导出CSV 
    | 显示表格

    本文针对发票上消除印章的问题, 分析了CycleGAN网络的优缺点, 并基于此进行相应改进, 提出SealGAN网络结构, 设计了包括风格评价和内容评价的网络综合评价指标. SealGAN网络用两个独立的分类器来取代原本的判别网络, 可降低单个分类器的分类要求, 提高网络的学习效果, 同时生成网络结合ResNet和Unet两种结构, 实现下采样−精炼−上采样的过程, 能够生成更加清晰的图像. 基于发票印章消除实验, 与原始的CycleGAN进行对比可看出, 本文所提出的SealGAN无论是在模糊程度、生成色彩等图像细节上, 还是内容的保留程度上都要明显优于原始的CycleGAN网络, 且综合评价指标高于CycleGAN网络, 实验结果表明了所提出的SealGAN网络的有效性. 未来可进一步提高非章内容的保留效果, 尤其是当印章与印章下的发票内容颜色很相近时, 并可针对发票复印件进行印章消除研究.


  • 本文责任编委 黄庆明
  • 图  1  视网膜血管图像分割模型

    Fig.  1  Retinal vessels image segmentation model

    图  2  条件生成对抗网络模型

    Fig.  2  Condition generation adversarial networks model

    图  3  卷积层

    Fig.  3  Convolution layer

    图  4  卷积层

    Fig.  4  Convolution layer

    图  5  生成器网络结构

    Fig.  5  Generator network structure

    图  6  卷积的不同变体

    Fig.  6  Different variants of convolutional

    图  7  判别器网络结构

    Fig.  7  Discriminator network structure

    图  8  生成器训练的过程

    Fig.  8  Generative training process

    图  9  判别器训练的过程

    Fig.  9  Discriminator training process

    图  10  DRIVE数据库视网膜血管分割结果比较

    Fig.  10  Comparisons of segmentation results on DRIVE database

    图  11  STARE数据库视网膜血管分割结果比较

    Fig.  11  Comparisons of segmentation results on STARE database

    图  12  不同算法的视网膜血管分割局部放大图

    Fig.  12  Different methods of partial retinal vessel segmentation

    图  13  不同算法的$F$度量性能评价曲线

    Fig.  13  Different methods of $F$-measure performance evaluation curve

    表  1  模型改进前后分割的结果

    Table  1  The segmentation results before and after model improvement

    数据集 方法 $F$度量 准确率
    DRIVE/STARE U-net 0.8142/0.8373 0.9531/0.9690
    GAN+U-net 0.8150/0.8398 0.9583/0.9710
    U-net+Residual 0.8149/0.8388 0.9553/0.9700
    GAN+U-net+Residual (本文结构) 0.8208/0.8506 0.9608/0.9771
    下载: 导出CSV

    表  2  使用瓶颈层前后分割的结果

    Table  2  The result of segmentation before and after using the bottleneck layer

    数据集 方法 参数 计算量$(GFLOPS)$ $F$度量 准确率
    DRIVE/STARE No Bottleneck 19.8 M 183.8 0.8210/0.8504 0.9612/0.9772
    Bottleneck 5.2 M 48.5 0.8208/0.8502 0.9608/0.9771
    下载: 导出CSV

    表  3  DRIVE数据库视网膜血管分割结果

    Table  3  Segmentation performance of retinal vessel on the DRIVE database

    数据集 方法 年份 $F$度量 灵敏性 特效性 准确率
    DRIVE Chen[13] 2014 0.7252 0.9798 0.9474
    N$^4$-Fields[30] 2014 0.7970 0.8437 0.9743 0.9626
    Azzopardi[5] 2015 0.7655 0.9704 0.9442
    Roychowdhury[12] 2016 0.7250 0.9830 0.9520
    Liskowsk[14] 2016 0.7763 0.9768 0.9495
    Qiaoliang Li[12] 2016 0.7569 0.9816 0.9527
    DRIU[27] 2016 0.6701 0.9696 0.9115 0.9165
    HED[28] 2017 0.6400 0.9563 0.9007 0.9054
    U-Net[33] 2018 0.8142 0.7537 0.9820 0.9531
    Residual U-Net[33] 2018 0.8149 0.7726 0.9820 0.9553
    Recurrent U-Net[33] 2018 0.8155 0.7751 0.9816 0.9556
    R2U-Net[33] 2018 0.8171 0.7792 0.9813 0.9556
    本文方法 2018 0.8208 0.8274 0.9775 0.9608
    下载: 导出CSV

    表  4  STARE数据库视网膜血管分割结果

    Table  4  Segmentation performance of retinal vessel on the STARE database

    数据集 方法 年份 $F$度量 灵敏性 特效性 准确率
    STARE Marin[31] 2011 0.6940 0.9770 0.9520
    Fraz[32] 2012 0.7548 0.9763 0.9534
    Liskowsk[14] 2016 0.7867 0.9754 0.9566
    Roychowdhury[12] 2016 0.7720 0.9730 0.9510
    Qiaoliang Li[12] 2016 0.7726 0.9844 0.9628
    DRIU[27] 2016 0.7385 0.6066 0.9956 0.9499
    HED[28] 2017 0.6990 0.5555 0.9955 0.9378
    U-Net[33] 2018 0.8373 0.8270 0.9842 0.9690
    Residual U-Net[33] 2018 0.8388 0.8203 0.9856 0.9700
    Recurrent U-Net[33] 2018 0.8396 0.8108 0.9871 0.9706
    R2U-Net[33] 2018 0.8475 0.8298 0.9862 0.9712
    本文方法 2018 0.8502 0.8538 0.9878 0.9771
    下载: 导出CSV
  • [1] Zhang B, Zhang L, Zhang L, Karray F. Retinal vessel extraction by matched filter with first-order derivative of Gaussian. Computers in Biology and Medicine, 2010, 40(4): 438-445 doi: 10.1016/j.compbiomed.2010.02.008
    [2] Jiang X Y, Mojon D. Adaptive local thresholding by verification-based multithreshold probing with application to vessel detection in retinal images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(1): 131-137 doi: 10.1109/TPAMI.2003.1159954
    [3] Zana F, Klein J C. Segmentation of vessel-like patterns using mathematical morphology and curvature evaluation. IEEE Transactions on Image Processing, 2001, 10(7): 1010-1019 doi: 10.1109/83.931095
    [4] Mehrotra A, Tripathi S, Singh K K, Khandelwal P. Blood vessel extraction for retinal images using morphological operator and KCN clustering. In: Proceedings of the 2014 IEEE International Advance Computing Conference. Gurgaon, India: IEEE, 2014. 1142-1146
    [5] Azzopardi G, Strisciuglio N, Vento M, Petkov N. Trainable COSFIRE filters for vessel delineation with application to retinal images. Medical Image Analysis, 2015, 19(1): 46-57 doi: 10.1016/j.media.2014.08.002
    [6] Wang Y F, Ji G R, Lin P, Trucco E. Retinal vessel segmentation using multiwavelet kernels and multiscale hierarchical decomposition. Pattern Recognition, 2013, 46(8): 2117-2133 doi: 10.1016/j.patcog.2012.12.014
    [7] Guo Z L, Lin P, Ji G R, Wang Y F. Retinal vessel segmentation using a finite element based binary level set method. Inverse Problems and Imaging, 2014, 8(2): 459-473 doi: 10.3934/ipi.2014.8.459
    [8] Tolias Y A, Panas S M. A fuzzy vessel tracking algorithm for retinal images based on fuzzy clustering. IEEE Transactions on Medical Imaging, 1998, 17(2): 263-273 doi: 10.1109/42.700738
    [9] 王晓红, 赵于前, 廖苗, 邹北骥.基于多尺度2D Gabor小波的视网膜血管自动分割.自动化学报, 2015, 41(5): 970-980 doi: 10.16383/j.aas.2015.c140185

    Wang Xiao-Hong, Zhao Yu-Qian, Liao Miao, Zou Bei-Ji. Automatic segmentation for retinal vessel based on multi-scale 2D Gabor wavelet. Acta Automatica Sinica, 2015, 41(5): 970-980 doi: 10.16383/j.aas.2015.c140185
    [10] 梁礼明, 黄朝林, 石霏, 吴健, 江弘九, 陈新建.融合形状先验的水平集眼底图像血管分割.计算机学报, 2018, 41(7): 1678-1692 https://www.cnki.com.cn/Article/CJFDTOTAL-JSJX201807013.htm

    Liang Li-Ming, Huang Chao-Lin, Shi Fei, Wu Jian, Jiang Hong-Jiu, Chen Xin-Jian. Retinal vessel segmentation using level set combined with shape priori. Chinese Journal of Computers, 2018, 41(7): 1678-1692 https://www.cnki.com.cn/Article/CJFDTOTAL-JSJX201807013.htm
    [11] Roychowdhury S, Koozekanani D D, Parhi K K. Blood vessel segmentation of fundus images by major vessel extraction and subimage classification. IEEE Journal of Biomedical and Health Informatics, 2015, 19(3): 1118-1128
    [12] Li Q L, Feng B W, Xie L P, Liang P, Zhang H S, Wang T F. A cross-modality learning approach for vessel segmentation in retinal images. IEEE Transactions on Medical Imaging, 2016, 35(1): 109-118 doi: 10.1109/TMI.2015.2457891
    [13] Cheng E, Du L, Wu Y, Zhu Y J, Megalooikonomou V, Ling H B. Discriminative vessel segmentation in retinal images by fusing context-aware hybrid features. Machine Vision and Applications, 2014, 25(7): 1779-1792 doi: 10.1007/s00138-014-0638-x
    [14] Liskowski P, Krawiec K. Segmenting retinal blood vessels with deep neural networks. IEEE Transactions on Medical Imaging, 2016, 35(11): 2369-2380 doi: 10.1109/TMI.2016.2546227
    [15] Kingma D P, Welling M. Auto-encoding variational Bayes. arXiv: 1312.6114, 2014
    [16] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, WardeFarley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 2672-2680
    [17] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3): 321-332 doi: 10.16383/j.aas.2017.y000003

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks: the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3): 321-332 doi: 10.16383/j.aas.2017.y000003
    [18] Hu Y P, Gibson E, Lee L L, Xie W D, Barratt D C, Vercauteren T, et al. Freehand ultrasound image simulation with spatially-conditioned generative adversarial networks. In: Proceedings of Molecular Imaging, Reconstruction and Analysis of Moving Body Organs, and Stroke Imaging and Treatment. Québec, Canada: Springer, 2017. 105-115
    [19] Kohl S, Bonekamp D, Schlemmer H P, Yaqubi K, Hohenfellner M, Hadaschik B, et al. Adversarial networks for the detection of aggressive prostate cancer. arXiv: 1702.08014, 2017.
    [20] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv: 1511.06434, 2015.
    [21] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation. arXiv preprint arXiv: 1505.04597v1, 2015.
    [22] He K M, Sun J. Convolutional neural networks at constrained time cost. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, Massachusetts: IEEE, 2015. 5353-5360
    [23] Pathak D, Krähenbühl P, Donahue J, Darrell T, Efros A A. Context encoders: feature learning by inpainting. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, Nevada: IEEE, 2016. 2536-2544
    [24] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. arXiv preprint arXiv: 1502.03167, 2015.
    [25] Mirza M, Osindero S. Conditional generative adversarial nets. arXiv: 1411.1784, 2014.
    [26] Staal J, Abrámoff M D, Niemeijer M, Viergever M A, Van Ginneken B. Ridge-based vessel segmentation in color images of the retina. IEEE Transactions on Medical Imaging, 2004, 23(4): 501-509 doi: 10.1109/TMI.2004.825627
    [27] Maninis K K, Pont-Tuset J, Arbeláez P, Van Gool L. Deep retinal image understanding. arXiv preprint arXiv: 1609.01103, 2016.
    [28] Xie S, Tu Z. Holistically-nested edge detection. International Journal of Computer Vision, 2017, 125(1-3): 3-18 doi: 10.1007/s11263-017-1004-z
    [29] Soares J V B, Leandro J J G, Cesar R M, Jelinek H F, Cree M J. Retinal vessel segmentation using the 2-D Gabor wavelet and supervised classification. IEEE Transactions on Medical Imaging, 2006, 25(9): 1214-1222 doi: 10.1109/TMI.2006.879967
    [30] Ganin Y, Lempitsky V. $N.4$-fields: neural network nearest neighbor fields for image transforms. arXiv preprint arXiv: 1406.6558, 2014.
    [31] Marin D, Aquino A, Gegundez-Arias M E, Bravo J M. A new supervised method for blood vessel segmentation in retinal images by using gray-level and moment invariants-based features. IEEE Transactions on Medical Imaging, 2011, 30(1): 146-158 doi: 10.1109/TMI.2010.2064333
    [32] Fraz M M, Remagnino P, Hoppe A, Uyyanonvara B, Rudnicka A R, Owen C G, et al. An ensemble classification-based approach applied to retinal blood vessel segmentation. IEEE Transactions on Biomedical Engineering, 2012, 59(9): 2538-2548 doi: 10.1109/TBME.2012.2205687
    [33] Alom M Z, Hasan M, Yakopcic C, Taha T M, Asari V K. Recurrent residual convolutional neural network based on U-Net (R2U-Net) for medical image segmentation. arXiv preprint arXiv: 1802.06955, 2018.
  • 加载中
  • 图(13) / 表(4)
    计量
    • 文章访问数:  1520
    • HTML全文浏览量:  320
    • PDF下载量:  403
    • 被引次数: 0
    出版历程
    • 收稿日期:  2018-05-07
    • 录用日期:  2018-08-02
    • 刊出日期:  2021-01-29

    目录

    /

    返回文章
    返回