2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

SealGAN: 基于生成式对抗网络的印章消除研究

李新利 邹昌铭 杨国田 刘禾

李新利, 邹昌铭, 杨国田, 刘禾. SealGAN: 基于生成式对抗网络的印章消除研究. 自动化学报, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459
引用本文: 李新利, 邹昌铭, 杨国田, 刘禾. SealGAN: 基于生成式对抗网络的印章消除研究. 自动化学报, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459
Li Xin-Li, Zou Chang-Ming, Yang Guo-Tian, Liu He. SealGAN: Research on the seal elimination based on generative adversarial network. Acta Automatica Sinica, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459
Citation: Li Xin-Li, Zou Chang-Ming, Yang Guo-Tian, Liu He. SealGAN: Research on the seal elimination based on generative adversarial network. Acta Automatica Sinica, 2021, 47(11): 2614−2622 doi: 10.16383/j.aas.c190459

SealGAN: 基于生成式对抗网络的印章消除研究

doi: 10.16383/j.aas.c190459
详细信息
    作者简介:

    李新利:华北电力大学控制与计算机工程学院副教授. 主要研究方向为模式识别与智能系统, 图像处理, 燃烧过程检测技术. 本文通信作者.E-mail: lixinli@ncepu.edu.cn

    邹昌铭:华北电力大学控制与计算机工程学院硕士研究生. 主要研究方向为深度学习, 图像处理.E-mail: 1172227195@ncepu.edu.cn

    杨国田:华北电力大学控制与计算机工程学院教授. 主要研究方向为智能机器人, 计算机视觉, 火力发电精细化燃烧与优化控制.E-mail: ygt@ncepu.edu.cn

    刘禾:华北电力大学控制与计算机工程学院教授. 主要研究方向为图像处理, 计算机视觉, 模式识别.E-mail: lh@ncepu.edu.cn

SealGAN: Research on the Seal Elimination Based on Generative Adversarial Network

More Information
    Author Bio:

    LI Xin-Li Associate professor at the School of Control and Computer Engineering, North China Electric Power University. Her research interest covers pattern recognition and intelligent system, image processing, combustion process detection technology. Corresponding author of this paper

    ZOU Chang-Ming Master student at the School of Control and Computer Engineering, North China Electric Power University. His research interest covers deep learning and image processing

    YANG Guo-Tian Professor at the School of Control and Computer Engineering, North China Electric Power University. His research interest covers intelligent robot, computer vision, fine combustion and optimal control of thermal power plant

    LIU He Professor at the School of Control and Computer Engineering, North China Electric Power University. His research interest covers image processing, computer vision, pattern recognition

  • 摘要: 发票是财务系统的重要组成部分. 随着计算机视觉和人工智能技术的发展, 出现了各种发票自动识别系统, 但是发票上的印章严重影响了识别准确率. 本文提出了一种用于自动消除发票印章的SealGAN网络. SealGAN网络是基于生成式对抗网络CycleGAN的改进, 采用两个独立的分类器来取代原本的判别网络, 从而降低单个分类器的分类要求, 提高分类器的学习性能, 并且结合ResNet和Unet两种结构构建下采样−精炼−上采样的生成网络, 生成更加清晰的发票图像. 同时提出了基于风格评价和内容评价的综合评价指标对SealGAN网络进行性能评价. 实验结果表明, 与CycleGAN-ResNet和CycleGAN-Unet网络相比较, Seal GAN网络不仅能实现自动消除印章, 而且还能更加清晰地保留印章下的发票内容, 网络性能评价指标较高.
  • 发票是财务系统的重要组成部分, 发票的识别和处理是财务人员的首要工作. 人工智能已被广泛应用在人脸识别、车辆识别、物体检测等各个领域, 而基于人工智能的发票识别, 可为财务人员节省大量的时间. 目前发票自动识别根据使用场景不同, 可分为移动客户端、云端和本地客户端. 移动端客户端发票识别是通过手机端的离线SDK, 集成到公司财务系统的APP内, 自动检测发票的边线并拍照识别, 提取发票上的关键信息; 云端发票识别是通过调用云平台的API接口, 将拍照或者扫描的发票图像传送到云平台上进行识别; 而本地客户端识别是识别软件与扫描仪硬件配合使用进行识别. 三种方式本质都是基于识别软件进行的. 由于发票种类繁多, 格式不固定, 有的发票存在手写的内容, 且不同人手写字的风格不一, 因此基于传统数字图像处理的识别软件, 相应识别准确率较低. 随着卷积神经网络的兴起, 包括表格线定位、手写文字识别等问题得到很好的解决. 文献[1]采用卷积神经网络实现增值税发票批量识别, 通过对发票图像进行采集、预处理、字符切割, 基于CNN神经网络进行字符识别, 同时融入人工修改, 提高识别率. 但是发票上的印章对发票识别准确率依旧具有一定影响, 且印章是每张发票必不可少的, 因此如何消除印章也是现在OCR (Optical character recognition)领域的研究热点. 目前大多数研究者对于发票印章的研究主要是印章识别与验证[2-4]. 针对发票印章的去除问题, 若通过印章定位, 而后直接挖除印章则会丢失印章下的发票内容; 若采用过滤颜色的方式来消除, 会导致发票中与印章颜色相近的文字变得模糊不清, 而且不同发票的印章颜色不同. 文献[5]提出一种基于彩色图像的二次分割算法来去除印章, 但是对于发票的要求较高, 需要保证印章的颜色为红色或者蓝色, 票据不能出现明显的扭曲和变形, 字体还需要求是黑色或灰色, 其实用性较差. 文献[6]针对印章覆盖、发票折痕等干扰因素影响发票号码分割的问题, 采用基于数字结构特征的识别算法, 通过对噪声粘连区域进行修复, 解决干扰因素对数字分割的影响, 实现发票号码识别. 但是如何判断噪声区域最小连通面积的阈值是算法关键, 当发票数量增多, 印章颜色深度和位置不统一时, 消除印章干扰则很困难.

    各种图像处理软件也可用在印章消除上, 如PhotoShop, 但需要基于软件进行手动处理, 大量发票的印章消除则会新增大量工作量, 反倒得不偿失. 因此研究如何自动消除发票印章, 对提高发票识别准确率具有重要意义. 生成式对抗网络GAN (Generative adversarial network)是Goodfellow等在2014年提出的一种生成式网络[7]. 在GAN提出之前, 常见的生成式网络有最大似然估计法、近似法[8]、马尔科夫链法[9]等. 这些方法的基本步骤是, 先对样本数据进行分布假设, 然后利用数据样本直接对假设分布的参数进行拟合, 这会导致学习到的生成式模型受到限制[10]. 而GAN不同于上述的生成网络, 该方法采用对抗学习方式, 先通过判别器学习生成分布和真实分布之间的差异, 再驱使生成器去缩小差异. GAN相比于其他的生成网络, 对数据的分布不做显性的限制, 从而避免了人工设计网络分布[11]. GAN目前常用于实现图像的风格迁移以及超分辨图像的生成. 本文基于生成对抗网络提出用于消除印章的SealGAN网络. SealGAN借鉴了CycleGAN网络的循环结构, 采用两个独立的分类器来取代判别网络, 并针对印章的特点去设计生成网络, 实现发票图像的带印章到不带印章的风格迁移, 从而达到消除发票印章的效果.

    生成式对抗网络结构如图1所示, 包括一个生成网络(G)和一个判别网络(D). 生成网络用于生成目标图像, 而判别网络用于判断图像是生成的虚假图像还是真实目标图像. 在训练时, 生成网络会在损失函数的牵引下让生成的图像尽可能地逼近目标图像, 判别网络则将生成图像和真实目标图像区分开, 由此构成对抗博弈的训练方式. 通过竞争方式, 生成网络生成的图像会越来越真实, 而判别网络的判别能力也会越来越强[7].

    图 1  生成式对抗网络结构
    Fig. 1  Generative adversarial networks structure

    图1$ {{L}}_{G} $是更新生成网络G的损失, $ {{L}}_{D} $是更新判别网络D的损失, 如下式所示:

    $$ {{L}}_{G}=-\dfrac{1}{m}\displaystyle\sum _{i}^{m}{\rm{log}}\left(D\right(G\left({z}^{i}\right)\left)\right) $$ (1)
    $$ \begin{split} {{L}}_{D}=\,&-\frac{1}{m}\sum _{i}^{m}[{\rm{log}}\left(D\left({x}^{i}\right)\right)+ \\ &{\rm{log}}\left(1-D\left(G\left({z}^{i}\right)\right)\right)] \end{split}$$ (2)

    式中$ {z}^{i} $表示的是第i个输入, $ {x}^{i} $表示对应的真实图像. 生成网络和判别网络的损失函数均为交叉熵损失, 只是判别网络的目标是让真实图像的判别结果趋近于1, 生成图像结果趋近于0, 而生成网络则希望生成图像的判别结果趋近于1[7].

    生成式对抗网络的概念提出后, 便成为学术界研究的热点. 在此基础上, 一些改进网络结构相继被提出, 如引入卷积神经网络的DCGAN[12], 用于生成超分辨图像的SRGAN、LapGAN[13-14], 用于风格迁移的pix2pix、cVAE-GAN[15-16]. 但是大部分生成式对抗网络都要求待处理图像和目标图像一一匹配. 针对带印章的发票, 则很难获取印章图像与其对应的无章图像. 2017年, 伯克利大学的研究团队在ICCV上提出了CycleGAN网络, 其最大特点是不需要待处理图像和目标图像一一匹配, 只需要两个分布不同的数据集即可实现数据集之间的相互风格迁移.

    CycleGAN的基本思想是采用两个基础的生成式对抗网络, 采用循环的方式训练, 其网络结构如图2所示[17].

    图 2  CycleGAN的网络结构
    Fig. 2  GycleGAN networks structure

    假设有两个不同分布的数据集AB, CycleGAN中包含两个基础GAN网络, 一个负责把A类数据转化成B类数据, 记作$ {GAN}_{A\; to\; B} $, 另一个负责把B类数据转化成A类数据, 记作$ {GAN}_{B\; to\; A} .$设原始的A类图像为$ {X}_{A} $, 通过$ {GAN}_{A\; to\; B} $, 可以得到原始图像对应的B类风格图像$ {X'}_{B} $. 如果采用传统图像对模式, 则存在$ {X}_{A} $对应的真实图像$ {X}_{B} $, 这时只需将$ {X'}_{B} $$ {X}_{B} $做均方差之类的损失计算, 通过反向传播更新生成网络参数即可驱使生成式网络生成内容相匹配的图像. 当无法获取图像对时, CycleGAN则把生成的$ {X'}_{B}$输入$ {GAN}_{B\;to\;A} $, 生成相应的A类图像$ {X'}_{A} $, 换言之就是试图把生成的$ {X'}_{B} $还原成原图像$ {X}_{A} $, 此时计算$ {X}_{A} $$ {X'}_{A} $之间的损失即可反向传播去更新两个生成对抗网络. 这种循环的训练模式巧妙地实现了不存在图像对时的两类数据集之间相互转化.

    SealGAN网络结构如图3所示, $ {GEN}_{A \;to \;B} $$ {GEN}_{B\; to\; A} $是生成式对抗网络中抽取出来的生成网络, 采用循环训练的方式. 与CycleGAN网络相比, 本文所提出的SealGAN中, 每个生成网络并没有配备相应的专属判别网络, 而是采用原始图像和所有生成图像单独训练了两个分类器, 其中$ {Classifier}_{AB} $用于区分A类和B类数据, $ {Classifier}_{RF} $用于区分真实图像和生成图像, 然后将两个分类器所计算出的损失加入到总损失中来更新整体网络的参数.

    图 3  SealGAN网络结构
    Fig. 3  SealGAN networks structure

    在CycleGAN网络中, 采用$ {GAN}_{A\; to\; B} $$ {GAN}_{B\; to\; A} $两个基础的生成式对抗网络进行循环训练, 且有各自的判别网络. 以$ {GAN}_{A\; to\; B} $为例, 它的判别网络既需要判断输入图像是属于A类还是B类, 还需要判断输入图像是生成图像还是原始真实图像. 其实, 生成对抗网络中的判别网络是一个分类器, 对于分类器而言, 分类要求越高则分类效果越差, 而且两个判别网络虽然相互独立, 但是分类要求相似, 采用的训练样本交集较大. 因此本文所提出的SealGAN网络采用两个独立的分类器取代两个判别网络, 一个分类器用于区分A类和B类数据, 另一个分类器用于区分生成图像和真实图像. 相当于用两个独立的分类器来取代原本的判别网络, 网络整体参数数量没有太大变化, 但是对于单个分类器其分类要求降低, 分类效果更好.

    CycleGAN中有两种生成网络结构, 残差网络ResNet结构和UNet结构. ResNet结构用于解决层数较深的网络难以训练的问题. 在ResNet结构提出之前, 研究人员在提升网络性能上往往是单纯的叠加网络层数. 尽管网络层数的增加能够提高网络的特征容量, 理论上能更好地对样本进行拟合. 但是实际训练中, 当网络层数过大时, 参数的训练难度也大幅提升, 过分引入的卷积层和非线性激活不仅无法提升网络性能, 而且还难以维持浅层网络所达到的效果, 从而出现了模型退化问题[18]. ResNet结构的核心是采用了跨层连接思想, 引入了捷径连接的概念[19]. 残差网络结构如图4所示, 由于捷径连接的存在, 在训练过程中, 拟合的不再是目标分布, 而是目标分布和上一层网络输出之间的残差. 当浅层网络能够达到较好效果时, 残差趋近于零. 尽管在拟合残差时也引入了卷积和非线性激活, 但是要想拟合零只需要把所有参数都趋向零即可, 网络训练易于实现. 因此, ResNet结构的引入能够在加深网络层数, 提高网络拟合能力的同时, 也能保证达到浅层网络的效果, 从而消除网络退化问题. 图4$ F\left(x\right) $为待拟合的残差函数, $ H\left(x\right) $为待拟合的完整目标函数.

    图 4  残差网络结构
    Fig. 4  Residual networks structure

    UNet结构常用于图像分割领域, 其网络结构如图5所示. UNet结构包括下采样和上采样的过程. 在上采样过程中, 先把下采样和上采样中尺度相同的层拼接在一起, 再进行卷积和反卷积操作. 上采样层和下采样层之间的连接是UNet结构的亮点, 这些连接使得在上采样过程中可保留了更多的原始图像的纹理信息[20].

    图 5  UNet网络结构示意图
    Fig. 5  Schematic diagram of UNet structure

    本文提出的SealGAN网络中, 生成网络结合ResNet和UNet两种结构, 搭建了一个下采样−精炼−上采样的网络结构, 如图6所示. 由于在消除印章的同时, 也希望能尽可能地保留印章下的内容, 而UNet结构的优势正是能更多地保留原始图像纹理信息, 因此在SealGAN网络的生成网络中, 上下采样部分采用了UNet结构, 而精炼部分采用了ResNet结构以保证网络的效果.

    图 6  SealGAN生成网络结构示意图
    Fig. 6  Schematic diagram of SealGAN generative networks structure

    输入图像的尺寸统一缩放为$ 256\times 256 $, 并把图像像素归一化到[−1, 1]区间. 为了保证消除印章后能够尽可能保留印章下的内容, 下采样通道数应多于上采样通道数, 以保证在上采样时能够有足够多的原始图像信息. 多次实验发现, 下采样的通道数与上采样的通道数的比例设置为1.5 : 1时效果最佳. 在生成网络中, 除了输出层, 其余层的激活函数均采用LeakyReLU.

    $$ {\rm{\sigma }}_{LeakyReLU}\left(x\right)=\left\{\begin{aligned}&x,\qquad\;\;\;{\rm{if}} \;x>0\\ &0.2x,\;\;\;\;\;\;{\rm{else}}\end{aligned}\right. $$ (3)

    输出层采用tanh激活函数, 保证输出结果在[−1, 1]区间内.

    $$ {\rm{\sigma }}_{{\rm{tanh}}}\left(x\right)=\dfrac{{\rm{sinh}}x}{{\rm{cosh}}x}=\dfrac{{{\rm{e}}}^{x}-{{\rm{e}}}^{-x}}{{\rm{{e}}}^{x}+{{\rm{e}}}^{-x}} $$ (4)

    分类器网络前四层的激活函数采用LeakyReLU, 最后一层没有激活. 生成网络以及分类器的相关参数如表1所示.

    表 1  生成网络和分类器参数表
    Table 1  Parameters of the generative network and classifier
    生成网络分类器
    下采样精炼上采样
    7×7 conv, 96Residual_block(3×3, 384) ×74×4 deconv, 256, ×24×4 conv, 64, /2
    4×4 conv, 192, /24×4 deconv, 256, ×24×4 conv, 128, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 256, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 512, /2
    4×4 conv, 384, /24×4 deconv, 128, ×24×4 conv, 1
    4×4 conv, 384, /24×4 deconv, 64, ×2
    4×4 conv, 384, /27×7 conv, 3
    下载: 导出CSV 
    | 显示表格

    损失函数包括两个分类器的损失${Loss}_{AB}$${Loss}_{RF} $和一个循环回来的图像之间的像素损失$ {Loss}_{G} $. 设z为原始图像, G为生成网络, D是分类器, A为带印章图像, B对应的无印章图像. 原始的生成式对抗网络所使用的损失均为交叉熵损失, 在最近的研究中发现, 采用交叉熵损失存在梯度消失和模型坍塌的风险[21]. 相比于交叉熵损失, 最小二乘损失效果更佳[22]. 因此, SealGAN采用了最小二乘损失替换了交叉熵损失. 除此以外, 在计算生成图像和原始图像的内容损失时, 也不再使用常见的L2损失, 而是采用L1损失, 因为L2损失驱动下的生成图像更为模糊. 在训练分类器时, 损失函数如式(5)、(6)所示. 当训练生成网络时, 损失函数如式(7)、(8)、(9)所示. 其中, $ {Loss}_{AB} $$ {Loss}_{RF} $的权重为1, $ {Loss}_{G} $的权重为10时, 生成效果最佳.

    $$ {Loss}_{AB}=\sum {\{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)-1\right)}^{2}\} $$ (5)
    $$ \begin{split} {Loss}_{RF}=&\sum \{{\left(D\left({z}_{A}\right)\right)}^{2}+{\left(D\left({z}_{B}\right)\right)}^{2}+ \\ &{\left(D\left(G\left({z}_{A}\right)\right)-1\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)-1\right)}^{2}\} \end{split}$$ (6)
    $$ {Loss}_{AB}=\sum \{{\left(D\left(G\left({z}_{A}\right)-1\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (7)
    $$ {Loss}_{RF}=\sum \{{\left(D\left(G\left({z}_{A}\right)\right)\right)}^{2}+{\left(D\left(G\left({z}_{B}\right)\right)\right)}^{2}\} $$ (8)
    $$\begin{split} {Loss}_{G}=\,&\sum \{\left|{z}_{A}-{G}_{BtoA}\left({G}_{AtoB}\left({z}_{A}\right)\right)\right|+ \\ &\left|{z}_{B}-{G}_{AtoB}\left({G}_{BtoA}\left({z}_{B}\right)\right)\right|\} \end{split} $$ (9)

    为了能够更好地评价网络的性能, 本文提出针对印章消除的综合评价指标Evaluation-score (ES), 包含风格评价指标Class-score (CS1)和内容评价指标Content-score (CS2), 如下式所示.

    $$ ES={\rm{\alpha }}\times{CS}_{1}+{\rm{\beta }}\times{CS}_{2} $$ (10)

    式中的$ {\rm{\alpha }} $$ {\rm{\beta }} $是超参数, 可基于需求重要性进行调整, 本文实验中$ {\rm{\alpha }} $$ {\rm{\beta }} $均为1.

    风格评价指标需要搭建一个分类网络, 采用的训练样本是真实的发票样本, 包含带印章和不带印章的样本. 本论文所搭建的分类网络借鉴GoogleNet网络结构[23], 损失函数采用余弦损失函数, 目标是让带印章样本的输出趋向于0, 不带印章样本的输出趋向于1. 采用余弦损失函数能够更好地增大类间距离, 公式如式(11)所示[24]. 将生成的图像通过训练好的分类网络, 所得到的结果即为CS1, 得分越高, 则消除印章的效果越好.

    $$ {\rm{L}}_{cos}=\frac{1}{N}\sum _{i}-\log\frac{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}}{{{\rm{e}}}^{s\left({\rm{cos}}\left({\theta }_{i,i}\right)-m\right)}+\displaystyle\sum _{j\ne i}{{\rm{e}}}^{s{\rm{cos}}\left({\theta }_{i,j}\right)}} $$ (11)

    内容评价指标则是利用生成图像和原带章图像之间的均方根误差计算的, 均方根误差越小, 意味着保留的内容越多. 定义的内容评价指标如下:

    $$ {CS}_{2}=\frac{1}{{\rm{log}}\left(1+\sqrt{\dfrac{\displaystyle\sum {\left({x}_{i}-{y}_{i}\right)}^{2}}{N}}\right)} $$ (12)

    训练图像一共有六千余张发票图, 其中带印章样本和不带印章样本的比例约为1 : 1, 印章样本包含了出租车票印章、增值税发票印章、高速公路收费票据印章、定额发票印章以及各类企业单位加盖的公章. 在训练网络过程中, 为选择最佳的训练集和测试集比例, 对CycleGAN-ResNet网络和CycleGAN-UNet网络, 以及本文所提的SealGAN网络等三种网络, 采用不同的训练集和测试集划分比例, 包括7 : 3、8 : 2和9 : 1三种, 进行对比实验, 并基于网络性能综合评价指标ES进行评价. 三种网络不同数据集划分比例的综合评价指标如图7所示.

    图 7  三种网络在不同数据集划分比例下的性能指标
    Fig. 7  Performance indices of three networks under different division proportion of data set

    图7可知, 随训练集和测试集比例增大, 网络综合性能评价指标也在提升. 为了让每种网络效果达到最佳, 因此在论文实验中采用训练集和测试集比例为9 : 1分布进行实验比对.

    本文分别使用了文献[5]的二次分割方法、采用ResNet和UNet生成网络的CycleGAN网络, 以及SealGAN网络, 进行发票印章消除实验. 训练模型时, 针对三种常见的优化器Momentum、RMSProp和Adam进行实验对比, 最终选择稳定性最佳的Adam优化器. 每种网络均训练了20个Epoch, Batch Size均为4. 学习率的初始值是0.0002, 每训练一个Epoch, 学习率下降10 %. 在CycleGAN模型中, 针对生成器和判别器不同的损失权重比, 包括1 : 1, 5 : 1, 10 : 1和15 : 1, 通过网络综合评价指标ES进行测试对比, 可知10:1为最佳损失权重比. 基于上述的参数设定进行实验, 图8是四种方法对发票印章消除的效果.

    图 8  基于二次分割、CycleGAN-ResNet、CycleGAN-UNet和SealGAN的印章消除对比
    Fig. 8  Comparsion of effect of the seal elimination based on re-segmentation, CycleGAN-ResNet, CycleGAN-UNet and SealGAN

    由图中可知, 采用二次分割的方法效果最差, 由于方法的核心思想是对颜色进行阈值分割来获取印章部分再进行修改, 所以当发票颜色复杂时, 对印章部分的定位不完整, 导致印章消除不全, 而且对于获取到的印章部分采用直接填充背景方法, 对发票内容造成影响. 采用ResNet生成网络的CycleGAN, 生成的结果比较模糊, 色彩与原图相比, 色差巨大; 除此以外, 内容丢失也很严重. 采用UNet生成网络的CycleGAN, 由于UNet在进行上采样时融合了下采样层的特征, 保证了上采样过程中保留更多的原始信息, 因此色彩问题得到解决, 但是依旧有明显的内容丢失, 特别是当内容的颜色与印章的颜色相近时. 基于SealGAN网络的印章消除, 采用了下采样−精炼−上采样的生成结构, 而且上采样过程也融入了下采样层的原始信息, 因此色差问题基本不存在, 生成的结果相比于前两个网络的实验结果要清晰很多. 除此以外, 由于SealGAN并不是简单地用两个基础GAN网络搭建的循环结构, 而是用两个专门的分类器来替代判别器, 其中一个分类器专门区分真实样本和生成样本, 另一个专门区分带章样本和不带章样本. 这种替换使得网络能够更好地学习到哪些部分属于印章, 哪些部分不属于印章, 因此SealGAN网络可更好地保留非章内容.

    三种不同网络消除发票印章的评价如表2所示, 可知SealGAN具有最高得分.

    表 2  三种网络性能评价指标
    Table 2  Performance evaluation indices of three kinds of network
    网络类型CS1CS2$ ES $
    二次分割0.3400.9911.331
    CycleGAN-ResNet0.6780.6991.377
    CycleGAN-UNet0.7030.6791.382
    SealGAN0.6990.7401.439
    下载: 导出CSV 
    | 显示表格

    本文针对发票上消除印章的问题, 分析了CycleGAN网络的优缺点, 并基于此进行相应改进, 提出SealGAN网络结构, 设计了包括风格评价和内容评价的网络综合评价指标. SealGAN网络用两个独立的分类器来取代原本的判别网络, 可降低单个分类器的分类要求, 提高网络的学习效果, 同时生成网络结合ResNet和Unet两种结构, 实现下采样−精炼−上采样的过程, 能够生成更加清晰的图像. 基于发票印章消除实验, 与原始的CycleGAN进行对比可看出, 本文所提出的SealGAN无论是在模糊程度、生成色彩等图像细节上, 还是内容的保留程度上都要明显优于原始的CycleGAN网络, 且综合评价指标高于CycleGAN网络, 实验结果表明了所提出的SealGAN网络的有效性. 未来可进一步提高非章内容的保留效果, 尤其是当印章与印章下的发票内容颜色很相近时, 并可针对发票复印件进行印章消除研究.

  • 图  1  生成式对抗网络结构

    Fig.  1  Generative adversarial networks structure

    图  2  CycleGAN的网络结构

    Fig.  2  GycleGAN networks structure

    图  3  SealGAN网络结构

    Fig.  3  SealGAN networks structure

    图  4  残差网络结构

    Fig.  4  Residual networks structure

    图  5  UNet网络结构示意图

    Fig.  5  Schematic diagram of UNet structure

    图  6  SealGAN生成网络结构示意图

    Fig.  6  Schematic diagram of SealGAN generative networks structure

    图  7  三种网络在不同数据集划分比例下的性能指标

    Fig.  7  Performance indices of three networks under different division proportion of data set

    图  8  基于二次分割、CycleGAN-ResNet、CycleGAN-UNet和SealGAN的印章消除对比

    Fig.  8  Comparsion of effect of the seal elimination based on re-segmentation, CycleGAN-ResNet, CycleGAN-UNet and SealGAN

    表  1  生成网络和分类器参数表

    Table  1  Parameters of the generative network and classifier

    生成网络分类器
    下采样精炼上采样
    7×7 conv, 96Residual_block(3×3, 384) ×74×4 deconv, 256, ×24×4 conv, 64, /2
    4×4 conv, 192, /24×4 deconv, 256, ×24×4 conv, 128, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 256, /2
    4×4 conv, 384, /24×4 deconv, 256, ×24×4 conv, 512, /2
    4×4 conv, 384, /24×4 deconv, 128, ×24×4 conv, 1
    4×4 conv, 384, /24×4 deconv, 64, ×2
    4×4 conv, 384, /27×7 conv, 3
    下载: 导出CSV

    表  2  三种网络性能评价指标

    Table  2  Performance evaluation indices of three kinds of network

    网络类型CS1CS2$ ES $
    二次分割0.3400.9911.331
    CycleGAN-ResNet0.6780.6991.377
    CycleGAN-UNet0.7030.6791.382
    SealGAN0.6990.7401.439
    下载: 导出CSV
  • [1] 胡泽枫, 张学习, 黎贤钊. 基于卷积神经网络的批量发票识别系统研究. 工业控制计算机, 2019, 32(05): 104-105+107 doi: 10.3969/j.issn.1001-182X.2019.05.043

    Hu Ze-Feng, Zhang Xue-Xi, Li Zhao-Xian. Batch Invoice Recognition System Based on Convolutional Neural Network (CNN). Industrial Control Computer, 2019, 32(05): 104-105+107 doi: 10.3969/j.issn.1001-182X.2019.05.043
    [2] 欧阳欢, 范大昭, 李东子. 多特征融合决策的发票印章识别. 计算机工程与设计, 2018, 39(09): 2842-2847

    Ou-Yang Huan, Fan Da-Zhao, Li Dong-Zi. Invoice seal identification based on multi-feature fusion decision. Computer Engineering and Design, 2018, 39(09): 2842-2847
    [3] Chung W H, Wu M E, Ueng Y L, Su Y H. Seal imprint verification via feature analysis and classifications. Future Generation Computer Systems, 2019, 101: 458-466 doi: 10.1016/j.future.2019.04.027
    [4] Xie R N, Mao W H, Shi G Z. Electronic invoice authenticity verifying scheme based on signature recognition. In: Proceedings of International Conference on Advanced Algorithms and Control Engineering (ICAACE), 2019, 1−8
    [5] 季婧婧, 娄震. 基于二次分割的银行票据彩色印章的滤除. 现代电子技术, 2014, 37(22): 5-9 doi: 10.3969/j.issn.1004-373X.2014.22.002

    Ji Jing-Jing, Lou Zhen. Filtering of color seal on bank notes based on re⁃segmentation. Modern Electronics Technique, 2014, 37(22): 5-9 doi: 10.3969/j.issn.1004-373X.2014.22.002
    [6] 崔文成, 任磊, 刘阳, 邵虹. 基于数字结构特征的发票号码识别算法. 数据采集与处理, 2017, 32(1): 119-125

    Cui Wen-Cheng, Ren Lei, Liu Yang, Chao Hong. Invoice Number recognition algorithm based on numerical structure characteristics. Journal of Dat Acquisition and Processing, 2017, 32(1): 119-125
    [7] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, WardeFarley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th International Conference on Neural Information Processing Systems, 2014, 2672−2680
    [8] Rezende D J, Mohamed S, Wierstra D. Stochastic back-propagation and approximate inference in deep generative models. In: Proceedings of International Conference on Machine Learning (ICML), Beijing, China, JMLR:W&CP. 2014.
    [9] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, Beijing, China. JMLR:W&CP, 2006, 18(7): 1527-1554 doi: 10.1162/neco.2006.18.7.1527
    [10] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃. 生成式对抗网络GAN的研究进展与展望. 自动化学报, 2017, 43(3): 321-332

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks: the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3): 321-33
    [11] 林懿伦, 戴星原, 李力, 王晓, 王飞跃. 人工智能研究的新前线: 生成式对抗网络. 自动化学报, 2018, 44(5): 775-792

    Lin Yi-Lun, Dai Xing-Yuan, Li Li, Wang Xiao, Wang Fei-Yue. The new frontier of AI research: generative adversarial networks. Acta Automatica Sinica, 2018, 44(5): 775-792
    [12] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. In: Proceedings of International Conference on Learning Representations (ICLR), 2015. San Diego, CA.
    [13] Ledig C, Theis L, Huszár F, Caballero J, Cunningham A, et al. Photo-realistic single image super-resolution using a generative adversarial network. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, 105−114. Honolulu, HI, USA, Institute of Electrical and Electronics Engineers.
    [14] Denton E, Chintala S, Szlam A, Fergus R. Deep generative image models using a Laplacian pyramid of adversarial networks. In: Proceedings of the 28th International Conference on Neural Information Processing Systems, Montreal, QC, Canada, Neural information processing systems foundation, 2015, 1486−1494
    [15] Isola P, Zhu J Y, Zhou T, Efros A A. Image-to-image translation with conditional adversarial networks. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA , Institute of Electrical and Electronics Engineers. 2017, 5967−5976
    [16] Bao J M, Chen D, Wen F, Li H Q, Hua G. CVAE-GAN: Fine-grained image generation through asymmetric training. In: Proceedings of IEEE International Conference on Computer Vision (ICCV), Venice, Italy, Institute of Electrical and Electronics Engineers. 2017, 2764−2773
    [17] Zhu J Y, Park T, Isola P, Efros A A. Unpaired image-to-image translation using cycle-consistent adversarial networks. In: Proceedings of IEEE International Conference on Computer Vision (ICCV), Venice, Italy, Institute of Electrical and Electronics Engineers. 2017, 2242−2251
    [18] He K, Sun J. Convolutional neural networks at constrained time cost. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, Institute of Electrical and Electronics Engineers. 2015, 5353−5360
    [19] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, Institute of Electrical and Electronics Engineers. 2016, 770−778
    [20] Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation. In: Proceedings of 18th International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI), Munich, Germany, Springer International Publishing Switzerland. 2015, 234−241
    [21] Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial network. In: Proceedings of the International Conference on Machine Learning, Sydney, Australia. 2017, 298−321
    [22] Mao X D, Li Q, Xie H R, Lau, R Y K, Wang Z. Least squares generative adversarial networks. In: Proceedings of IEEE International Conference on Computer Vision (ICCV), Venice, Italy, Institute of Electrical and Electronics Engineers. 2017, 2813−282
    [23] Szegedy C, Liu W, Jia Y, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A. Going deeper with convolutions. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, Institute of Electrical and Electronics Engineers. 2015, 1−9
    [24] Wang H, Wang Y T, Zhou Z, Ji X, Gong D H, Zhou J C, Li Z F, Liu W. CosFace: Large margin cosine loss for deep face recognition. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, USA, Institute of Electrical and Electronics Engineers.2018, 5265−5274
  • 期刊类型引用(4)

    1. 伍贵宾,杨宗元,熊永平,张兴,王伟. 基于生成对抗门控卷积网络的文档图像印章消除. 计算机科学. 2024(01): 198-206 . 百度学术
    2. 张志剑,夏苏迪,刘政昊. 融合多特征深度学习的印章识别及应用研究. 数据分析与知识发现. 2024(03): 143-155 . 百度学术
    3. 邹蕊. 新会计准则下企业财务会计向管理会计的转型. 纳税. 2024(28): 70-72 . 百度学术
    4. 马永硕,齐林海,肖湘宁,王红. 基于改进生成对抗网络的谐波状态估计方法. 电力系统自动化. 2022(01): 139-145 . 百度学术

    其他类型引用(7)

  • 加载中
图(8) / 表(2)
计量
  • 文章访问数:  928
  • HTML全文浏览量:  1414
  • PDF下载量:  295
  • 被引次数: 11
出版历程
  • 收稿日期:  2019-06-18
  • 录用日期:  2020-03-12
  • 网络出版日期:  2021-09-22
  • 刊出日期:  2021-11-18

目录

/

返回文章
返回