2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于生成对抗网络的漫画草稿图简化

卢倩雯 陶青川 赵娅琳 刘蔓霄

卢倩雯, 陶青川, 赵娅琳, 刘蔓霄. 基于生成对抗网络的漫画草稿图简化. 自动化学报, 2018, 44(5): 840-854. doi: 10.16383/j.aas.2018.c170486
引用本文: 卢倩雯, 陶青川, 赵娅琳, 刘蔓霄. 基于生成对抗网络的漫画草稿图简化. 自动化学报, 2018, 44(5): 840-854. doi: 10.16383/j.aas.2018.c170486
LU Qian-Wen, TAO Qing-Chuan, ZHAO Ya-Lin, LIU Man-Xiao. Sketch Simplification Using Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 840-854. doi: 10.16383/j.aas.2018.c170486
Citation: LU Qian-Wen, TAO Qing-Chuan, ZHAO Ya-Lin, LIU Man-Xiao. Sketch Simplification Using Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 840-854. doi: 10.16383/j.aas.2018.c170486

基于生成对抗网络的漫画草稿图简化

doi: 10.16383/j.aas.2018.c170486
详细信息
    作者简介:

    卢倩雯  四川大学硕士研究生.2015年获得上海大学学士学位.主要研究方向为机器视觉, 模式识别, 机器学习, 图像处理.E-mail:lqwjk2018@163.com

    赵娅琳  四川大学硕士研究生.2014年获得重庆交通大学学士学位.主要研究方向为机器视觉, 模式识别, 机器学习, 图像处理.E-mail:caeluszhao@yeah.cn

    刘蔓霄  四川大学硕士研究生.2016年获得成都学院学士学位.主要研究方向为机器视觉, 模式识别, 机器学习, 图像处理.E-mail:18708179608@163.com

    通讯作者:

    陶青川  四川大学电子信息学院副教授.分别于1997年、2000年和2005年获得四川大学学士学位、硕士学位和博士学位.主要研究方向为机器视觉, 模式识别, 机器学习, 图像处理和三维显微成像技术.本文通信作者.E-mail:taoqingchuan@scu.edu.cn

Sketch Simplification Using Generative Adversarial Networks

More Information
    Author Bio:

     Master student at Sichuan University. She received her bachelor degree from Shanghai University in 2015. Her research interest covers computer vision, pattern recognition, machine learning, and image processing

     Master student at Sichuan University. She received her bachelor degree from Chongqing Jiaotong University in 2014. Her research interest covers computer vision, pattern recognition, machine learning, and image processing

     Master student at Sichuan University. She received her bachelor degree from Chengdu University in 2016. Her research interest covers computer vision, pattern recognition, machine learning, and image processing

    Corresponding author: TAO Qing-Chuan  Associate professor at the College of Electronics and Information Engineering, Sichuan University. He received his bachelor degree, master degree, and Ph. D. degree from Sichuan University, in 1997, 2000, and 2005, respectively. His research interest covers computer vision, pattern recognition, machine learning, image processing, and optical sectioning microscopy 3D imaging technique. Corresponding author of this paper
  • 摘要: 在漫画绘制的过程中,按草稿绘制出线条干净的线稿是很重要的一环.现有的草图简化方法已经具有一定的线条简化能力,然而由于草图的绘制方式的多样性以及画面复杂程度的不同,这些方法适用范围有限且效果不理想.本文提出了一种新颖的草图简化方法,利用条件随机场(Conditional random field,CRF)和最小二乘生成式对抗网络(Least squares generative adversarial networks,LSGAN)理论搭建了深度卷积神经网络的草图简化模型,通过该网络生成器与判别器之间的零和博弈与条件约束,得到更加接近真实的简化线稿图.同时,为了训练对抗模型的草图简化能力,本文建立了包含更多绘制方式与不同内容的草图与简化线稿图对的训练数据集.实验表明,本文算法对于复杂情况下的草图,相比于目前的方法,具有更好的简化效果.
  • 漫画中的线条是构成整张图的重要部分, 如何合理的将草稿中凌乱的线条进行增减、组合, 是计算机草图简化的关键.大多数漫画家在绘制草稿时, 主要目的是快速地在图纸上确定画面的整体结构、人物的大致形象和动作, 这使得草稿图上的线条更加凌乱与不确定.在草稿图完成之后, 漫画家们需要在凌乱的草稿图的基础上, 勾勒出线条准确、干净的线稿图.在这个过程中, 随着草稿图的复杂度的增加, 漫画工作者的工作量也会成倍的提升, 付出更多的时间和精力.因此, 通过训练好的神经网络, 自动合理地简化潦草的线条, 生成漫画工作者们所需要的线稿图, 将大大提升漫画绘制的工作效率, 极大地减轻工作者的负担.

    在本文之前, 已经出现了一些草稿简化的算法以及基于深度学习的图像处理算法[1-10].文献[3-5]提出的草稿简化算法, 核心在于删减掉画面中多余的线条; 文献[6]提出的基于距离和拓扑理论合并线条的算法, 文献[7]提出的基于线条与线条间的多个几何关系的约束的简化算法, 都是通过修改线条的形状来达到草图简化的目的, 文献[8]利用训练图中的线条之间的几何关系进行监督线条聚类来获得简化图; 文献[9]提出基于封闭感知的草图简化方法, 通过语义分析线条之间产生的封闭区域, 再对区域进行处理来达到简化草图的目的.草图简化最新的方法是Simo-Serra等[10]提出的基于卷积神经网络的线稿图生成方法, 通过训练卷积神经网络内部的参数, 学习标准草稿图与线稿图之间复杂的映射关系, 模仿线稿图的生成过程, 使卷积神经网络在输入草图后能生成对应的简化图, 较以前的方法具有自主学习、输入草图大小不固定、简化效果较以往方法更好的优点, 但要获得较好的简化效果, 则需要人工调整输入草图的大小, 并且对于线条过于凌乱的画面, 其简化能力有限. Simo-Serra[10]的草图简化算法的实验结果证实了卷积神经网络能通过学习获得较好的草图简化能力, 在此基础上, 本文通过将生成对抗式的卷积神经网络替换基本的卷积神经网络, 提升网络模型的草图简化能力.在网络搭建中, 借鉴了Goodfellow在机器自主进行图像生成学习的网络构建上提出的一个新颖的理论—生成式对抗网络(Generative adversarial networks, GAN)模型[11-12].该网络由生成器和判别器组成, 在迭代学习的过程中, 生成器的目的是生成更加趋近于真实图像的伪造图, 判别器的目的是正确区分生成器生成的伪造图和真实图像, 二者在对抗中逐渐达到纳什均衡, 即判别器判断伪造图和真实图, 均有相等的可能性为真, 且模型中的生成器已经具有优秀的仿真能力.文献[13-16]在原始GAN上进行改进的算法, 其中, Mao等[16]在Goodfellow等[11]的基础上, 针对解决生成对抗网络在迭代学习中的梯度消失等问题, 提出了最小二乘生成式对抗网络(Least squares generative adversarial networks, LSGAN).该方法通过改变生成器与判别器的误差函数, 使网络整体更加稳定, 收敛更快速, 具有更强大的无监督图像处理能力.

    另一方面, 条件随机场(Conditional random field, CRF)作为无向图模型, 已经广泛地被用于优化图像处理结果.文献[17]引入分层的条件随机场处理街景图像的分割与物体分类问题, 文献[18]利用分层条件随机场建立模型对人造图和真实图进行分类, 文献[19]使用全连接的条件随机场优化卷积网络的语义分割结果.

    本文将条件随机场与最小二乘生成式对抗网络理论相结合, 提出了基于条件随机场与最小二乘生成式对抗网络的草图简化方法.网络中的生成器和判别器均由卷积单元构成, 因此, 与卷积神经网络相类似, 生成器与判别器也能通过迭代学习, 自动更新内部卷积核的参数, 同时, 在生成器的损失函数中, 添加了条件随机场的约束以提高生成模型的精度与网络整体捕捉图像细节的能力.本文网络能通过学习数据集中草稿图与线稿图之间的映射以及线稿图的特征, 生成更加接近于真实线稿图的简化图.本文的方法具有以下优点: 1)模型构建基于条件随机场与最小二乘生成式对抗网络, 在损失函数中添加条件随机场能够增加伪造图的生成约束, 使网络向生成理想的伪造图的方向收敛更加迅速, 且伪造图中线条内和背景内像素的像素值相差更小, 线条与背景交界处的像素点的像素值相差更大, 有利于更快速的生成更加优质的线稿图, 同时, 能够确保模型在通过学习后, 能够生成更加接近真实线稿图的草稿简化图. 2)训练完成后, 生成器可以独立使用, 本文模型对输入的草稿图的大小没有要求, 能够自动生成与输入图相应图片大小的优秀简化图, 不再需要判别器部分. 3)本文首次将生成式对抗网络与条件随机场结合使用在草图简化工作上, 将条件随机场作为生成对抗网络损失函数的一部分, 加入了先验知识, 大大提升了网络的收敛速度和简化效果, 具有一定的创新性. 图 1是草图和利用模型得到的对应简化图.

    图 1  草稿图和与之对应的模型结果图
    Fig. 1  Original sketches and output images of model

    本文通过建立一个基于条件随机场和最小二乘生成式对抗网络的卷积网络进行草图的简化学习.在学习的过程中, 草图经过生成器生成对应的伪造图, 再将生成的伪造图和真实的线稿图一起, 输入判别器进行分类.判别器的输出代表对每张输入图片的真假判定, 判定结果与标签求误差后, 再根据梯度下降法对模型参数进行调整, 达到模型自主学习的目的.模型的构建参考了Simo-Serra[10]搭建的卷积神经网络和最小二乘生成式对抗网络.其中, 生成器模型内部包含了卷积层、平卷积层和上卷积层, 分别具有不同的步长, 在迭代学习中完成特征提取与图像重构的工作.判别器模型包括卷积层和全连层, 在迭代中学习准确地区分出标准线稿图和生成器伪造图.为了提高网络整体的稳定性, 除了生成器的输出卷积层和判别器的输入卷积层, 其他卷积层之后都添加归一化处理层(Batch normalization)[20].为了加快模型的收敛速度, 模型内使用卷积层代替了池化层.本文的草稿图简化模型如图 2所示, 包括生成器模型和判别器模型.在训练过程中, 生成器模型学习生成与线稿图像相似的伪造图, 判别器模型学习更准确地区分出伪造图与标准线稿图.模型将生成式对抗网络与深度卷积网络相结合, 遵从文献[15]提出的深度卷积生成式对抗网络的构建约束: 1)在判别网络中使用步幅卷积层替代池化层, 在生成网络中使用微步幅卷积层; 2)除了生成网络的输出卷积层和判别网络的输入卷积层, 其他卷积层后都添加Batchnorm层; 3)不使用任何全连接隐含层; 4)生成网络中, 输出层使用Tanh激活函数, 其他层使用Relu激活函数; 5)判别网络中, 所有层都使用Leakyrelu激活函数.

    图 2  模型示意图
    Fig. 2  Schematic figure of model

    模型中的生成网络在搭建中参考了Simo-Serra等[10]提出的卷积神经网络.网络内部包含了三种卷积层:步幅卷积层, 平卷积层和微步幅卷积层.其中, 步幅卷积层内卷积步幅为2, 将输出特征图的大小减小为输入特征图大小的一半, 确保生成网络在学习中能够获得提取输入草图的从像素级特征到内容级特征的能力.同时, 为了在一些特征级上提取更多特征图, 模型中加入了步幅为1的平卷积层.而为了使生成网络的生成图具有和输入草图相同的尺寸, 模型中使用了步幅为1/2的微步幅卷积, 使输出图片的大小为输入图片的两倍.另外, 为了增加生成网络应对线条复杂程度更高的输入图, 增加了模型中平卷积层的数量提高了对高层特征的提取能力.

    草图简化模型的判别网络, 由卷积层与全连接层构成, 具有提取输入图片特征以及根据提取特征图对输入图像分类的能力.模型结构的细节如表 1所示. 1~25层为生成器内卷积层, 26~36层为判别器内卷积层.除了生成器和判别器的输出卷积单元和判别器的输入卷积单元, 每个卷积单元都添加了Batchnorm层和一个Relu层, 在生成网络的输出层使用了Tanh激活函数.为了保持输入图片和输出图片的大小一致, 每个卷积层都进行补零.在训练完成后, 生成器模型可以单独使用, 处理任何尺寸的图片.

    表 1  基于条件随机场和最小二乘生成式对抗网络的草图简化模型
    Table 1  Sketch simplification model based on the conditional random field and least squares generative adversarial networks
    序号 层类型 卷积核 步长 深度 序号 层类型 卷积核 步长 深度
    0 Input - - 1 20 Up-convolution 4×4 1/2×1/2 128
    1 Down-convolution 5×5 2×2 48 21 Flat-convolution 3×3 1×1 128
    2 Flat-convolution 3×3 1×1 128 22 Flat-convolution 3×3 1×1 48
    3 Flat-convolution 3×3 1×1 128 23 Up-convolution 4×4 1/2×1/2 48
    4 Down-convolution 3×3 2×2 256 24 Flat-convolution 3×3 1×1 24
    5 Flat-convolution 3×3 1×1 256 25 Flat-convolution 3×3 1×1 1
    6 Flat-convolution 3×3 1×1 256 26 Convolution 5×5 1×1 20
    7 Down-convolution 3×3 2×2 256 27 Convolution 5×5 1×1 50
    8 Flat-convolution 3×3 1×1 512 28 Convolution 4×4 1×1 500
    9 Flat-convolution 3×3 1×1 1 024 29 Convolution 5×5 2×2 500
    10 Flat-convolution 3×3 1×1 1 024 30 Convolution 5×5 2×2 500
    11 Flat-convolution 3×3 1×1 1 024 31 Convolution 5×5 2×2 500
    12 Flat-convolution 3×3 1×1 1 024 32 Convolution 5×5 2×2 500
    13 Flat-convolution 3×3 1×1 1 024 33 Convolution 5×5 2×2 1 000
    14 Flat-convolution 3×3 1×1 1 024 34 Convolution 5×5 2×2 1 000
    15 Flat-convolution 3×3 1×1 512 35 Convolution 4×4 2×2 1 000
    16 Flat-convolution 3×3 1×1 256 36 Fully-connected 1×1 1×1 2
    17 Up-convolution 4×4 1/2×1/2 256 37 Dloss - - -
    18 Flat-convolution 3×3 1×1 256 38 Gloss - - -
    19 Flat-convolution 3×3 1×1 128
    下载: 导出CSV 
    | 显示表格

    在模型中, Batch normalization在除了生成网络的输出卷积层和判别网络的输入卷积层之外的卷积层后使用, 通过在每个Mini-batch中计算得到均值和方差后, 将卷积层输出信号进行规范化. Batch normalization的使用能够增加模型的稳定性, 提高模型的收敛速度.

    在生成网络中, 除了输出卷积层, 每个卷积单元都加入了Relu激活函数.

    $ \begin{align} \label{eq1} \sigma _{\rm Relu} (x)=\max (0, x) \end{align} $

    (1)

    在判别网络中, 所有的卷积单元都加入了Leaky relu激活函数.

    $ \begin{align} \label{eq2} \sigma _{{\rm Leaky~relu}} (x)= \begin{cases} x,&\text{若}~x>0\\ 0.01x, &\text{否则}\\ \end{cases} \end{align} $

    (2)

    在生成器的输出卷积层, 添加了Tanh激活函数代替Relu激活函数, 将生成器输出归一化至区间$[-1, 1]$.

    $ \begin{align} \label{eq3} \sigma _{\tanh } (x)=\frac{\sinh x}{\cosh x} \end{align} $

    (3)

    在确定模型的损失时, 引入Goodfellow等[11]提出的生成式对抗网络的相关理论.为从标准数据$x$中学习生成器目标分布, 生成式对抗网络的输入定义为$p_z(z)$, 具有多层感知器功能的生成器定义为$G(z;\theta_g )$, 其中$\theta _g $为生成器内的参数, $G(z)$代表生成器输出的伪造图.具有分类功能的判别器定义为$D(x;\theta_d)$, 其中, 代表判别器内的参数.判别器的输出$D(x)$代表对应的输入被判定为真的比率.在训练过程中, 生成器学习更好的欺骗判别器的能力, 使判别器对伪造图的评分更高, 即学习最小化$\log(D(x))$ $+$ $\log(1-D(G(z)))$.同时, 判别器通过学习, 不断提升区分伪造图与真实图的能力, 使其对伪造图的评分更低, 真实图的评分更高, 即学习最大化$\log(D(x))+\log(1-D(G(z)))$.生成器和判别器在博弈的过程如下所示:

    $ \begin{align} \label{eq4} \mathop {\min }\limits_G \mathop {\max }\limits_D V(D, G) % \nonumber\\ =&~{\rm E}_{x\sim p_{{\rm data}} (x)} [\log D(x)] +\nonumber\\ &~{\rm E}_{z\sim p_z (z)} [\log (1-D(G(z)))] \end{align} $

    (4)

    当生成器固定, $V(D, G)$形如函数$y\to a\log(y)$ $+$ $b\log(1-y)$, 其中$(a, b)\in R2\backslash {\{}0, 0{\}}$, 求导可得$[0, 1]$区间上的最大值在点${a}/{(a+b)}$处, 即$V(D, G)$要获得最大值必须满足条件如下:

    $ \begin{align} \label{eq5} D_G^\ast (x)=&~\frac{{b}p_{{\rm data}} (x)+ap_g (x)}{p_{{\rm data}} (x)+p_g (x)}=\nonumber\\[2mm] &~\frac{p_{{\rm data}} (x)}{p_{{\rm data}} (x)+p_g (x)} \end{align} $

    (5)

    同时, 为了使该网络达到纳什均衡, 生成器需要在取到最小值, 函数表示如下:

    $ \begin{align} \label{eq6} C(G)=&\ \mathop {\max }\limits_D V(G, D)=\nonumber\\[1mm] &\ {\rm E}_{X\sim p_{{\rm data}} } \left[\log \frac{p{ }_{{\rm data}}(x)}{p_{{\rm data}} (x)+p_g (x)}\right]+\nonumber\\[2mm] &\ {\rm E}_{X\sim p_g } \left[\log \frac{p_g (x)}{p_{{\rm data}} (x)+p_g (x)}\right] \end{align} $

    (6)

    为了使$p_{{\rm data}} (x)=p_g (x)$, 此时$D_G^\ast (x)={1}/{2}$, $C(G)$取得最小值.

    $ \begin{align} \label{eq7} C(G)=&~V(D_G^\ast , G)=\nonumber\\ &-\log (4)+2\times JSD_{{\rm data}}\|p_g \end{align} $

    (7)

    此时生成器生成的伪造图与真实图几乎一致, 香农散度为0, $C(G)$最终取得值为$-\log(4)$的全局最小值.

    需要注意, 原始生成对抗网络在训练中, 判别器的Sigmoid交叉熵损失只关注输入的图片是否被正确区分, 对于伪造图分类正确的情况不进行惩罚, 使得该损失函数能提供的损失误差较小, 容易在学习时产生梯度消失的情况.文献[16]在Goodfellow[11]的基础上提出的最小二乘生成式对抗网络, 优化了生成器和判别器的损失函数.

    生成器损失函数如下:

    $ \begin{align} \label{eq8} \mathop {\min}\limits_{D} V_{\rm LSGAN} (D) =&~\frac{1}{2}{\mbox{E}}_{x\sim p_{{\rm data}} (x)} \left[(D(x)-b)^2\right]+\nonumber\\[2mm] &~\frac{1}{2}{\mbox{E}}_{z\sim p_z (z)} \left[(D(G(Z))-a)^2\right] \end{align} $

    (8)

    判别器损失函数如下:

    $ \begin{align} \label{eq9} \mathop {\min }\limits_G V_{\rm LSGAN} (G)=\frac{1}{2}{\mbox{E}}_{z\sim p_z (z)} \left[(D(G(z))-c)^2\right] \end{align} $

    (9)

    其中, 设定$a=0$, $b=c=1$, 且$a$, $b$, $c$分别代表伪造图的标签、真实图的标签和生成器期望判别器对伪造图判定的标签.与原始的生成式对抗网络一致, 在时, 达到网络内部的纳什均衡.

    为了进一步优化对抗网络的精度, 本文在最小二乘生成式对抗网络的损失函数的基础上, 在生成器模型中添加了条件随机场的能量函数作为损失函数的一部分.通过生成器的仿造图中像素点与其四邻域点之间的关系约束, 在迭代学习中不需要进行人为的干预, 网络整体能够自主地向像素间能量更低、更稳定的方向收敛, 生成更加符合要求的仿造图.

    在本文的模型中, 生成器和判别器分别具有不同的损失函数.生成器的损失函数主要包括内容损失、对抗损失和条件随机场能量损失.内容损失计算生成器生成图与对应标准线稿图的逐像素均方误差, 在学习中保证生成图与对应线稿图的像素分布相似.对抗损失计算判别器对伪造图判定的标签与真实图标签的误差, 确保生成网络在学习中增加欺骗判别网络的能力.另外, 图像中的每个像素点的灰度值, 都与其领域内的其他点存在相关关系.同为背景点, 线条内部点之间像素值相差很小, 线条边缘点像素值则相差较大.因此, 本文参考文献[19]的算法, 利用条件随机场的能量损失对伪造图像素点与其四邻域像素点之间的关系进行约束, 使简化网络在收敛的过程中, 学习增加像素标签不同的伪造图像素点之间的灰度差, 减小像素标签相同的像素点之间的灰度差, 使生成的伪造图边缘对比更加明显、背景与线条的颜色更加稳定.

    生成网络的总误差定义如下:

    $ \begin{align} \label{eq10} l_G (x, z, \theta _{g} ) =&~k_1 \left\| {G(z)-x} \right\|_{{\rm FRO}}^2+\nonumber\\ &~k_2 \left\| {D(G(z))-1} \right\|_{{\rm FRO}}^2+\nonumber\\ &~k_3 \sum\limits_{ij} {E_{ij} (z_i , z_j )} \end{align} $

    (10)

    其中, $\left\| {\cdot} \right\|_{{\rm FRO}} $代表Frobenius范数, 系数$k_1 =1$, $k_2$ $=0.1$, $k_3 =0.5$. 计算如下:

    $ \begin{align} \label{eq11}& \sum\limits_{{ij}} {E_{{ij}} (z_{i, } z_j )} =\mu (l_i , l_j )\exp \left(-\frac{\left\| {I_{z_i } -I_{z_j } } \right\|^2}{2\sigma _\alpha ^2}\right)+\nonumber\\[2mm] &\qquad (1-\mu (l_i , l_j ))\exp \left(-\frac{\left\| {1-\left| {I_{z_i } -I_{z_j } } \right|} \right\|^2}{2\sigma _\beta ^2}\right) \end{align} $

    (11)

    其中, $z_i $, 分别代表在生成器伪造图内选取的像素点和像素点的四邻域点, $l_i $, $l_j $代表像素点和四邻域点对应的像素标签.像素的像素标签由生成器伪造图对应的标准线稿图上对应的像素点的位置决定, 本文规定标准图内位于背景的像素点的像素标签为1, 位于线条的像素点的像素标签为0, 且当$l_i =l_j $时, $\mu (l_i , l_j )$ $=0$, 否则$\mu (l_i , l_j )=1$. $I_{z_i } $, $I_{z_j } $分别代表, $z_j $像素点的灰度值.经过验证图集验证, 参数和$\sigma _\beta $通常取值为1.

    判别网络作为分类器, 目的是学习正确地对生成器伪造图与真实图进行区分.判别器的损失函数由最小二乘生成式对抗网络误差函数定义如下:

    $ \begin{align} \label{eq12} l_D (x, G(z), \theta _d ) =&~\frac{1}{2}(D(x)-1)^2+\frac{1}{2}(D(G(z)))^2 \end{align} $

    (12)

    利用最小二乘的损失函数, 使网络的损失函数在判别器分类错误的情况下提供学习误差, 在判别器分类正确的情况下, 仍然可以对远离决策边界的点进行惩罚, 并将它们拉向决策边界.使判别器具有更强的辨别能力, 能够对生成器学习提供更多贡献, 避免了模型崩溃情况的出现, 大大提高了网络的图像处理精度.

    本文网络的损失函数中未添加文献[10]中使用的Lossmap.添加Lossmap虽有利于加速网络收敛速度, 且使网络在学习的过程中不因注重于较粗的线条而忽略较细的线条, 但增加Lossmap进行训练的网络在训练完成之后有个明显的缺陷:在处理较粗的线条时, 网络的生成图更倾向于将组线条分离成两个独立的线条, 或出现线条消失的情况, 如图 3所示.为避免上述情况出现, 本文网络使用CRF代替Lossmap加速网络的收敛.

    图 3  本文网络输出图与使用了Lossmap的Simo-Serra[10]的结果图对比
    Fig. 3  The comparison of our model outputs and results from Simo-Serra algorithm[10] with the usage of lossmaps

    本文构建了由240对在纸和手绘板上完成的草图与线稿图组成的原始大图数据集.数据集中的原始大图分辨率不一致, 但所有图片都大于$500$像素× $500$像素.在实验中, 为了使本文中构建的草图简化网络具有更好的简化能力, 原始的图片数据集被分成训练图集、验证图集和测试图集三部分.

    训练图集中的大图在经过变换截取后获得了1 000张以上, 大小均为$128$像素×$128$像素的成对的小图, 作为简化模型在训练时的输入与标准图.这些训练图中的小图对是通过从原始大图对数据集中抽取部分图片后, 经过旋转随机角度, 随机地选取坐标截取获得, 如图 4所示.同时, 为了增加模型的稳定性, 针对纸质草图在扫描后产生的画面变脏、画质更低、噪声点更多等问题, 本文将图片对中的草稿图使用Adobe photoshop随机进行了4种变换:质感变化, 图像模糊, 增加图像噪声, 增加斑点.在图 5中列举出了本文中一部分用于训练简化模型的数据集图片, 分类为动植物、建筑与场景、日漫风格漫画形象和迪士尼风格漫画形象, 且一部分在实际训练前进行了加噪处理.此外, 在构建训练图集之前, 由于纸质漫画与电脑绘制的漫画在线条上存在区别, 如图 6所示, 在两幅图中, 由图形板描绘的草图更凌乱, 且使用文献[10]中提供的模型更难清理干净.而由于越来越多的漫画家和插图师选择使用手绘板作图, 在进行网络训练之前, 本文收集了一些由手绘板在电脑上进行绘制的图片对, 加入到网络训练中, 增强模型应对复杂情况时的草图简化能力.验证图集包含400对大小为128像素×128像素的图片, 主要用于在模型训练时, 通过验证模型训练图对中的草稿图的简化效果确定模型的超参数.同时, 本文构建了图片对数量为400、大小为128像素×128像素的测试图集, 使用于测试已训练好的模型的草图简化能力, 通过与最新的草图简化算法的输出结果对比, 证明本文提供的草图简化模型确实具有更优秀的简化能力.需要注意的是, 验证图集和测试图集不参与模型内部的参数更新.

    图 4  在大图中截取用于训练的小图示意
    Fig. 4  Extracting small images from the original images for training
    图 5  图片集构成
    Fig. 5  Images dataset construction
    图 6  数位板与纸质草稿图中的线条对比
    Fig. 6  The comparison of lines in sketches drawed on digital tablet and real paper

    在实验中, 本文使用了卷积生成式对抗网络[11]、最小二乘生成式对抗网络和添加条件随机场能量损失的最小二乘生成式对抗网络[16]三种方法进行对比训练.同时, 还将本文算法和未添加条件随机场能量函数的最小二乘生成式对抗网络与全连接条件随机场优化相结合的算法进行了对比.

    卷积生成式对抗网络、最小二乘生成式对抗网络和本文网络的损失函数值随迭代次数的变化如图 7所示.从图 7可以看出, 本文提供的网络具有最快的收敛速度, 且最快达到较平稳的状态.在训练的过程中, 卷积生成式对抗网络无法经过训练学习复杂的草图简化, 由于判别器起初不具有正确分类的能力, 并且当Sigmoid交叉熵作为损失函数时, 只关注模型是否正确分类而不关心偏离正确分类的程度, 使得判别模型对标准图和伪造图持续判为错, Fake loss持续为0, 失去一部分对生成器提供残差的能力, 最终训练失败.在最小二乘生成式对抗网络与添加条件随机场能量损失的最小二乘生成式对抗网络的对比中, 可以看到添加条件随机场能量损失的最小二乘生成式对抗网络中的生成器具有最快的收敛效果.网络整体在迭代次数5 000时, 生成器与判别器误差都已趋于稳定, 已经具有较好的生成伪造图的能力, 判别器也能够持续为生成器提供稳定的残差, 有助于判别器与生成器内部的参数微调.学习过程中, 三个网络的输出图片随迭代次数变化的对比如图 8所示.从图 8可以看出, 本文添加了条件随机场能量函数的网络明显较未添加的网络具有明显的收敛速度更快、生成图更清晰、更贴近标准线稿图的优势, 同时体现了条件随机场能量函数对于提升简化效果的重要性.

    图 7  三网络损失函数变化图
    Fig. 7  Curve of loss functions changing with iterations
    图 8  三个网络的输出图随迭代次数变化对比
    Fig. 8  Outputs of three models changing with iterations

    为了对比文献[19]提出的先通过卷积神经网络(Convolutional neural network, CNN)分类, 再经过条件随机场进行迭代优化分类结果的方法, 本文将相同迭代次数下未添加条件随机场的最小二乘生成式对抗网络生成图再经过条件随机场优化的结果图与添加了条件随机场能量方程的最小二乘生成式对抗网络的结果图进行了对比实验.由于未添加在模型内部的条件随机场优化不能使用网络生成图相应的标准线稿图进行参数的训练, 因此不能使用与本文添加在网络内部的条件随机场能量方程一致的能量函数, 本文利用与文献[19]一致的全连接条件随机场能量方程, 如下:

    $ \begin{align} \label{eq13} E(x)=\sum\limits_i {\theta _i (x_i )} +\sum\limits_{ij} {\theta _{ij} (x_i , x_j )} \end{align} $

    (13)

    其中, $x$为输入图中的像素, $\theta _i (x_i )=-\log P(x_i)$, 为CNN网络输出的标签分类概率, $\theta _{{ij}} (x_i , x_j)$ , 当$x_i \ne x_j$时, $\mu (x_i , x_j)$ $=1$, 否则. $k^m$代表基于像素点$i$与像素点$j$的特征$f$且权值为的高斯核, 其公式如下:

    $ \begin{align} \label{eq14} &\omega _1 \mbox{exp}\left(-\frac{\left\| {p_i -p_j } \right\|^2}{{2}\sigma _\alpha ^{2} }-\frac{\left\| {I_i -I_j } \right\|^2}{2\sigma _\beta ^2 }\right)+\nonumber\\[2mm] &\qquad\omega _{2} \exp \left(-\frac{\left\| {p_i -p_j } \right\|^2}{2\sigma _\gamma ^2 }\right) \end{align} $

    (14)

    在实验中, 为了获得较好的二分类效果, 参数设置为$\omega _1 =10$, $\omega _2 =0$, $\sigma _\alpha =60$, $\sigma _\beta =20$, .

    本文分别选用了迭代了5 000次的添加了条件随机场的最小二乘生成式对抗网络的生成图和未添加条件随机场的最小二乘生成式对抗网络的生成图, 再经过全连接的条件随机场迭代10次后的结果图进行了对比, 如图 9所示.需要注意, 条件随机场迭代10次以上, 结果图几乎不再有改变.根据图片显示, 由于缺少条件随机场能量方程对内部的参数训练提供的有力的帮助, 未添加条件随机场的网络在同等迭代次数的情况下, 学习效果远不如添加了条件随机场约束的网络.并且, 虽然通过全连接的条件随机场迭代优化, 网络的生成图边缘确实较之前分界明显, 但是远不足以改善生成图的整体情况, 仍然存在大面积黑块、细节缺失等情况, 生成图质量较差.另外, 由于条件随机场添加在外部, 则即使在网络训练好后, 每次输入图片都需要进行额外的迭代优化的步骤, 比本文网络更加耗时, 效率较低.

    图 9  本文网络输出图、最小二乘生成式对抗网络输出图、最小二乘生成式对抗网络与全连接条件随机场优化结合的输出图对比
    Fig. 9  The comparison of outputs from our model, LSGAN model and the model combined with LSGAN and CRF

    本文网络在学习的过程中, 生成网络的参数$\theta _g$更新, 通过计算生成网络误差与$\theta_{g_{t}}$的一阶导数实现, 如下:

    $ \begin{align} \label{eq15} \theta_{g_{t+1}} =\theta_{g_t }+\Delta \theta _{g_t } =\theta _{g_t } -\frac{RMS[\Delta \theta _g ]_{t-1} }{RMS[\delta \theta _g ]_t }\delta \theta _{g_t } \end{align} $

    (15)

    其中, $\Delta \theta _{g_t } $为参数$\theta _g $的更新量, 代表参数在迭代$t$次时的梯度.

    判别网络也利用了梯度下降法更新网络内参数$\theta _d $, 为了获得误差函数$l_D (x, G(z), \theta _d )$的最小值, 参数的更新方法如下:

    $ \begin{align} \label{eq16} \theta _{d_{j+1} } =\theta _{d_j } -\alpha \frac{\partial }{\partial \theta _{d_j } }l_D (x, G(z), \theta _d) \end{align} $

    (16)

    其中, $\alpha $表示判别网络的参数更新速率.

    本文提供的网络通过训练事实上已经能够生成逼真的草稿简化图, 但由于图像线条的边缘在像素级别上仍然具有不够圆滑、边界对比不够强烈的问题, 这些问题虽不影响美观, 但对绘画工作者后续的上色工作将产生一定的影响.因此, 本文使用Potrace software[21]对网络生成图进行向量化, 使用其默认值, 并且在向量化过程中不需要人为干预.在图 10中展示了向量化的输入与输出结果.需要注意, 文献[10]已经证明直接对草稿图进行向量化不能得到较好的简化结果.

    图 10  模型输出与向量化结果图对比
    Fig. 10  Comparison between output of our model and image after vectorization

    通过学习现有的简化草图方法并结合对LSGAN模型的分析, 经过大量实验, 证明与目前最新的Simo-Serra等提出的方法[10]相比, 本文提供的生成对抗网络模型更适合于简化草图.实验中, 搭建模型使用Python3.5和Tensorflow 1.1.0, 并在GPU为Nvidia gtx980ti的Windows平台上训练4周.需要注意, 模型输入不需要任何预处理, 并且在训练完成后, 生成网络可以输入任意大小的草图, 如图 11所示, 其中生成图 2均为以原始大小的左侧草图为输入图获得的网络生成图, 生成图 1为以扩展为原始长宽的2倍的草图为输入图获得的网络生成图, 生成图 3为以缩减为原始长宽的1/2倍的草图为输入图获得的网络生成图.从图 11可以看出, 当输入图尺寸较大时, 结果图获得的细节相对较多, 输入图尺寸较小时, 结果图相对简化, 但输入草图无论如何变化大小, 本文提供的简化算法都能得到相应优秀的简化图, 可直接被绘画工作者使用.利用本文提供的测试图集, 基于条件随机场与最小二乘生成式对抗网络的草图简化模型的输出图和原始草稿图的对比如图 12所示.从图 12可以看出, 在各种内容、风格、绘制方式的草图输入下, 本文网络均能获得较好的简化结果.另外, 在GPU为Nvidia gtx980ti的Windows平台上, 草图简化模型在训练完成后, 生成器网络生成简化图所需时间如表 2所示.

    图 11  多尺寸草图获得的算法生成图对比
    Fig. 11  The comparison of output images obtained by different sizes of imput images
    图 12  不同草图与本文模型对应的生成图
    Fig. 12  Fake images generated by our generator using different sketches
    表 2  生成器网络生成简化图所需时间
    Table 2  Time needed for generating a simplified image by the generator
    图片大小(像素) 像素个数 GPU (Nvidia gtx980ti) (s)
    500×500 250 000 1.377
    1 500×1 500 2 250 000 11.632
    2 000×2 000 4 000 000 21.431
    下载: 导出CSV 
    | 显示表格

    本文在算法验证阶段使用了测试图集, 并且利用了宏查全率、宏查准率以及相应的宏F1的相关原理, 对本文算法的简化图与Simo-Serra[10]提供的例子的简化结果做了详细的计算与对比分析, 通过结果验证, 本文的简化模型与最新的草图简化模型相比, 确实具有更加优秀的草图简化能力.

    在二分类问题中, 查全率与查准率常用来共同衡量一个模型的输出结果.其中, 可将样本根据其真实的类别与分类器预测的类别的组合划分成真正例($TP$)、假正例($FP$)、真反例($TN$)、假反例($FN$)四种情况.

    查全率($P$)和查准率($R$)定义如下:

    $ P=\frac{TP}{TP+FP} $

    (17)

    $ R=\frac{TP}{TP+FN} $

    (18)

    F1为查全率和查准率的加权调和平均.但在有多个混淆矩阵的情况下, 常常使用宏查全率和宏查准率来计算得出相应的宏F1, 以代替F1.宏查全率、宏查准率和宏F1的公式下:

    $ \begin{align} \label{eq19} \text{macro-}P=\frac{1}{n}\sum\limits_{i=1}^n {P_i } \end{align} $

    (19)

    $ \begin{align} \label{eq20} \text{macro-}R=\frac{1}{n}\sum\limits_{i=1}^n {R_i } \end{align} $

    (20)

    $ \begin{align} \label{eq21} \text{macro-F}1=\frac{2\times \text{macro-}P\times \text{macro-}R}{\text{macro-}P+\text{macro-}R} \end{align} $

    (21)

    本文中的简化模型也可以看成一个二分类的分类器, 规定标测试集图片对中的每张标准线稿图的所有像素点分别为每次计算时的总样本, 其中线条部分的像素点是实际为"真"的样本, 背景的像素点则是实际为"假"的样本.同时, 在对应的输出简化图中, 规定线条部分的像素点是分类器预测为"真"的样本, 而背景部分的像素点则是分类器预测为"假"的样本.同理, 例子的结果也可以作为Simo-Serra[10]草图简化模型的分类结果.

    测试的过程中, 将测试图集中的草稿图输入本文的简化网络, 得到本文算法的结果图, 同时, 将同样的草稿图输入Simo-Serra[10]的例子中, 获得Simo-Serra[10]算法的结果图.上述步骤完成之后, 再利用测试图集中的标准线稿图和查全率和查准率的公式获得对比测试结果, 如表 3.需要注意, 由于经过卷积神经网络后输出图中的线条会有些许像素位移, 不能对标准图和两个对比图进行像素间的一一对应判定, 而应该对计算设置一定的范围.为确定相对合理的范围, 本文对范围的变化对测试的结果macro-F1与macro-F1$_{s}$的影响进行了实验, 结果如图 13所示.本文算法结果图的测试结果macro-F1与Simo-Serra[10]算法结果图的测试结果macro-F1$_{s}$在范围增大时, 均能获得稳定提升.另外, 在范围为3像素×3像素时, macro-F1与macro-F1$_{s}$达到最大的差值, 在小于该范围时, 由于网络输出的像素位移对二者均有显著影响, 二者结果下降的同时, 差值也相对下降, 而在大于该范围时, 二者由于容忍条件的放宽, 测试结果的可信程度相对降低, 虽然二者的结果均有提升且差异减小, 但过大的范围获得的测试结果已经不具有实际意义.最后, 本文选择将范围为5像素×5像素时的macro-F1与macro-F1的数值作为对比测试的结果.需要注意, 范围变化的过程中, macro-F1始终大于macro-F1$_{s}$, 因此, 测试证明了本文提供的基于条件随机场与最小二乘生成式对抗网络的草图简化模型确实优于最新的、由Simo-Serra等[10]提出的基于卷积神经网络的草图简化模型.另外, 在输入同一内容和大小的草稿图的情况下, 本文算法得到的结果图与文献[9-10]得到的结果图对比如图 14所示.从图 14可以看出, 本文提供的算法确实具有比最新的算法[9-10]更好的草图简化能力, 输入相同草图得到的简化结果图细节更加的丰富, 画面中的线条虽有粗细的变化, 但既体现了作者对线条的强调或忽略的作画意图, 也保持了线条的粗细均匀, 具有很强的实用性.

    表 3  利用测试集获得的Simo-Serra[10]简化模型输出图和本文简化模型输出图的宏查全率、宏查准率和宏F1的测试结果
    Table 3  Test results of macro-$R$, macro-$P$ and macro-F1 of output images of Simo-Serra[10] simplification model and output images of our model using test dataset
    测试项目 Simo-Serra模型结果图 本文模型结果图
    宏查全率(范围为5像素×5像素) 0.6660 0.7278
    宏查准率(范围为5像素×5像素) 0.7105 0.7078
    宏F1 (范围为5像素×5像素) 0.6875 0.7181
    下载: 导出CSV 
    | 显示表格
    图 13  macro-F1与macro-F1$_{s}$对比图
    Fig. 13  Experiment on the influence of range change on macro-F1 and macro-F1$_{s}$
    图 14  本文算法与其他算法的两组对比图
    Fig. 14  Compared with outputs of the latest algorithms

    本文中的基于条件随机场与最小二乘生成式对抗网络的草图简化模型由于包含生成网络和判别网络两个部分, 拥有更多的隐含层和更高的复杂度, 导致训练草图简化网络的过程更耗时.此外, 模型生成图像的质量取决于训练数据的质量和数量, 这与由卷积层构建的其他模型相同, 原因在于由于模型内部参数较多, 不充足的训练数据更容易使模型过拟合, 得不到较好的实验效果.但在提供更多的高质量的训练图像以及迭代次数充足的情况下, 能够尽量避免过拟合导致的训练失败, 同时, 基于条件随机场与最小二乘生成式对抗网络的草图简化模型能够为图形艺术家提供更优秀的草稿简化图.

    本文提出了一种基于条件随机场和最小二乘生成式对抗网络(LSGAN)的新颖草图简化方法, 并能获得更高质量的草图简化图.同时, 构建了新的数据集, 其中包含在真实纸张和数码手绘板上绘制的草稿图与其对应的干净线稿图.此外, 草图简化模型使用GPU进行训练, 并且计划收集更多的图像对, 使模型在后续的训练中生成更好的简化图像.


  • 本文责任编委 王坤峰
  • 图  1  草稿图和与之对应的模型结果图

    Fig.  1  Original sketches and output images of model

    图  2  模型示意图

    Fig.  2  Schematic figure of model

    图  3  本文网络输出图与使用了Lossmap的Simo-Serra[10]的结果图对比

    Fig.  3  The comparison of our model outputs and results from Simo-Serra algorithm[10] with the usage of lossmaps

    图  4  在大图中截取用于训练的小图示意

    Fig.  4  Extracting small images from the original images for training

    图  5  图片集构成

    Fig.  5  Images dataset construction

    图  6  数位板与纸质草稿图中的线条对比

    Fig.  6  The comparison of lines in sketches drawed on digital tablet and real paper

    图  7  三网络损失函数变化图

    Fig.  7  Curve of loss functions changing with iterations

    图  8  三个网络的输出图随迭代次数变化对比

    Fig.  8  Outputs of three models changing with iterations

    图  9  本文网络输出图、最小二乘生成式对抗网络输出图、最小二乘生成式对抗网络与全连接条件随机场优化结合的输出图对比

    Fig.  9  The comparison of outputs from our model, LSGAN model and the model combined with LSGAN and CRF

    图  10  模型输出与向量化结果图对比

    Fig.  10  Comparison between output of our model and image after vectorization

    图  11  多尺寸草图获得的算法生成图对比

    Fig.  11  The comparison of output images obtained by different sizes of imput images

    图  12  不同草图与本文模型对应的生成图

    Fig.  12  Fake images generated by our generator using different sketches

    图  13  macro-F1与macro-F1$_{s}$对比图

    Fig.  13  Experiment on the influence of range change on macro-F1 and macro-F1$_{s}$

    图  14  本文算法与其他算法的两组对比图

    Fig.  14  Compared with outputs of the latest algorithms

    表  1  基于条件随机场和最小二乘生成式对抗网络的草图简化模型

    Table  1  Sketch simplification model based on the conditional random field and least squares generative adversarial networks

    序号 层类型 卷积核 步长 深度 序号 层类型 卷积核 步长 深度
    0 Input - - 1 20 Up-convolution 4×4 1/2×1/2 128
    1 Down-convolution 5×5 2×2 48 21 Flat-convolution 3×3 1×1 128
    2 Flat-convolution 3×3 1×1 128 22 Flat-convolution 3×3 1×1 48
    3 Flat-convolution 3×3 1×1 128 23 Up-convolution 4×4 1/2×1/2 48
    4 Down-convolution 3×3 2×2 256 24 Flat-convolution 3×3 1×1 24
    5 Flat-convolution 3×3 1×1 256 25 Flat-convolution 3×3 1×1 1
    6 Flat-convolution 3×3 1×1 256 26 Convolution 5×5 1×1 20
    7 Down-convolution 3×3 2×2 256 27 Convolution 5×5 1×1 50
    8 Flat-convolution 3×3 1×1 512 28 Convolution 4×4 1×1 500
    9 Flat-convolution 3×3 1×1 1 024 29 Convolution 5×5 2×2 500
    10 Flat-convolution 3×3 1×1 1 024 30 Convolution 5×5 2×2 500
    11 Flat-convolution 3×3 1×1 1 024 31 Convolution 5×5 2×2 500
    12 Flat-convolution 3×3 1×1 1 024 32 Convolution 5×5 2×2 500
    13 Flat-convolution 3×3 1×1 1 024 33 Convolution 5×5 2×2 1 000
    14 Flat-convolution 3×3 1×1 1 024 34 Convolution 5×5 2×2 1 000
    15 Flat-convolution 3×3 1×1 512 35 Convolution 4×4 2×2 1 000
    16 Flat-convolution 3×3 1×1 256 36 Fully-connected 1×1 1×1 2
    17 Up-convolution 4×4 1/2×1/2 256 37 Dloss - - -
    18 Flat-convolution 3×3 1×1 256 38 Gloss - - -
    19 Flat-convolution 3×3 1×1 128
    下载: 导出CSV

    表  2  生成器网络生成简化图所需时间

    Table  2  Time needed for generating a simplified image by the generator

    图片大小(像素) 像素个数 GPU (Nvidia gtx980ti) (s)
    500×500 250 000 1.377
    1 500×1 500 2 250 000 11.632
    2 000×2 000 4 000 000 21.431
    下载: 导出CSV

    表  3  利用测试集获得的Simo-Serra[10]简化模型输出图和本文简化模型输出图的宏查全率、宏查准率和宏F1的测试结果

    Table  3  Test results of macro-$R$, macro-$P$ and macro-F1 of output images of Simo-Serra[10] simplification model and output images of our model using test dataset

    测试项目 Simo-Serra模型结果图 本文模型结果图
    宏查全率(范围为5像素×5像素) 0.6660 0.7278
    宏查准率(范围为5像素×5像素) 0.7105 0.7078
    宏F1 (范围为5像素×5像素) 0.6875 0.7181
    下载: 导出CSV
  • [1] 孙旭, 李晓光, 李嘉锋, 卓力.基于深度学习的图像超分辨率复原研究进展.自动化学报, 2017, 43(5):697-709 http://www.aas.net.cn/CN/abstract/abstract19048.shtml

    Sun Xu, Li Xiao-Guang, Li Jia-Feng, Zhuo Li. Review on deep learning based image super-resolution restoration algorithms. Acta Automatica Sinica, 2017, 43(5):697-709 http://www.aas.net.cn/CN/abstract/abstract19048.shtml
    [2] 张慧, 王坤峰, 王飞跃.深度学习在目标视觉检测中的应用进展与展望.自动化学报, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtml

    Zhang Hui, Wang Kun-Feng, Wang Fei-Yue. Advances and perspectives on applications of deep learning in visual object detection Acta Automatica Sinica, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtml
    [3] Wilson B, Ma K L. Rendering complexity in computer-generated pen-and-ink illustrations. In: Proceedings of the 3rd International Symposium on Non-Photorealistic Animation and Rendering. New York, NY, USA: ACM, 2004. 129-137
    [4] Grabli S, Durand F, Sillion F X. Density measure for line-drawing simplification. In: Proceedings of the 12th Pacific Conference on Computer Graphics and Applications. Seoul, South Korea: IEEE, 2004. 309-318
    [5] Cole F, DeCarlo D, Finkelstein A, Kin K, Morley K, Santella A. Directing gaze in 3D models with stylized focus. In: Proceedings of the 17th Eurographics Conference on Rendering Techniques. Nicosia, Cyprus: ACM, 2006. 377-387
    [6] Grimm C, Joshi P. Just Drawit: a 3D sketching system. In: Proceedings of the 2012 International Symposium on Sketch-Based Interfaces and Modeling. Annecy, France: ACM, 2012. 121-130
    [7] Fišer J, Asente P, Sýkora D. ShipShape: a drawing beautification assistant. In: Proceedings of the 2015 Workshop on Sketch-Based Interfaces and Modeling. Istanbul, Turkey: ACM, 2015. 49-57
    [8] Orbay G, Kara L B. Beautification of design sketches using trainable stroke clustering and curve fitting. IEEE Transactions on Visualization and Computer Graphics, 2011, 17(5):694-708 doi: 10.1109/TVCG.2010.105
    [9] Liu X T, Wong T T, Heng P A. Closure-aware sketch simplification. ACM Transactions on Graphics (TOG), 2015, 34(6):Article No. 168 https://dl.acm.org/citation.cfm?id=2818067
    [10] Simo-Serra E, Iizuka S, Sasaki K, Ishikawa H. Learning to simplify:fully convolutional networks for rough sketch cleanup ACM Transactions on Graphics (TOG), 2016, 35(4):Article No. 121 https://dl.acm.org/citation.cfm?id=2925972
    [11] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial networks. In: Proceedings of the 2014 Advances in Neural Information Processing Systems (NIPS). Montreal, Canada: Curran Associates, Inc., 2014. 2672-2680
    [12] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml
    [13] Qi G J. Loss-sensitive generative adversarial networks on Lipschitz densities. ArXiv: 1701. 06264, 2017.
    [14] Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. ArXiv: 1701. 07875, 2017.
    [15] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. In: Proceedings of the 2015 International Conference on Learning Representations (ICLR). San Diego, CA, USA: ICLR, 2015.
    [16] Mao X D, Li Q, Xie H R, Lau R Y K, Wang Z, Smolley S P. Least squares generative adversarial networks. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 2813-2821
    [17] Huang Q X, Han M, Wu B, Ioffe S. A hierarchical conditional random field model for labeling and segmenting images of street scenes. In: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, CO, USA: IEEE, 2011. 1953-1960
    [18] Yang M Y, Förstner W. A hierarchical conditional random field model for labeling and classifying images of man-made scenes. In: Proceedings of the 2011 IEEE International Conference on Computer Vision Workshops. Barcelona, Spain: IEEE, 2011. 196-203
    [19] Chen L C, Papandreou G, Kokkinos I, Murphy K, Yuille A L. DeepLab:semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4):834-848 doi: 10.1109/TPAMI.2017.2699184
    [20] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. In: Proceedings of the 32nd International Conference on Machine Learning. Lille, France: PMLR, 2015.
    [21] Selinger P. Potrace: a polygon-based tracing algorithm[Online], available: http://potrace.sourceforge.net/potrace.pdf, May 10, 2017
  • 期刊类型引用(12)

    1. 孟辰,曾志高,朱艳辉,朱文球,易胜秋,董丽君. 改进生成对抗网络在图片数据生成中的应用. 计算机工程与应用. 2022(15): 260-269 . 百度学术
    2. 张涛,刘刚,朱冀涛,徐晓雨,徐岩. 基于LSGAN及迁移学习的智慧工地监控图像修复和识别方法. 中国测试. 2022(09): 125-132 . 百度学术
    3. 张扬,马小虎. 基于改进生成对抗网络的动漫人物头像生成算法. 计算机科学. 2021(01): 182-189 . 百度学术
    4. 方卫华,张慧,夏童童. 基于轻量化GANs的引水隧洞充水试验数据生成分析. 水利信息化. 2021(02): 34-39 . 百度学术
    5. 陈晨,袁魏华. 图像拼接技术在动漫人物创造中的应用研究. 长春工程学院学报(自然科学版). 2021(03): 125-128 . 百度学术
    6. 王冠群. 深度卷积生成对抗网络的计算机视觉系统测试用例生成方案. 电子技术与软件工程. 2020(08): 123-127 . 百度学术
    7. 刘小燕,李照明,段嘉旭,项天远. 基于卷积神经网络的印刷电路板色环电阻检测与定位方法. 电子与信息学报. 2020(09): 2302-2311 . 百度学术
    8. 唐浩丰,董元方,张依桐,孙娟娟. 基于深度学习的图像补全算法综述. 计算机科学. 2020(S2): 151-164 . 百度学术
    9. 吴宏杰,戴大东,傅启明,陈建平,陆卫忠. 强化学习与生成式对抗网络结合方法研究进展. 计算机工程与应用. 2019(10): 36-44 . 百度学术
    10. 欧阳雯琪,徐昆. Mask-2-Human:基于生成式对抗网络的人物图像生成方法. 中国科技论文. 2019(03): 255-260 . 百度学术
    11. 马春光,郭瑶瑶,武朋,刘海波. 生成式对抗网络图像增强研究综述. 信息网络安全. 2019(05): 10-21 . 百度学术
    12. 易珂. 基于深度网络ACGAN的图像识别. 电子技术与软件工程. 2018(18): 60-61 . 百度学术

    其他类型引用(29)

  • 加载中
  • 图(14) / 表(3)
    计量
    • 文章访问数:  4943
    • HTML全文浏览量:  620
    • PDF下载量:  757
    • 被引次数: 41
    出版历程
    • 收稿日期:  2017-08-31
    • 录用日期:  2018-01-09
    • 刊出日期:  2018-05-20

    目录

    /

    返回文章
    返回