Stroke Segmentation of Calligraphy Based on Conditional Generative Adversarial Network
-
摘要: 毛笔书法作为中华传统艺术的精华, 需要在新的时代背景下继续传承和发扬. 书法字是以笔画为基本单元组成的复杂图形, 如果要分析书法结构, 笔画分割是首要的步骤. 传统的笔画分割方法主要利用细化法从汉字骨架上提取特征点, 分析交叉区域的子笔画拓扑结构关系来分割笔画. 本文分析了传统笔画分割基于底层特征拆分笔画的局限性, 利用条件生成对抗网络(Conditional generative adversarial network, CGAN)的对抗学习机制直接分割笔画, 使提取笔画从先细化再分割改进为直接分割. 该方法能有效提取出精确的笔画, 得到的高层语义特征和保留完整信息的单个笔画利于后续对书法轮廓和结构的评价.Abstract: As the essence of Chinese traditional art, brush calligraphy needs to continue to inherit and carry forward in the new era. Calligraphy is a complex figure composed of strokes as the basic unit. If you want to analyze the structure of calligraphy, stroke segmentation is the first step. The traditional stroke segmentation method mainly uses the refinement method to extract feature points from the Chinese character skeleton, and analyzes the sub-stroke topology relationship of the intersection region to segment the strokes. This paper analyzes the limitations of traditional stroke segmentation based on the underlying feature splitting strokes, and the strokes are directly segmented by using the adversarial learning mechanism of conditional generative adversarial network (CGAN). Improve the method of extracting strokes from first refinement and then segmentation to direct segmentation. This method can effectively extract accurate strokes. The resulting high-level semantic features and individual strokes that retain complete information are helpful for the subsequent evaluation of the outline and structure of calligraphy.
-
书法是汉字文化的精髓, 学习书法是一个非常复杂的过程, 人们通过描红、临摹等方法学习名家的书法风格. 学习书法需要先摹后临, 循序渐进, 对于有一定书法基础的人, 当以临帖为主. 临帖有几个阶段: 临贴、背贴、核贴. 临帖在书法练习中是最为重要也是最有挑战性的. 临帖初期要求模仿作品和范本有很高的相似度, 许多书法爱好者在核贴过程中, 并不能及时有效地发现自己的不足, 也没有条件寻求名师一一指点. 因此, 找到一种通用性强的算法, 在核贴环节让练习者更轻松地进行比对笔画和结构, 是一件非常有意义的工作.
本文通过调查手机和平板的应用商店发现, 大部分书法学习软件只是提供名家字帖, 教学视频, 以及利用触屏的虚拟毛笔描红练习, 欠缺实体笔墨的实践和细致的书法评价, 对书法练习者有一定的借鉴意义, 但实际作用不大. 没有针对写在纸上的书法进行评价的软件, 最主要的原因是笔画提取比较困难, 缺乏将书法笔画拆分开的算法. 传统的汉字笔画提取方法有两种, 一是应用骨架化的方法, 另一种是底层像素特征的方法. 其中, 骨架化就是将字符图像中所有线段图案的宽度减小为一个像素的过程[1], 目前有细化, 中轴变化和形态学方法[2].
计算机识别领域很多应用场景是通过骨架化来识别物体, 提取汉字骨架, 有利于对图像数据进行压缩, 进一步分析汉字的结构. 压缩后的数据虽然提高了对书法图像处理的速度, 但是, 单纯的骨架提取得到的只是底层信息, 并不能反映毛笔笔锋、运笔的力度等高层语义信息, 丢失了书法字体的很多属性, 也失去了毛笔书法的灵魂.
常见的骨架法步骤是[3-4]先对骨架段进行删除、合并, 再用模板匹配法分析交叉,但在判定是否删除与合并时常有误判. 如何保证良好的连通性,保持物体原有的拓扑结构又能减弱边界噪声的影响[2, 5]也是目前骨架提取研究的难点. 另一种方法是利用底层像素特征, 提取的对象主要有灰度图、二值图和轮廓图. 其中, 从灰度图中提取笔画的时间复杂度最高. 它的主要优点是笔画的灰度大小能够反映书写时的笔画轻重, 对于轻微的笔画多余连接, 能够根据连接处的灰度对比等信息解决. 但是实际操作的效果受光照条件、纸张材料等环境因素较多. 轮廓法提取笔画也是常见的做法, 它利用笔画两侧轮廓的相对位置和大小关系来提取笔画, 较适用于笔画宽度稳定的印刷体汉字[1, 6-8]. 但是鲁棒性不强, 很容易受到伪角点的影响. 轮廓法的关键是: 通过定位角点(拐点)来定位交叉区, 再对交叉区进行分类, 并进行笔画分离. 这种方法用在没有固定书写模板的书法字上会出现角点的误判, 想要判定许多飞白或枯笔产生的角点是伪角点, 则需判别此处并没有交叉笔画, 而用轮廓法判别交叉笔画的方式就是检测角点, 两者互相矛盾[5], 很难在实际情况下应用.
当代的人工智能研究者一直致力于研究让计算机赋有创造力, 本文正是利用机器学习的创造力来解决书法字的笔画分割问题. 深度学习中的无监督模型近年来受到越来越多的关注, 变分自编码器(Variational auto-encoder, VAE), 生成对抗网络(Generative adversarial network, GAN)[9]等无监督模型受到越来越多的关注. GAN由生成器生成观测数据, 判别器估计观测数据是否来源于生成器, 预测结果用来调整生成器的权重. 因为GAN可以进行对抗操作, 高效的自学习, 符合人工智能发展的趋势, 近年来, 基于GAN的研究方法越来越丰富[10], 可以应用于全景分割, 修复图像和超分辨率重建[11-13]. 其中常见的条件生成对抗网络(Conditional generative adversarial network, CGAN)是在GAN的基础上加入了辅助信息, 用来控制数据的生成.
本文通过条件生成对抗网络, 对笔画进行精确分割, 可以得到局部和整体的可视化结果, 用于后续评价, 让练习者可以进一步对比自己练习的书法与字帖的差距.
1. 基于CGAN的笔画分割算法
笔画分割也可以看成是图像分割, 本文选择用图像分割算法解决笔画分割问题. 图像分割常用方法有: 阈值分割[14]、区域分割[15]、边缘检测分割[16]以及能量最小化[17]. 因为汉字笔画灰度特征单一, 笔画交叉的部分缺失边缘信息, 无法应用上述方法. 汉字作为非常复杂的几何图形, 其特征提取十分重要也十分具有挑战性. 本文针对传统骨架算法(下文简称传统算法)容易变形和容易误判等不足, 提出利用条件生成对抗网络进行笔画分割.
1.1 条件生成对抗网络
条件生成对抗网络(CGAN)是在GAN的基础上加上了某种条件, 利用附加信息调整模型, 指导数据生成过程[18]. 条件生成对抗网络可以很好地解决图像转换问题, 尤其是涉及高度结构化图形输出的任务, 是一种很有前途的方法. 条件生成对抗网络总体上有两个子网络组成: 生成器(G)和判别器(D), 如图1所示. 生成器的作用是输入一个随机噪声, 生成一个近似真实的样本来欺骗判别器, 使判别器无法分辨输入的数据来自真实世界还是生成器. 判别器的作用是判断输入的数据样本是来自真实世界还是生成器. 通过相互竞争, 生成器和判别器一起优化权值, 共同提升自身能力.
生成对抗网络生成一个学会从随机噪声向量z到输出图像y的映射的模型. 条件生成对抗网络学习的是观测图像x和随机噪声向量z到y的映射的模型. 训练生成器(G)产生出判别器(D)难辨真伪的输出, 其中判别器(D)被训练成尽可能检测出生成器(G)造出来的“假”图片.
条件生成对抗网络比生成对抗网络多了图片标签, 通过生成器输出的图片和人工标注图片之间的误差调整生成器的权重. 条件生成对抗网络的目标函数可表示为
$$ \begin{split} L_{{\rm{CGAN}}} (G,D) = \;&{\rm{E}}_{x,y} [\lg D(x,y)]+\\ &{\rm{E}}_{x,z} [\lg (1-D(x,G(x,z))] \end{split} $$ (1) 其中, x为输入的书法字图像, y为人工分割的笔画, 函数D(x, y)表示输入的图像来自于人工分割的概率, 函数D(x, G(x, z))表示输入图像来自生成器的概率. 整个优化目标需要最大化判别网络判别器(D)判别正确的概率 同时需要最小化生成器(G)生成的样本被判别出来的概率.
$$ \begin{equation} G^* = {\rm{arg}}\min\limits_G\max\limits_DL_{{\rm{CGAN}}}(G,D) \end{equation} $$ (2) 由于L1比L2更不容易造成模糊, 所以L1范数更加常用.
$$ \begin{equation} L_{L1}(G) = {\rm{E}}_{x,y,z}[||y-G(x,z)||_1]) \end{equation} $$ (3) 新的目标函数结合了L1距离函数, 如式(4)所示.
$$ \begin{equation} G^* = {\rm{arg}}\min\limits_G\max\limits_DL_{{\rm{CGAN}}}(G,D)+ \lambda L_{L1}(G) \end{equation} $$ (4) 引入超参数
$\lambda $ 进行控制, 平衡两个目标函数, 设置$\lambda $ 为100[19].1.2 pix2pix网络
条件生成对抗网络的条件可以是图片, 也可以是文本; 生成器和判别器可以是函数或者神经网络.
pix2pix网络属于条件生成对抗网络, 其条件为图片, 生成器为U-Net[20], 结构见图2. 在标签合成照片、从边缘重建物体、给图像着色等任务中有着广泛应用. 杜雪莹[21]提出的书法字风格迁移也用到了此网络.
为了使生成器(G)能够突破解码过程中信息冗余的瓶颈, 本文使用了跳跃连接(Skip connection), 具体操作是将网络的第
$i $ 层和网络的第$n-i $ 进行跳跃连接, 每个跳跃连接只是简单地将第$i $ 层网络输出的所有通道和第$n-i $ 层的所有输出进行连接($n $ 为网络结构的总层数), 作为第$n-i+1 $ 层节点的输入. 在编码层使用ReLU作为非线性激活函数. 每层都使用4×4的卷积层和批量归一化层(Batch normalization, BN).在判别器中含4×4的卷积层、批量归一化层(BN)和ReLU 激活函数, 在判别器的512通道那一层后直接用Sigmoid函数激活, 输出在0 ~ 1之间, 结构见图3.
生成器的训练过程如图4所示, 通过两个途径: 1)输入一幅书法图像到生成器, 噪声采用的是dropout的形式, 比传统CGAN在输入端提供的高斯噪声更加有效. 生成器输出一幅分割后的笔画图像, 比较生成器输出的分割图像和人工标注的标准分割图像之间的差值, 通过误差调整生成器的权重; 2)将书法图像与生成器生成的分割图像输入到判别器中, 由于生成器是生成一幅无限接近于目标的分割图像, 期望判别器误认为生成器输出的分割图像是人工标注的图像. 比较判别器输出的结果(在0 ~ 1之间)与正确标准值1的差值, 从而优化生成器的权重, 使其生成的分割图像更加接近目标分割图像.
判别器的训练过程如图5所示, 也是通过两种途径调整权重: 1)输入书法图像和人工分割的笔画图像, 通过比较判别器输出的值D(x, y)与正确标准值1的差值调整权重, 使判别器的输出更接近1; 2)输入书法图像和生成器生成的笔画图像G(x), 比较判别器输出的结果
$D(G(x),y) $ 与错误标准值0的差值来调整权重. 通过这两种方式的调整, 使得判别器能更准确地判别笔画图像是通过人工分割的还是来自生成器.2. 实验
2.1 数据处理和算法步骤
实验所用的书法图像来自书法教学机构的老师和学生, 字体均为楷体, 以“福” 字等为实验对象.
本实验训练集有120张图片, 测试集有60张图片. 训练集挑选了最具代表性的书法, 这样可以保证笔画粘连的所有情况都可以得到训练. 本文通过对图像进行旋转和水平翻转的方式对训练样本进行扩充.
基于条件生成对抗网络在图像转换上取得非常大的成功. 将此网络应用在书法分割上, 需要分成K (K为笔画数量)个问题解决. 本文将一个字的笔画分割问题细分成K个图像转换问题来开展实验.
步骤 1. 人工处理阶段, 人工分开每个字的笔画;
步骤 2. 训练阶段, 每次训练一个笔画的分割模型, 重复K次完成;
步骤 3. 测试阶段: 调用训练好的K个预训练模型, 得到分割的K个笔画;
步骤 4. 将K个笔画分别细化得到骨架, 再进行后续评价.
2.2 实验过程
本文对“福”字所有13个笔画用pix2pix网络分别训练, 以第2个笔画为例进行展示. 图6为测试图像, 图7为不同代数的模型的训练效果, 图8是训练200代的损失函数. 结合图7和图8可以发现, 在第20代的时候, 提取目标已经大致确定, 在50代的时候损失函数基本上稳定.
2.3 结果分析
2.3.1 本文算法效果
在引入对抗机制的pix2pix网络中, 小样本的训练量已经可以让损失函数迅速下降, 笔画提取的效果非常好. 说明本算法对数据的需求并不高. 由损失函数的变化和可视化结果可知, 本算法对训练代数的要求较小, 在较短时间内即可完成训练. 除了文中展示的笔画外, 其他笔画也都基本可以还原成完整的笔画, 如图9所示.
本文的性能通过准确率(Accuracy, AC)和 F1分数进行评估. F1综合考虑精度(Precison)和召回率(Recall)两个性能指标, F1分数能够客观说明模型效果, 其值越接近1越好.
$$ \qquad\begin{equation} AC = \frac{TP+TN}{TP+TN+FP+FN} \end{equation} $$ (5) $$\qquad \begin{equation} Precison = \frac{TP}{TP+FP} \end{equation} $$ (6) $$\qquad \begin{equation} Recall = \frac{TP}{TP+FN} \end{equation} $$ (7) $$\qquad \begin{equation} F1 = \frac{2\times Precison\times Recall}{Precison+Recall} \end{equation} $$ (8) 表1是60张“福” 字每个笔画的平均分割准确率, 所有笔画平均的性能由表1算出
$ \overline{AC} $ = 0.9988,$ \overline{F1} $ = 0.9522. 测试样本达到近似人工分割的效果, 可用于后续评价. 图9可以说明, 本文提出的算法对刚入门的练习者写出的各种“福”几乎没有误判. 实际的应用场景为书法字帖临帖, 正常情况下, 具备书法基础的练习者临帖不会与字帖大相径庭, 误判率会更低, 并且无需太多训练样本.表 1 笔画分割的性能Table 1 Performance of stroke segmentation笔画 1 2 3 4 5 6 7 8 9 10 11 12 13 AC 0.9996 0.9976 0.9988 0.9994 0.9996 0.9996 0.9986 0.9991 0.9991 0.9967 0.9992 0.9986 0.9983 F1 0.9592 0.9435 0.9604 0.9397 0.9710 0.9663 0.9519 0.9312 0.9610 0.9583 0.9483 0.9307 0.9572 2.3.2 提取的骨架与传统算法对比
为了方便比较本文算法与传统算法, 将二者在骨架上进行对比. 传统算法是直接细化得到, 然后再设法分开笔画, 如图10所示. 本文算法是先将所有笔画得出后, 再细化, 然后合并每个笔画得到整个字的骨架. 由图10和图11对比可见, “永” 字的传统算法最理想情况下得到的骨架仍有许多多余的分支和扭曲失真, 而本文算法几乎接近真实的骨架.
骨架法[3]在篆书中的分割准确率低于90%, 章夏芬的实验结果[5]表明隶书笔画提取的正确率还要低于篆书, 楷书更低, 而且越复杂的字分割准确率越低. 如果做书法评价的话, 准确率不高是致命的问题, 尤其是后续如何匹配每个对应的笔画. 在本文的模型中, 由于流程不同于传统算法, 避免了这些问题. 本文认为, 利用pix2pix分割笔画正确率为100%, 只是需要用F1等精度指标分析性能高低.
骨架法常常需要在细化之后合并交叉点族(如图12(b)), 才可以确定一条连通的笔画, 但这种方法误判率很高[5]. 如图12(b) (上) 所示的两对交叉点族间距离差异不大, 但位置2是需要合并的交叉点族, 位置1是需要从中间断开. 骨架法根据距离判定是否合并会误判. 用本文算法提取骨架是先分割再细化, 与传统算法步骤相反. 也因此解决了传统算法难以准确分离笔画的缺点. 而且, 传统算法并不能将细化的笔画恢复成原来的形态, 只能做单一的结构评价. 本文提出的算法保留了完整的笔画形态. 实验表明, 本文算法应用在提取笔画上几乎没有误判和失真的问题, 能提取书法的高层语义特征. 不足之处是轮廓上比原图略微模糊.
2.3.3 本文算法后续评价的优势
由于本文算法在拆分笔画的过程中能保证原书法字不被破坏, 高层语义信息, 如粗细、笔锋都可以保留. Hu不变矩由7个几何不变矩构成, 这些矩组对于平移、尺度变化、镜像和旋转的操作是不变的. Hu不变矩方法适用于描述图像的形状特性, 可以通过欧氏距离计算两幅图Hu不变矩的差异, 如式(9)所示.
$$ \begin{equation} d(HuA,HuB) = \sqrt{\sum\limits_{i = 1}^{7}(HuA_i-HuB_i)^{2}} \end{equation} $$ (9) 图13和图14通过计算不同粗细的两个笔画的Hu不变矩[22]的欧氏距离来说明高层语义的重要性. 两幅图差异越大, 欧氏距离也越大, 图13中, 在保留笔画粗细、笔锋走势等信息的两幅图上可以看出明显差异, 所以它们间的欧氏距离也较大, 为55.01; 图14中相同两幅图像经过细化处理, 欧氏距离非常小, 为0.52, 可以认为两个笔画形状非常接近. 该实验说明了高层语义特征是书法的重要组成部分.
3. 结束语
书法笔画的正确分割对书法练习、汉字美化、风格鉴定[23-25]等领域具有重大意义. 本文通过使用条件生成对抗网络pix2pix对书法字笔画进行分割, 解决了传统算法分割误判率高, 无法提取高层语义信息的问题. 本文方法在前期训练比较耗时, 但实际使用的时候只需要调用模型, 能做到及时响应. 同时可以保留书法的笔锋、粗细等属性, 骨架的信息也更加精确. 从应用可行性的角度来说, 本文的方法相比传统方法更具有优势.
-
表 1 笔画分割的性能
Table 1 Performance of stroke segmentation
笔画 1 2 3 4 5 6 7 8 9 10 11 12 13 AC 0.9996 0.9976 0.9988 0.9994 0.9996 0.9996 0.9986 0.9991 0.9991 0.9967 0.9992 0.9986 0.9983 F1 0.9592 0.9435 0.9604 0.9397 0.9710 0.9663 0.9519 0.9312 0.9610 0.9583 0.9483 0.9307 0.9572 -
[1] 郭晨. 基于图像处理技术的手写体汉字特征分析的研究 [硕士学位论文]. 天津科技大学, 中国, 2010.Guo Chen. Research on Character Analysis of Handwritten Chinese Characters Based on Image Processing Technology [Master thesis]. Tianjin University of Science and Technology, China, 2010. [2] 李凡. 基于改进K段主曲线算法的图像骨架提取 [硕士学位论文]. 大连海事大学, 中国, 2016.Li Fan. Image Skeleton Extraction Based on Improved K-segment Main Curve Algorithm [Master thesis]. Dalian Maritime University, China, 2016. [3] 阳平, 娄海涛, 胡正坤. 一种基于骨架的篆字笔划分割方法. 计算机科学, 2013, 40(2):297-300 doi: 10.3969/j.issn.1002-137X.2013.02.066Yang Ping, Yan Haitao, Hu Zhengkun. A Skeleton-based Segmentation Method for Scratch Strokes. Computer Science, 2013, 40(2): 297-300(in Chinese) doi: 10.3969/j.issn.1002-137X.2013.02.066 [4] 苗晋诚. 基于骨架化、骨架划分获取书法汉字结构特征的方法. 昆明理工大学学报:理工版, 2008, 33(3):53-61Miao Jincheng. A method for obtaining the structural features of Chinese characters based on skeletonization and skeleton division. Journal of Kunming University of Science and Technology: Science and Engineering Edition, 2008, 33(3): 53-61(in Chinese) [5] 章夏芬, 刘佳岩. 用爬虫法提取书法笔画. 计算机辅助设计与图形学学报, 2016, 28(02):301-309. doi: 10.3969/j.issn.1003-9775.2016.02.013Zhang Xiafen, Liu Jiayan. Extraction of Calligraphy Strokes by Reptile Method. Journal of Computer-Aided Design and Computer Graphics, 2016, 28(02):301-309.(in Chinese) doi: 10.3969/j.issn.1003-9775.2016.02.013 [6] 程立, 王江晴, 李波, 田微, 朱宗晓, 魏红昀, 刘赛. 基于轮廓的汉字笔画分离算法. 计算机科学, 2013, 40(07):307-311. doi: 10.3969/j.issn.1002-137X.2013.07.069Cheng Li, Wang Jiangqing, Li Bo, Tian Wei, Zhu Zongxiao, Wei Hongwei, Liu Sai. Algorithm for Separation of Chinese Character Strokes Based on Contours. Computer Science, 2013, 40(07): 307-311.(in Chinese) doi: 10.3969/j.issn.1002-137X.2013.07.069 [7] 曹忠升, 苏哲文, 王元珍, 熊鹏. 基于模糊区域检测的手写汉字笔画提取方法. 中国图象图形学报, 2009, 14(11):2341-2348. doi: 10.11834/jig.20091124Cao Zhongsheng, Su Zhewen, Wang Yuanzhen, Xiong Peng. A method for extracting handwritten Chinese characters based on fuzzy region detection. Chinese Journal of Image and Graphics, 2009, 14(11): 2341-2348.(in Chinese) doi: 10.11834/jig.20091124 [8] 陈睿, 唐雁, 邱玉辉. 基于笔画段分割和组合的汉字笔画提取模型. 计算机科学, 2003(10):74-77. doi: 10.3969/j.issn.1002-137X.2003.10.020Chen Rui, Tang Yan, Qiu Yuhui. Extraction model of Chinese strokes based on segmentation and combination of stroke segments. Computer Science, 2003(10):74-77.(in Chinese) doi: 10.3969/j.issn.1002-137X.2003.10.020 [9] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets. In: Proceedings of the 27th Annual Conference on Advances in Neural Information Processing Systems (NeurIPS), Montreal, Canada: NIPS, 2014. 2672−2680 [10] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃. 生成式对抗网络GAN的研究进展与展望. 自动化学报, 2017, 43(03):321-332.Wang Kunfeng, Yan Chao, Duan Yanjie, Lin Yulun, Zheng Xinhu, Wang Feiyue. Research progress and prospects of generatival adversarial network GAN. Acta Automatica Sinica, 2017, 43(03): 321-332.(in Chinese) [11] Isola P, Zhu J Y, Zhou T H, Efros A A. Image-to-image translation with conditional adversarial networks. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA: IEEE, 2017. 1125−1134 [12] Yu J H, Lin Z, Yang J M, Shen X H, Lu Xin, Huang T S. Generative image inpainting with contextual attention. In: Proceedings of the 2018 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, USA: IEEE, 2018. 5505−5514 [13] 张毅锋, 刘袁, 蒋程, 程旭. 用于超分辨率重建的深度网络递进学习方法. 自动化学报, 2020, 46(2): 274−282Zhang Yi-Feng, Liu Yuan, Jiang Cheng, Cheng Xu. A deep network progressive learning method for super-resolution reconstruction. Acta Automatica Sinica, 2020, 46(2): 274−282 [14] Al-Amri S S, Kalyankar N V. Image segmentation by using threshold techniques. arXiv preprint arXiv: 1005.4020, 2010. [15] Kang J, Kim S, Oh T J, Chung M J. Moving region segmentation using sparse motion cue from a moving camera. Intelligent Autonomous Systems 12, 2013, 193: 257−264 [16] Gaur P, Tiwari S. Recognition of 2D barcode images using edge detection and morphological operation. International Journal of Computer Science and Mobile Computing, 2014, 3(4): 1277-1282. [17] 刘松涛, 殷福亮. 基于图割的图像分割方法及其新进展. 自动化学报, 2012, 38(06):911-922. doi: 10.3724/SP.J.1004.2012.00911Liu Songtao, Yin Fuliang. Image segmentation method based on graph cut and its new progress. Acta Automatica Sinica, 2012, 38(06): 911-922.(in Chinese) doi: 10.3724/SP.J.1004.2012.00911 [18] Mirza M, Osindero S. Conditional generative adversarial nets. arXiv preprint arXiv: 1411.1784, 2014. [19] 蒋芸, 谭宁. 基于条件深度卷积生成对抗网络的视网膜血管分割. 自动化学报, 2021, 47(1): 136−147Jiang Yun, Tan Ning. Retinal vascular segmentation based on conditional deep convolution to generatival adversarial network. Acta Automatica Sinica, 2021, 47(1): 136−147 [20] Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation. In: Proceedings of the 2015 International Conference on Medical image computing and computer-assisted intervention. Springer, Cham, 2015. 234−241 [21] 杜雪莹. 中国书法 AI 的研究与应用 [硕士学位论文]. 浙江大学, 中国, 2018.Du Xue-Ying. Research and Application of Chinese Calligraphy AI [Master thesis]. Zhejiang University, China, 2018. [22] Hu M K. Visual pattern recognition by moment invariants. IRE transactions on information theory, 1962, 8(2): 179-187. doi: 10.1109/TIT.1962.1057692 [23] Zhang Junsong, Yu Jinhui, Mao Guohong, Ye Xiuzi. Denoising of Chinese calligraphy tablet images based on run-length statistics and structure characteristic of character strokes. Journal of Zhejiang University-Science A, 2006, 7(7): 1178-1186. doi: 10.1631/jzus.2006.A1178 [24] Xu Songhua, Lau F C M, Cheung W K, et al. Automatic generation of artistic Chinese calligraphy. IEEE Intelligent Systems, 2005, 20(3): 32-39. doi: 10.1109/MIS.2005.41 [25] 张福成. 基于卷积神经网络的书法风格识别的研究 [硕士学位论文]. 西安理工大学, 中国, 2018.Zhang Fu-Cheng. Research on Calligraphy Style Recognition Based on Convolutional Neural Network [Master thesis]. Xi'an University of Technology, China, 2018. 期刊类型引用(2)
1. 余嘉云,李丁宇,徐占洋,王晶弘,林巍. 基于多标签语义分割的硬笔字笔画提取. 计算机系统应用. 2024(09): 174-182 . 百度学术
2. 张子珺,陈劲松,钱夕元. 基于改进条件生成对抗网络的书法字骨架提取. 计算机工程. 2023(10): 272-279 . 百度学术
其他类型引用(5)
-