Image Recognition With Conditional Deep Convolutional Generative Adversarial Networks
-
摘要: 生成对抗网络(Generative adversarial networks,GAN)是目前热门的生成式模型.深度卷积生成对抗网络(Deep convolutional GAN,DCGAN)在传统生成对抗网络的基础上,引入卷积神经网络(Convolutional neural networks,CNN)进行无监督训练;条件生成对抗网络(Conditional GAN,CGAN)在GAN的基础上加上条件扩展为条件模型.结合深度卷积生成对抗网络和条件生成对抗网络的优点,建立条件深度卷积生成对抗网络模型(Conditional-DCGAN,C-DCGAN),利用卷积神经网络强大的特征提取能力,在此基础上加以条件辅助生成样本,将此结构再进行优化改进并用于图像识别中,实验结果表明,该方法能有效提高图像的识别准确率.Abstract: Generative adversarial network (GAN) is a prevalent generative model. Deep convolutional generative adversarial network (DCGAN), based on traditional generative adversarial networks, introduces convolutional neural networks (CNN) into the training for unsupervised learning to improve the effect of generative networks. Conditional generative adversarial network (CGAN) is a conditional model which adds condition extension into GAN. The generative model of conditional-DCGAN (C-DCGAN) is a combination of DCGAN and CGAN, which integrates the feature extraction of convolutional networks and condition auxiliary generative sample for image recognition. The result of simulation experiments shows that this model can improve the accuracy of image recognition.
-
-
表 1 MNIST上各方法准确率对比
Table 1 The recognition accuracy comparison on MNIST
识别方法 预训练 准确率(%) linear classifier (1-layer NN) 去斜 91.60 K-nearest-neighbors, Euclidean (L2) - 95.00 40 PCA+quadratic classifier - 96.70 SVM, Gaussian Kernel - 98.60 Trainable feature extractor+SVMs [no distortions] - 99.17 Convolutional net LeNet-5, [no distortions] - 99.05 Convolutional net LeNet-5, [huge, distortions] huge distortions 99.15 Convolutional net LeNet-5, [distortions] distortions 99.20 CNN 归一化 98.40 C-DCGAN+Softmax - 99.45 表 2 CIFAR-10上各方法准确率对比
Table 2 The recognition accuracy comparison on CIFAR-10
识别方法 准确率(%) 1 Layer K-means 80.6 3 Layer K-means Learned RF 82.0 View Invariant K-means 81.9 Cuda-convnet (CNN) 82.0 DCGAN+L2-SVM 82.8 C-DCGAN+Softmax 84 -
[1] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtmlWang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml [2] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, Courville A, Bengio Y. Generative adversarial nets. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: ACM, 2014. 2672-2680 [3] Ratliff L J, Burden S A, Sastry S S. Characterization and computation of local Nash equilibria in continuous games. In: Proceedings of the 51st Communication, Control, and Computing (Allerton). Monticello, IL, USA: IEEE, 2013. 917-924 [4] Goodfellow I. NIPS 2016 tutorial: generative adversarial networks. arXiv preprint arXiv: 1701.00160, 2016. [5] Li J W, Monroe W, Shi T L, Jean S, Ritter A, Jurafsky D. Adversarial learning for neural dialogue generation. arXiv preprint arXiv: 1701.06547, 2017. [6] Yu L T, Zhang W N, Wang J, Yu Y. SeqGAN: sequence generative adversarial nets with policy gradient. In: Proceedings of the 31st AAAI Conference on Artificial Intelligence. San Francisco, CA, USA: AAAI, 2017. 2852-2858 [7] Hu W W, Tan Y. Generating adversarial malware examples for black-box attacks based on GAN. arXiv preprint arXiv: 1702.05983, 2017. [8] Chidambaram M, Qi Y J. Style transfer generative adversarial networks: learning to play chess differently. arXiv preprint arXiv: 1702.06762, 2017. [9] Mirza M, Osindero S. Conditional generative adversarial nets. arXiv preprint arXiv: 1411.1784, 2014. [10] 常亮, 邓小明, 周明全, 武仲科, 袁野, 杨硕, 王宏安.图像理解中的卷积神经网络.自动化学报, 2016, 42(9):1300-1312 http://www.aas.net.cn/CN/abstract/abstract18919.shtmlChang Liang, Deng Xiao-Ming, Zhou Ming-Quan, Wu Zhong-Ke, Yuan Ye, Yang Shuo, Wang Hong-An. Convolutional neural networks in image understanding. Acta Automatica Sinica, 2016, 42(9):1300-1312 http://www.aas.net.cn/CN/abstract/abstract18919.shtml [11] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv: 1511.06434, 2015. [12] 金连文, 钟卓耀, 杨钊, 杨维信, 谢泽澄, 孙俊.深度学习在手写汉字识别中的应用综述.自动化学报, 2016, 42(8):1125-1141 http://www.aas.net.cn/CN/abstract/abstract18903.shtmlJin Lian-Wen, Zhong Zhuo-Yao, Yang Zhao, Yang Wei-Xin, Xie Ze-Cheng, Sun Jun. Applications of deep learning for handwritten Chinese character recognition:a review. Acta Automatica Sinica, 2016, 42(8):1125-1141 http://www.aas.net.cn/CN/abstract/abstract18903.shtml [13] 陈荣, 曹永锋, 孙洪.基于主动学习和半监督学习的多类图像分类.自动化学报, 2011, 37(8):954-962 http://www.aas.net.cn/CN/abstract/abstract17514.shtmlChen Rong, Cao Yong-Feng, Sun Hong. Multi-class image classification with active learning and semi-supervised learning. Acta Automatica Sinica, 2011, 37(8):954-962 http://www.aas.net.cn/CN/abstract/abstract17514.shtml [14] Arjovsky M, Bottou L. Towards principled methods for training generative adversarial networks. arXiv preprint arXiv: 1701.04862, 2017. [15] Srivastava N, Hinton G, Krizhevsky A, Sutskever I, Salakhutdinov R. Dropout:a simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, 2014, 15(1):1929-1958 https://www.mendeley.com/research-papers/dropout-simple-way-prevent-neural-networks-overfitting/ [16] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. In: Proceedings of the 32nd International Conference on Machine Learning. Lille, France: PMLR, 2015. 448-456 [17] Simon M, Rodner E, Denzler J. ImageNet pre-trained models with batch normalization. arXiv preprint arXiv: 1612.01452, 2016. [18] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: ACM, 2012. 1097-1105 [19] LeCun Y, Cortes C, Burges C J C. The MNIST database of handwritten digits[Online], available: http://yann.lecun.com/exdb/mnist/, July 12, 2016 [20] 许可. 卷积神经网络在图像识别上的应用的研究[硕士学位论文]. 浙江大学, 中国, 2012.Xu Ke. Study of Convolutional Neural Network Applied on Image Recognition[Master thesis], Zhejiang University, China, 2012. [21] Krizhevsky A, Nair V, Hinton G. The CIFAR-10 dataset[Online], available: http://www.cs.toronto.edu/kriz/cifar.html, July 24, 2017 期刊类型引用(39)
1. 杨涛. 基于机器学习的语音增强技术. 电声技术. 2024(03): 39-41 . 百度学术
2. 杨波. 基于卷积神经网络的实时语音分割优化研究. 电声技术. 2024(05): 46-48 . 百度学术
3. 张文安,林安迪,杨旭升,俞立,杨小牛. 融合深度学习的贝叶斯滤波综述. 自动化学报. 2024(08): 1502-1516 . 本站查看
4. 郑盼盼,闫东. 基于深度卷积神经网络的城市噪声识别研究. 电声技术. 2024(09): 41-43 . 百度学术
5. 胡翔,杨洋,蒋长江,潘自强,匡仲琴. 一种基于深度神经网络的电力系统调度控制语音识别模型. 电子器件. 2023(01): 90-95 . 百度学术
6. 高建清,屠彦辉,马峰,付中华. 基于渐进比率掩蔽目标的自适应噪声估计方法. 计算机应用. 2023(04): 1303-1308 . 百度学术
7. 李鑫元,黄鹤鸣. 基于并行卷积循环网络的单通道语音增强系统. 计算机工程与设计. 2023(04): 1181-1188 . 百度学术
8. 沈学利,田桂源,姜彦吉,马琳琳. 基于双阶段Conv-Transformer的时频域语音增强算法. 计算机工程. 2023(06): 123-130 . 百度学术
9. 陈晋音,吴长安,郑海斌,王巍,温浩. 基于通用逆扰动的对抗攻击防御方法. 自动化学报. 2023(10): 2172-2187 . 本站查看
10. 李辉,景浩,严康华,徐良浩. 基于卷积循环网络与非局部模块的语音增强方法. 电子科技. 2022(03): 8-15 . 百度学术
11. 徐秋平,任玲,樊玺炫,王义华. 语音识别技术在轨道交通AFC系统中的应用研究. 现代城市轨道交通. 2022(04): 31-35 . 百度学术
12. 许春冬,徐琅,周滨. 结合优化U-Net和残差神经网络的单通道语音增强算法. 现代电子技术. 2022(09): 35-40 . 百度学术
13. 李文志,屈晓旭. 基于注意力机制和残差卷积网络的语音增强. 舰船电子工程. 2022(05): 96-100 . 百度学术
14. 李辉,景浩,严康华,邹波蓉,侯庆华,武会斌. 基于双通道卷积注意力网络的语音增强方法. 河南理工大学学报(自然科学版). 2022(05): 127-136 . 百度学术
15. 李江和,王玫. 一种用于因果式语音增强的门控循环神经网络. 计算机工程. 2022(11): 77-82 . 百度学术
16. 陈晋音,沈诗婧,苏蒙蒙,郑海斌,熊晖. 车牌识别系统的黑盒对抗攻击. 自动化学报. 2021(01): 121-135 . 本站查看
17. SHI Wenhua,ZHANG Xiongwei,ZOU Xia,SUN Meng,LI Li,REN Zhengbing. Time-frequency mask estimation-based speech enhancement using deep encoder-decoder neural network. Chinese Journal of Acoustics. 2021(01): 141-154 . 必应学术
18. 董宏越,马建芬,张朝霞. 基于时域波形映射-频域谐波损失的语音增强. 计算机工程与设计. 2021(06): 1677-1683 . 百度学术
19. 唐艳凤,林俊强,马振丰. 基于Cauchy模型的行人轮廓提取及目标检测. 计算机测量与控制. 2021(07): 41-45 . 百度学术
20. 王钇翔,吕忆蓝,台文鑫,孙建强,蓝天. 基于区域自适应多尺度卷积的单声道语音增强算法. 计算机应用研究. 2021(11): 3264-3267 . 百度学术
21. 储有亮,李梁. 基于DBLSTM-DCNN的骨导和气导语音转换. 声学技术. 2021(06): 815-821 . 百度学术
22. 连海伦,周健,胡雨婷,郑文明. 利用深度卷积神经网络将耳语转换为正常语音. 声学学报. 2020(01): 137-144 . 百度学术
23. 娄迎曦,袁文浩,彭荣群. 基于准循环神经网络的语音增强方法. 计算机工程. 2020(04): 316-320 . 百度学术
24. 时文华,张雄伟,邹霞,孙蒙,李莉. 联合深度编解码网络和时频掩蔽估计的单通道语音增强. 声学学报. 2020(03): 299-307 . 百度学术
25. 刘晓宇,武鲁,许少华. 一种深层过程神经网络及其在信号分类中的应用. 软件导刊. 2020(03): 60-64 . 百度学术
26. 董兴磊,胡英,黄浩,吾守尔·斯拉木. 基于卷积非负矩阵部分联合分解的强噪声单声道语音分离. 自动化学报. 2020(06): 1200-1209 . 本站查看
27. 刘虹,袁三男. 基于多尺度残差深度卷积神经网络的语音识别. 计算机应用与软件. 2020(11): 275-279 . 百度学术
28. 许春冬,徐琅,周滨,凌贤鹏. 单通道语音增强技术的研究现状与发展趋势. 江西理工大学学报. 2020(05): 55-64 . 百度学术
29. 袁文浩,娄迎曦,夏斌,孙文珠. 基于卷积门控循环神经网络的语音增强方法. 华中科技大学学报(自然科学版). 2019(04): 13-18 . 百度学术
30. 袁文浩,娄迎曦,梁春燕,王志强. 感知联合优化的深度神经网络语音增强方法. 西安电子科技大学学报. 2019(02): 89-94 . 百度学术
31. 姚红革,沈新霞,李宇,喻钧,雷松泽. 多模态融合的深度学习脑肿瘤检测方法. 光子学报. 2019(07): 165-176 . 百度学术
32. 袁文浩,梁春燕,夏斌. 基于深度神经网络的因果形式语音增强模型. 计算机工程. 2019(08): 255-259 . 百度学术
33. 韦博轩,张冀聪. EEG及MEG痫样棘波检测算法研究现状. 中国医疗设备. 2019(11): 30-33 . 百度学术
34. 黄志东. 鲁棒性语音识别技术研究综述. 信息通信. 2019(11): 20-22 . 百度学术
35. 陈郑平,米为民,林静怀,王恒,王昊,董根源. 电网调控操作智能助手方案探讨. 电力系统自动化. 2019(22): 173-179+186 . 百度学术
36. 任晓霞. 基于Dropout深度卷积神经网络的ST段波形分类算法. 传感技术学报. 2018(08): 1217-1222 . 百度学术
37. 刘亚,王静,田新诚. 基于C#和Matlab混合编程的轴承故障诊断系统. 计算机应用. 2018(S2): 236-238+242 . 百度学术
38. 罗秀芝,马本学,李小霞,胡洋洋,王文霞,雷声渊. 基于卷积神经网络干制哈密大枣纹理分级. 新疆农业科学. 2018(12): 2220-2227 . 百度学术
39. 吴耀春,赵荣珍,靳伍银,何天经,武杰. 利用DCNN融合多传感器特征的故障诊断方法. 振动.测试与诊断. 2021(02): 362-369+416 . 百度学术
其他类型引用(39)
-