2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

一种能量函数意义下的生成式对抗网络

王功明 乔俊飞 王磊

王功明, 乔俊飞, 王磊. 一种能量函数意义下的生成式对抗网络. 自动化学报, 2018, 44(5): 793-803. doi: 10.16383/j.aas.2018.c170600
引用本文: 王功明, 乔俊飞, 王磊. 一种能量函数意义下的生成式对抗网络. 自动化学报, 2018, 44(5): 793-803. doi: 10.16383/j.aas.2018.c170600
WANG Gong-Ming, QIAO Jun-Fei, WANG Lei. A Generative Adversarial Network Based on Energy Function. ACTA AUTOMATICA SINICA, 2018, 44(5): 793-803. doi: 10.16383/j.aas.2018.c170600
Citation: WANG Gong-Ming, QIAO Jun-Fei, WANG Lei. A Generative Adversarial Network Based on Energy Function. ACTA AUTOMATICA SINICA, 2018, 44(5): 793-803. doi: 10.16383/j.aas.2018.c170600

一种能量函数意义下的生成式对抗网络

doi: 10.16383/j.aas.2018.c170600
基金项目: 

国家自然科学基金 61533002

详细信息
    作者简介:

    王功明  北京工业大学信息学部博士研究生.主要研究方向为深度学习, 神经网络结构设计与优化.E-mail:xiaowangqsd@163.com

    王磊  北京工业大学信息学部博士研究生.主要研究方向为神经网络结构设计与优化.E-mail:jade wanglei@163.com

    通讯作者:

    乔俊飞  北京工业大学信息学部教授.主要研究方向为污水处理过程智能控制, 神经网络结构设计与优化.本文通信作者.E-mail:junfeq@bjut.edu.cn

A Generative Adversarial Network Based on Energy Function

Funds: 

National Natural Science Foundation of China 61533002

More Information
    Author Bio:

     Ph. D. candidate at the Faculty of Information Technology, Beijing University of Technology. His research interest covers deep learning, structure design and optimization of neural networks

     Ph. D. candidate at the Faculty of Information Technology, Beijing University of Technology. His research interest covers structure design and optimization of neural networks

    Corresponding author: QIAO Jun-Fei  Professor at the Faculty of Information Technology, Beijing University of Technology. His research interest covers intelligent control of wastewater treatment process, structure design and optimization of neural networks. Corresponding author of this paper
  • 摘要: 生成式对抗网络(Generative adversarial network,GAN)是目前人工智能领域的一个研究热点,引起了众多学者的关注.针对现有GAN生成模型效率低下和判别模型的梯度消失问题,本文提出一种基于重构误差的能量函数意义下的生成式对抗网络模型(Energy reconstruction error GAN,E-REGAN).首先,将自适应深度信念网络(Adaptive deep belief network,ADBN)作为生成模型,来快速学习给定样本数据的概率分布并进一步生成相似的样本数据.其次,将自适应深度自编码器(Adaptive deep autoencoder,ADAE)的重构误差(Reconstruction error,RE)作为一个表征判别模型性能的能量函数,能量越小表示GAN学习优化过程越趋近纳什均衡的平衡点,否则反之.同时,通过反推法给出了E-REGAN的稳定性分析.最后在MNIST和CIFAR-10标准数据集上的实验结果表明,相较于现有的类似模型,E-REGAN在学习速度和数据生成能力两方面均有较大提高.
  • 生成式对抗网络(Generative adversarial network, GAN)是由Goodfellow等[1]于2014年根据对抗竞争思想提出来的一种优化生成模型. GAN要解决的问题是如何从训练样本中学习到概率分布特征, 并进一步生成新样本数据, 训练样本是图片即生成新图片, 训练样本是文字即输出新文字. GAN在学习算法上受博弈论中的零和博弈(参与博弈的各方在严格竞争下, 一方的收益必然意味着另一方的损失, 博弈各方的收益和损失相加总和永远为零, 双方不存在合作的可能)的启发, 网络由一个生成模型(Generative model)和一个判别模型(Discriminative model)构成.生成模型的训练目的是试图生成与训练样本具有一致概率分布的新样本, 并作为判别模型的输入; 判别模型的训练目的是判断生成模型生成的样本是否是真实的训练样本[2-4]. GAN的优化和训练过程是一个极小极大的博弈问题, 最终的目的是判别模型无法分辨出生成样本的真伪, 即极大化判别模型的判断能力, 判断为伪造的概率[5-6].

    然而, GAN的优化和训练过程中也存在一些缺陷.一方面, 基于传统深度学习方法的生成模型无法快速地学习并生成样本数据, 即学习效率低、算法收敛慢.另一方面基于梯度下降算法的训练存在梯度消失的问题, 即当真实样本和生成样本之间具有极小重叠甚至没有重叠时, 其目标函数的Jensen-Shannon散度是一个常数, 导致优化目标不连续[1, 7-8].为了解决以上问题, Arjovsky等[9]提出了一种Wasserstein GAN (W-GAN)模型, 利用Earth-Mover代替Jensen-Shannon散度来表征真实样本和生成样本分布之间的差异, 用一个评价函数来对应GAN的判别模型, 而且评价函数需要建立在Lipschitz连续性假设上.尽管W-GAN避开了优化目标不连续的障碍, 但是其存在的最大问题是模型的收敛性无法保证. Donahue等[10]提出一种Bi-GAN模型, 将复杂数据映射到隐变量空间, 从而实现特征学习, 并且引入了一个解码器用于将真实数据映射到隐变量空间, 成功地实现了优化问题的等效转移.尽管能够部分地解决问题, 但是Bi-GAN的训练耗时相对较长.

    LeCun等[11]提出了能量模型的概念, 并将待优化参数的每一种取值对应于一个能量取值, 通过最小化能量来获取对应的参数取值.这种能量模型概念的提出有助于提高GAN的学习效率, 因为该方法无需在损失函数中加入正则化项也能较精确地完成训练目标.同时, 能量函数模型无需计算复杂的配分函数(Partition functions).当传统浅层神经网络用作判别模型时, 能量函数的选择相对简单, 即将实际输出和期望输出的差值作为能量函数.然而, 当判别模型用深度学习模型表述时, 由于深度学习模型的训练方式大都采用无监督学习[12], 所以能量函数的选取及其稳定性分析比较困难.

    针对以上问题, 本文提出一种基于重构误差的能量函数的GAN模型(Energy reconstruction error GAN, E-REGAN).生成模型由基于深度学习模型的自适应深度信念网络(Adaptive deep belief network, ADBN)来实现, 判别模型由自适应深度自编码器(Adaptive deep auto-encoder, ADAE)来实现.其中, ADBN的输入是真实样本$x$和噪音$z$的组合, 自适应学习率能够加快生成模型和判别模型的学习速度[13-15], ADAE的重构误差作为能量函数.在MNIST和CIFAR-10标准数据集上的实验结果表明, 与现有的几种类似GAN模型相比, E-REDBN模型在学习速度和数据生成能力两方面均有较大提高.

    本文结构安排如下:第1节介绍介绍生成式对抗网络; 第2节介绍E-REGAN模型, 包括学习过程和网络性能分析; 第3节给出实验研究; 第4节对本文工作进行总结.

    GAN学习原理启发于博弈论中的二人零和博弈(Two-player game). GAN模型中的博弈双方分别由生成式模型和判别式模型来实现.生成模型$G$用来学习已有样本的概率分布, 并试图生成与已有样本一致分布的数据, 通常用到的方法的是利用服从某一分布(高斯分布或均匀分布)的噪声$z$生成一个类似真实训练数据的样本, 越逼近真实样本越好.判别模型$D$是一个二分类器, 估计一个样本来自于训练数据(而非生成数据)的概率.如果样本来自于真实的训练数据, $D$输出大概率; 否则, $D$输出小概率. GAN的训练过程即不断的调整$G$和$D$, 直到$D$不能把生成的样本从真实样本中区分出来为止.在调整过程中, 需要做到: 1)优化$G$, 使它尽可能地生成让$D$无法区分的样本; 2)优化$D$, 使它尽可能地区分出生成的样本.当$D$无法区分出生成的样本时, 可以认为$G$达到最优状态.

    假定已有的样本数据为$x$, 生成的样本数据为$G\left( z \right)$, 那么生成模型$G$和判别模型$D$的损失函数定义如下:

    $ F_G \left( z \right)=D\left( {G\left( z \right)} \right) $

    (1)

    $ F_D \left( {x, z} \right)=D\left( x \right) + \max\nolimits^{\ast }\left( {\alpha -D\left( {G\left( z \right)} \right)} \right) $

    (2)

    其中, , $\alpha $是一个正实数.

    由式(1)和式(2)可知, 最小化$F_G \left( z \right)$就是最大化中的第二项, 即GA N的优化过程就是一个极小极大化问题.

    $ \begin{align} &\mathop {\min}\limits_G \mathop {\max}\limits_D \left\{ {L\left( {G, D} \right)= {\rm E}_{x\in P_{\rm data} \left( x \right)} \left( {\log D\left( x \right)} \right)} \right.+\nonumber \\ &\qquad \left. {{\rm E}_{z\in P_z \left( z \right)} \left( {\log \left( {\alpha -D\left( {G\left( z \right)} \right)} \right)} \right)} \right\} \end{align} $

    (3)

    其中, $P_{\rm data} \left( x \right)$和分别表示真实样本数据的概率分布和初始噪音数据的概率分布(可视为一种先验分布), E$\left( \cdot \right)$表示计算期望值.

    假设一个预测问题:一个概率模型利用观测到的输入数据$X$来预测输出数据$Y$.要想完成此任务需要学习$X$到$Y$的映射规律, 并求取能够使得$P\left( Y / X \right)$最大化的映射权值参数$W$.当给定输入数据$X$和映射权值参数$W$时, 必然会得到一个对应的输出$Y$, 定义$E\left( {W, Y, X} \right)$为此时概率模型的能量.在有监督学习框架下, 这种基于能量模型的学习原理是对于训练集中每一个输入样本$X$, 输入输出组合对应的能量当且仅当$Y$是期望输出时, 取得最小值; $Y$越偏离期望输出, 能量值越大.

    E-REGAN模型由自适应深度信念网络(ADBN)和自适应深度自编码器(ADAE)构成, ADBN和ADAE分别充当生成模型$G$和判别模型$D$. ADBN和ADAE的训练交替进行展开, 先训练生成模型$G$, 优化判别模型$D$, 看是否满足能量函数指标要求; 然后固定判别器$D$, 继续训练生成模型$G$, 使得$D$的判别准确率最小化.当且仅当$P_{\rm data} =P_g $ (纳什均衡)[1]时, 达到全局最优解. E-REGAN的结构原理如图 1所示.

    图 1  E-REGAN结构原理图
    Fig. 1  Structure and scheme of E-REGAN
    2.2.1   自适应深度信念网络

    ADBN由若干个顺序堆叠的自适应受限玻尔兹曼机(Adaptive restricted Boltzmann machine, ARBM)和一个输出层构成, 前一个ARBM的输出作为后一个ARBM的输入. ARBM只有两层神经元, 一层为可视层, 由显性神经元组成, 用于输入训练数据; 另一层为隐含层, 由隐性神经元组成, 用于提取训练数据的特征. ARBM的结构如图 2所示, 其中可视层有$m$个节点, 隐含层有$n$个节点, $W$是连接权值矩阵.

    图 2  ARBM结构图
    Fig. 2  Structure of ARBM

    给定模型参数$\mathit{\boldsymbol{\theta}} =\left\{ W, \mathit{\boldsymbol{a}}, \mathit{\boldsymbol{b}} \right\}$, 那么可视层和隐含层的联合概率分布用能量函数$E$定义为

    $ P(\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}}; \mathit{\boldsymbol{\theta}})=\frac{1}{Z}{\rm e}^{-E(\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}};\mathit{\boldsymbol{\theta}})} $

    (4)

    其中, $Z=\sum\nolimits_{\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}}} {{\rm e}^{-E(\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}};\mathit{\boldsymbol{\theta}} )}} $是归一化因子, 模型关于$\mathit{\boldsymbol{v}}$的边缘分布为

    $ P(\mathit{\boldsymbol{v}};\mathit{\boldsymbol{\theta}})=\frac{1}{Z}\sum\limits_{\mathit{\boldsymbol{h}}} {{\rm e}^{-E(\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}};\mathit{\boldsymbol{\theta}} )}} $

    (5)

    对于一个伯努利(可视层)分布--伯努利(隐含层)分布的RBM, 能量函数定义为

    $ \begin{align} E(\mathit{\boldsymbol{v}}, \mathit{\boldsymbol{h}}; \mathit{\boldsymbol{\theta}})=&-\sum\limits_{i=1}^m a_i v_i -\sum\limits_{j=1}^n b_j h_j- \nonumber\\ &\sum\limits_{i=1}^m {\sum\limits_{j=1}^n {v_i w_{ij} h_j } } \end{align} $

    (6)

    其中, $w_{ij} $是RBM的连接权值, $a_i $和分别表示可视层节点和隐含层节点的偏置.那么条件概率分布可表示为

    $ P\left(h_j ={1}/{\mathit{\boldsymbol{v}}}; {\mathit{\boldsymbol{\theta}}} \right)=\sigma \left( {b_j +\sum\limits_{i=1}^m {v_i w_{ij} } } \right) $

    (7)

    $ P\left(v_i ={1}/{ \mathit{\boldsymbol{v}}}; {\mathit{\boldsymbol{\theta}}}\right)=\sigma \left( {a_i +\sum\limits_{j=1}^n {w_{ij} h_j } } \right) $

    (8)

    其中, $\sigma \left( \cdot \right)$是一个Sigmoid函数.

    可视层和隐含层是二值状态, 判断其二值概率取值的标准常通过设定一个阈值来实现[16], 以隐含层为例, 可表示为

    $ \begin{align} h_j =\begin{cases} 1, & \mbox{若}~ {p\left(h_j ={1}/{\mathit{\boldsymbol{v}}}\right)\geq\delta } \\[2mm] 0, & \mbox{若}~ {p\left(h_j ={1}/{\mathit{\boldsymbol{v}}}\right)<\delta } \end{cases} \end{align} $

    (9)

    其中, $\delta $为一个介于0.5 $\sim$ 1的常数.

    通过计算对数似然函数log$P$$(\mathit{\boldsymbol{v}}; \mathit{\boldsymbol{h}})$的梯度, 并根据ARBM训练过程连续两次迭代后的参数更新方向的异同[13, 15]设计自适应学习率$\eta $的方法, 可以得到ARBM权值更新公式为

    $ w_{ij} \left( {\tau +1} \right)=w_{ij} \left( \tau \right)+\eta \Delta w_{ij} $

    (10)

    $ \Delta w_{ij} =E_{\rm data} (v_i h_j )-E_{\rm model} (v_i h_j) $

    (11)

    $ \begin{align} \eta =\begin{cases} u\eta, & {\left( {\Delta w_{ij} } \right)^{(t)}\times \left( {\Delta w_{ij} } \right)^{(t+1)}> 0} \\ v\eta, & {\left( {\Delta w_{ij} } \right)^{(t)}\times \left( {\Delta w_{ij} } \right)^{(t+1)}<0} \\ \end{cases} \end{align} $

    (12)

    $ \left( {\Delta w_{ij} } \right)^{(t)}=v_i^{(t)} h_j^{(t)} -v_i^{(t+1)} h_j^{(t+1)} $

    (13)

    $ \left( {\Delta w_{ij} } \right)^{(t+1)}=v_i^{(t+1)} h_j^{(t+1)} -v_i^{(t+2)} h_j^{(t+2)} $

    (14)

    其中, $\tau $和$\eta $分别表示ARBM的迭代次数和学习率, 和分别表示训练集中观测数据的期望和模型确定的分布上的期望, $t$是吉布斯采样步数[17].通常情况下, 可由吉布斯采样近似得到[17]. ARBM的这种训练称为自适应对比散度(Adaptive contrastive divergence, ACD)算法[13, 15, 18]. $u$和$v$分别表示学习率增大系数和减小系数, 且$0<v<1<u$.学习率自适应变化的原理是, 当连续两次迭代后的参数更新方向(变化量的正负)相同时, 学习率会加大, 相反则减小.

    堆叠的ARBM训练结束后, 再利用BP算法从输出层开始由上到下对整个ADBN的权值进行微调(Fine-tuning)[18].

    2.2.2   自适应深度自编码器

    ADAE由若干个ARBM顺序堆叠而成, 是一种用于对数据进行无监督特征提取和原始数据复原的深度模型. ADAE与ADBN的区别在于ADAE没有监督信号层[19-20], 其结构如图 3所示.可用ACD算法快速训练ADAE并实现判别模型对真实样本和生成样本的正确判别.由于ADAE是一种无监督学习模型, 所以基于逼近误差的能量函数模型选取方法不再适用.在此, 开创性地将ADAE的重构误差(Reconstruction error, RE)作为能量函数模型, RE定义如下所示:

    $ RE=\frac{1}{N_s \times N_d }\sum\limits_{i=1}^{N_s } {\sum\limits_{j=1}^{N_d } {\left| {v_{ij} -\hat {v}_{ij} } \right|} } $

    (15)
    图 3  ADAE结构原理图
    Fig. 3  Structure and scheme of ADAE

    其中, $N_s $和$N_d $分别表示样本数据个数和样本数据维数; 和分别表示原始输入样本集的数据点值和输入样本集的重构数据点值.

    用作判别模型时, ADAE首先对真实样本数据进行特征提取, 经过快速有效地编码, 得到对真实样本数据的抽象特征表述$F$并保存下来; 然后对抽象表述进行复原处理(解码), 得到真实样本数据的重构信息.在此过程中, 将重构误差作为一种能量函数, 能量函数越小, 对应的判别模型学习的越充分, 理想情况下能量函数为0.但在实际应用中, 考虑到判别模型的训练成本问题, 经常设置一个能量函数指数$\lambda $ $(0<\lambda <1)$.

    训练结束后, 将生成模型的生成数据作为ADAE的输入, 得到对生成数据的抽象特征表述${F}'$.当$F$和${F}'$的绝对误差小于或等于能量函数阈值$\gamma$ , 需要稳定判别模型, 继续训练生成模型, 然后再以同样的原理利用判别模型检验生成模型的生成能力.由于以能量函数阈值和能量函数指数作为评价指标的优化问题不需要求梯度校正信号, 所以只需通过判断是否满足指标要求来做更进一步的迭代优化即可. E-REGAN的成功之处在于, 只要满足充足的训练迭代步数, ADBN和ADAE将无限接近理想状态[21-23].在此, 自适应学习率对加速训练过程起着重要作用.

    GAN的基本思想源自博弈论的二人零和博弈, 由一个生成模型$G$和一个判别模型$D$构成, 通过对抗学习的方式来迭代训练, 直至逼近纳什均衡.因此, E-REGAN的稳定性主要取决于$G$和$D$在迭代训练过程中能否达到纳什均衡.

    假设$P_G $是生成样本$G\left( z \right)$的概率密度分布, 定义纳什均衡函数为

    $ f\left( {G, D} \right)=\int_x {\int_z {F_D \left( {x, z} \right)P_{\rm data} \left( x \right)P_z \left( z \right){\rm{d}} x{\rm{d}} z} } $

    (16)

    $ g\left( {G, D} \right)=\int_x {\int_z {F_G \left( {x\mbox{+}z} \right)P_{\rm data} \left( x \right)P_z \left( z \right){\rm{d}} x{\rm{d}} z} } $

    (17)

    训练判别模型$D$来最小化$f$, 训练生成模型$G$来最小化$g$, 那么纳什均衡的平衡点即为$G$和$D$的最优组合对($G^{\ast }$, , 且满足

    $ f\left( {G^\ast, D^\ast } \right)\le f\left( {G^\ast, D} \right), \ \forall D $

    (18)

    $ g\left( {G^\ast, D^\ast } \right)\le f\left( {G, D^\ast } \right), \ \forall G $

    (19)

    定理1. 如果($G^{\ast }$, 是一个纳什均衡的平衡点, 那么当时, 满足$f\left( {G^\ast, D^\ast } \right) = \alpha $.

    证明. 对式(16)作展开处理

    $ \begin{align} f\left( {G^\ast, D} \right) = &\int_x {P_{\rm data} \left( x \right)} D\left( x \right){\rm{d}} x + \nonumber\\ &\int_z {P\left( z \right)} \max\nolimits^{\ast }\left( {\alpha -D\left( {G\left( z \right)} \right)} \right){\rm{d}} z =\nonumber\\ &\int_x {\left( {P_{\rm data} \left( x \right)D\left( x \right)} \right.} +\\ & \left. {P_{G^\ast } \left( x \right) \max\nolimits^{\ast }\left( {\alpha -D\left( {G\left( z \right)} \right)} \right)} \right){\rm{d}} x \end{align} $

    (20)

    现给出式(2)的一般形式如下所示:

    $ \psi \left( D \right)=AD+B\max\nolimits^\ast \left( {\alpha -D} \right) $

    (21)

    其中, $A, B\ge 0$, $0\le D<\infty $.那么的导数为

    $ \begin{align} {\psi }'\left( D \right) = \begin{cases} {A-B}, & {0\le D<\alpha } \\ A, & {\alpha <D<\infty } \end{cases} \end{align} $

    (22)

    由式(22)可知, 当$A<B$时, $\psi ( D )$在区间$[0, \alpha )$上单调递减, 在区间$(\alpha, \infty )$上单调递增.由于$\psi ( D )$是连续函数, 所以$\psi ( D )$的最小值即为$ \alpha $.当$A$ $\ge$ $B$时, 在区间$[0, \infty )$上单调递增, 此时$\psi ( D )$的最小值为0, 即$\psi ( D )$在$[0, \infty )$上是收敛的.

    由于$\psi ( D )$在$[0, \infty )$上是收敛的, 所以存在以下两种情况:

    1) 如果$D^{\ast }( x )>\alpha $且$\hat {D}( x ) = \min( {D^{\ast }( x ), \alpha } )$, 那么不难得到$f( {G^{\ast }, \hat {D}} )<f( {G^{\ast }, D^\ast } )$, 这与式(17)相违背.

    2) 用$\psi ( D )$的最小值代替$D^{\ast }( x )$可得$f(G^{\ast }, \hat {D})$的上界[24], 即

    $ f\left( {G^{\ast }, \hat {D}} \right)\le \alpha $

    (23)

    根据式(19)可得

    $ \int_x {P_{G^\ast } \left( x \right)D^\ast \left( x \right)} {\rm{d}} x\le \int_x {P_{\rm data} \left( x \right)} D^\ast \left( x \right){\rm{d}} x $

    (24)

    联立式(20)和式(24)可得

    $ \begin{align} & \int_x {P_{G^\ast } \left( x \right)D^\ast \left( x \right)} {\rm{d}} x +\nonumber\\ &\qquad \int_x {P_{G^\ast } \left( x \right)\max^\ast \left( {\alpha -D^\ast \left( x \right)} \right)} {\rm{d}} x \le f\left( {G^\ast, D^\ast } \right) \end{align} $

    (25)

    由于$D^\ast ( x )\le \alpha $, 所以有

    $ \alpha \le f\left( {G^\ast, D^\ast } \right) $

    (26)

    通过式(23)和式(26)可知, , 即.

    分析E-REGAN模型结构可知, ADBN具有可靠的稳定性[13, 15], 所以生成模型$G$稳定.接下来讨论判别模型$D$的稳定性问题, 即重构误差RE的收敛性问题.

    RE是对ADAE的重构输入数据和原始输入数据计算绝对误差的方法, 计算过程中需要提前知道每一个隐含层(ARBM)的状态(中间变量).所以, 要证明RE的收敛性问题必须保证ADAE中间变量的有界性.不失一般性, 将式(7)和式(8)中激活函数的上下渐近线设为$A_H $和$A_L $, 那么对于任何一个ARBM, $s_i^0 $和分别表示可视层的输入状态和经过$t$次采样得到的重构状态, 和$s_j^t $分别表示由得到的隐含层状态和对模型经过$t$次采样得到的隐含层状态.那么经过$t$次采样后有

    $ s_i^0 \in [A_L, A_H ] $

    (27)

    $ s_j^0 =A_L +(A_H -A_L )\sigma \left( {b_j +\sum\limits_{i=1}^m {s_i^0 w_{ij} } } \right) $

    (28)

    $ s_i^t =A_L +(A_H -A_L )\sigma \left( {a_i +\sum\limits_{j=1}^n {w_{ij} } s_j^{t-1} } \right) $

    (29)

    $ s_j^t =A_L +(A_H -A_L )\sigma \left( {b_j +\sum\limits_{i=1}^m {s_i^t w_{ij} } } \right) $

    (30)

    由式(27)$ \sim $(30)可以看出, 在每个ARBM的吉布斯采样过程中, 网络输出与采样过程的中间状态有关.

    定理2. 假设$s_j^0 $, $s_i^t $和分别是ARBM的输入状态、中间状态和输出状态, 那么ADAE中间变量有界的充分必要条件是所有状态满足$s_j^0 $, $s_i^t $, $s_j^t$ $\in$ $[A_L, A_H]$.

    证明. 由于组成ADAE的ARBM是顺序叠加的, 所以当时, 由式(27) $\sim$ (30)可知, 最后一个ARBM的隐含层在经过$t$次吉布斯采样后, 状态范围必定为, 即$s_j^t \in [A_L, A_H]$.所以满足整个ADAE在训练过程中输入输出有界性, 网络稳定.充分性得证.

    若ADAE稳定, 则每个ARBM的可视层和隐含层状态均满足输入输出有界性.由于Sigmoid函数具有单调递增性, 且随着二值神经元中取1的神经元个数不断增加.可得不等式

    $ s_j^t >s_i^t $

    (31)

    $ s_i^t >s_j^0 $

    (32)

    即中间状态满足

    $ s_j^0, s_i^t, s_j^t \in [A_L, A_H] $

    (33)

    必要性得证.

    通过以上分析及对两个定理的证明可知, E-REGAN具有可靠的稳定性.

    为了验证所提E-REGAN模型的对抗学习能力, 分别在MNIST数据集和CIFAR-10数据集上进行测试.为了排除无关因素对实验结果的影响, 客观反映E-REGAN的性能, 仿真实验的编译软件和计算机运行环境设置如下:编译软件为MATLAB 8.2版本, 计算机处理器为Intel(R) Core(TM) i7-4790, 主频为3.6 GHz, RAM为8 GB.

    MNIST数据集包含60 000张训练数字图像和10 000张测试数字图像, 每一个数字均用多种手写体显示.每张图像均是一个0 $\sim$ 9的手写数字, 大小为$28 \times 28$的像素规格.随着模式识别和数据挖掘技术的不断发展, 很多理论方法应用到该数据库中.该数据库被视为一种理想的、标准的测试新方法的经典对象[25-26].取100张图像数据和随机噪音的组合作为训练样本对生成模型进行训练, 首先对E-REGAN的生成模型ADBN进行训练, 然后对判别模型ADAE进行编码解码训练.其中ADBN结构为781-80-80-781, ADAE结构为781-80-80-80-80. E-REGAN生成模型ADBN的固有学习参数设置如表 1所示.

    表 1  MNIST数据集测试中ADBN的固有参数
    Table 1  Fixed parameters of ADBN on MNIST dataset
    $\eta_0$ $\tau$ $t$ $u$ $v$ $\lambda$ $\gamma $
    0.1 200 2 1.5 0.7 0.02 0.01
    $ \eta _0 $表示学习率的初始值
    下载: 导出CSV 
    | 显示表格

    图 4是生成模型ADBN最后一个阶段的训练均方根误差(Root mean square error, RMSE).从图 4可以看出, 尽管上一阶段ADBN的生成样本依然被判别模型从真实样本中识别出来, 但是ADBN上一阶段的训练RMSE已经很小, 收敛到0.005.最后一个阶段训练RMSE收敛到0.000376, 训练速度非常快, 在前100次迭代中已接近收敛. 图 5是判别模型的能量函数变化曲线.其中, SS-E-REGAN (Single sample E-REGAN)是指生成模型的输入只有真实样本$x$的E-REGAN, SN-E-REGAN (Single noise E-REGAN)是指生成模型的输入只有噪音$z$的E-REGAN.从图 5可以看出, 缺少噪音输入的生成模型对应的E-REGAN鲁棒性差, 缺少真实样本输入的生成模型对应的E-REGAN精度不高; 相比之下, 同时将噪音和真实样本作为生成模型输入的E-REGAN具有较强的鲁棒性, 对抗学习性能优越.同时, ADAE中的自适应学习率也加速了能量函数的收敛速度.

    图 4  生成模型ADBN的训练RMSE
    Fig. 4  RMSE curve of generative model ADBN
    图 5  E-REGAN的能量函数变化曲线
    Fig. 5  Energy function curves of E-REGAN

    图 6是E-REGAN生成的手写数字样本, 图 7是SS-E-REGAN生成的样本图像, 图 8是SN-E-REGAN生成样本图像, 图 9是利用基于梯度校正信号且无能量函数模型的GAN (Gradient-GAN, g-GAN)的生成样本图像, 图 10是Loss-sensitive GAN (LS-GAN)[27]的生成样本图像.可以看出, 在经过充分的对抗学习过程后, E-REGAN生成的样本最清晰, 与真实的手写数字图像几乎完全一致, 至少用肉眼无法辨别出真伪.

    图 6  E-REGAN生成的样本图像
    Fig. 6  Sample images generated by E-REGAN
    图 7  SS-E-REGAN生成的样本图像
    Fig. 7  Sample images generated by SS-E-REGAN
    图 8  SN-E-REGAN生成的样本图像
    Fig. 8  Sample images generated by SN-E-REGAN
    图 9  g-GAN生成的样本图像
    Fig. 9  Sample images generated by g-GAN
    图 10  LS-GAN生成的样本图像
    Fig. 10  Sample images generated by LS-GAN

    为了更客观地反映E-REGAN优越的学习性能和对抗生成能力, 将E-REGAN与其他类似模型进行比较, 结果来自20次独立实验, 如表 2所示.其中, LS-GAN是Loss-sensitive GAN[27]; LR-GAN是Layered-recursive GAN[28]; Bayesian GAN[29]是一种基于贝叶斯准则的GAN.在对比实验中, 利用分类正确率作为衡量E-REGAN在MNIST数据集上生成样本(100个图像)的优劣指标(所有生成样本图像由同一个RBM分类器来分类).

    表 2  MNIST数据集实验结果对比
    Table 2  Result comparison on MNIST dataset
    方法 能量函数(RE) 分类正确率(%) 平均运行时间(s)
    均值 方差
    E-REGAN 0.0037 0.0790 92 58.62
    SS-E-REGAN 0.0405 2.0618 84 56.94
    SN-E-REGAN 0.1873 2.7724 82 60.31
    标准GAN 79 87.23
    LS-GAN[27] 87 74.61
    LR-GAN[28] 90 71.36
    Bayesian GAN[29] 85 77.48
    粗体表示最优值.
    下载: 导出CSV 
    | 显示表格

    表 2可知, E-REGAN具有最好的对抗学习能力和样本生成能力以及较好的鲁棒性能, 同时具有较快的网络学习速度.

    CIFAR-10数据集包含10类60 000个$32\times 32$的彩色图像, 其中有50 000个训练图像和10 000个测试图像.该数据集分为5个训练块和1个测试块, 每个块有10 000个图像.随着深度学习技术的不断发展, 基于深度神经网络的识别方法不断涌现, CIFAR-10数据库目前已成为最具说服力的测试新方法的数据集之一[30-34].取100张图像数据和随机噪音的组合作为训练样本对生成模型进行训练, 首先对E-REGAN的生成模型ADBN进行训练, 然后对E-REGAN的判别模型ADAE进行编码解码训练.其中ADBN结构: 1 024-100-100-100- 1 024, ADAE结构: 1 024-100-100-100-100-100. E-REGAN生成模型ADBN的固有学习参数设置如表 3所示.

    表 3  CIFAR-10数据集测试中ADBN的固有参数
    Table 3  Fixed parameters of ADBN on CIFAR-10 dataset
    $\eta_0$ $\tau$ $t$ $u$ $v$ $\lambda$ $\gamma $
    0.1 300 2 1.7 0.5 0.05 0.02
    $ \eta _0 $表示学习率的初始值.
    下载: 导出CSV 
    | 显示表格

    图 11是生成模型ADBN在最后一个训练阶段的RMSE变化曲线.可以看出, 尽管上一个对抗迭代过程中ADBN的生成样本被判别模型从真实样本中识别出来, 但是ADBN的训练RMSE已经很小, 收敛到0.0052.最后一个对抗迭代过程训练RMSE收敛到0.00032, 训练速度非常快, 在前16次迭代中已接近收敛. 图 12是判别模型的能量函数变化曲线, 可以看出E-REGAN的能量函数值在前50迭代中已经接近收敛, 且满足能量函数阈值要求, 此时生成模型的性能达到相对理想的状态. 图 13是E-REGAN生成的CIFAR-10数据样本, 图 14是Loss-sensitive GAN (LS-GAN)[27]生成的CIFAR-10数据样本, 图 15是Layered-recursive GAN (LR-GAN)[28]生成的CIFAR-10数据样本, 图 16是Bayesian GAN[29]生成的CIFAR-10数据样本.可以看出, 在经过充分的对抗学习过程后, E-REGAN生成的样本图像与真实的CIFAR-10数据集中的图像最接近, 至少用肉眼无法辨别出真伪.

    图 11  生成模型ADBN的训练RMSE
    Fig. 11  RMSE curve of generative model ADBN
    图 12  E-REGAN的能量函数变化曲线
    Fig. 12  Energy function curves of E-REGAN
    图 13  E-REGAN生成的样本图像
    Fig. 13  Sample images generated by E-REGAN
    图 14  LS-GAN生成的样本图像
    Fig. 14  Sample images generated by LS-GAN
    图 15  LR-GAN生成的样本图像
    Fig. 15  Sample images generated by LR-GAN
    图 16  Bayesian GAN生成的样本图像
    Fig. 16  Sample images generated by Bayesian

    为了更为客观地反映E-REGAN优越的学习性能和对抗生成能力, 将E-REGAN与其他类似模型同时在CIFAR-10数据集上进行试验验证并作比较.相应结果来自20次独立实验, 如表 4所示.在对比实验中, 利用测试误差(Test-error)作为衡量E-REGAN在CIFAR-10数据集上生成样本的优劣指标.测试误差Test-error定义如下:

    $ \mbox{Test-error}=\frac{1}{I}\sum\limits_i^I {\left| {p_i -\hat {p}_i } \right|} $

    (34)
    表 4  CIFAR-10数据集实验结果对比
    Table 4  Result comparison on CIFAR-10 dataset
    方法 能量函数 测试误差 平均运行时间(s)
    均值 方差 均值 方差
    E-REGAN 0.0048 0.0831 0.0160 0.0831 65.38
    SS-E-REGAN 0.0473 2.2406 0.0431 2.2406 65.75
    SN-E-REGAN 0.2097 2.8119 0.0633 2.8119 67.92
    标准GAN 0.0802 1.9227 90.68
    LS-GAN[27] 0.0358 0.1076 78.24
    LR-GAN[28] 0.0263 0.1547 84.36
    Bayesian GAN[29] 0.0386 0.2037 86.19
    粗体表示最优值.
    下载: 导出CSV 
    | 显示表格

    其中, $p_i $和分别为真实图像和生成图像经过向量化和归一化后的元素, $I$为图像向量化后的维数.

    表 4可以看出, E-REGAN具有较好的样本生成能力和更强的鲁棒性, 同时, 具有最快的网络学习速度.

    针对现有生成式对抗网络GAN生成模型学习效率低下和判别模型的学习过程易出现梯度消失的两个缺点, 本文提出了一种能量函数意义下的生成式对抗网络(E-REGAN).将自适应深度信念网络(ADBN)作为生成模型来加速生成式学习, 自适应深度自编码器(ADAE)作为判别模型来加速判别式学习.噪音和真实样本同时作为自适应深度信念网络的输入信号, 判别模型采用无监督学习, 自适应深度自编码器的重构误差作为能量函数.能量函数意义下的判别基准无需梯度校正信号使得生成模型和判别模型在对抗学习过程中实现快速精确的交替优化.与其他几种模型相比, 基于能量函数的E-RAGAN能够在快速的交替对抗优化过程中生成大量无限接近于真实样本的数据, 且网络鲁棒性较强.本文仍有不足之处, 由于深度自编码器的引入, 自适应学习率在面对深层次的特征提取时, 加速效果已不再明显.在今后的工作中, 如何从网络结构的角度提高特征提取的效率将是优先研究方向.


  • 本文责任编委 王坤峰
  • 图  1  E-REGAN结构原理图

    Fig.  1  Structure and scheme of E-REGAN

    图  2  ARBM结构图

    Fig.  2  Structure of ARBM

    图  3  ADAE结构原理图

    Fig.  3  Structure and scheme of ADAE

    图  4  生成模型ADBN的训练RMSE

    Fig.  4  RMSE curve of generative model ADBN

    图  5  E-REGAN的能量函数变化曲线

    Fig.  5  Energy function curves of E-REGAN

    图  6  E-REGAN生成的样本图像

    Fig.  6  Sample images generated by E-REGAN

    图  7  SS-E-REGAN生成的样本图像

    Fig.  7  Sample images generated by SS-E-REGAN

    图  8  SN-E-REGAN生成的样本图像

    Fig.  8  Sample images generated by SN-E-REGAN

    图  9  g-GAN生成的样本图像

    Fig.  9  Sample images generated by g-GAN

    图  10  LS-GAN生成的样本图像

    Fig.  10  Sample images generated by LS-GAN

    图  11  生成模型ADBN的训练RMSE

    Fig.  11  RMSE curve of generative model ADBN

    图  12  E-REGAN的能量函数变化曲线

    Fig.  12  Energy function curves of E-REGAN

    图  13  E-REGAN生成的样本图像

    Fig.  13  Sample images generated by E-REGAN

    图  14  LS-GAN生成的样本图像

    Fig.  14  Sample images generated by LS-GAN

    图  15  LR-GAN生成的样本图像

    Fig.  15  Sample images generated by LR-GAN

    图  16  Bayesian GAN生成的样本图像

    Fig.  16  Sample images generated by Bayesian

    表  1  MNIST数据集测试中ADBN的固有参数

    Table  1  Fixed parameters of ADBN on MNIST dataset

    $\eta_0$ $\tau$ $t$ $u$ $v$ $\lambda$ $\gamma $
    0.1 200 2 1.5 0.7 0.02 0.01
    $ \eta _0 $表示学习率的初始值
    下载: 导出CSV

    表  2  MNIST数据集实验结果对比

    Table  2  Result comparison on MNIST dataset

    方法 能量函数(RE) 分类正确率(%) 平均运行时间(s)
    均值 方差
    E-REGAN 0.0037 0.0790 92 58.62
    SS-E-REGAN 0.0405 2.0618 84 56.94
    SN-E-REGAN 0.1873 2.7724 82 60.31
    标准GAN 79 87.23
    LS-GAN[27] 87 74.61
    LR-GAN[28] 90 71.36
    Bayesian GAN[29] 85 77.48
    粗体表示最优值.
    下载: 导出CSV

    表  3  CIFAR-10数据集测试中ADBN的固有参数

    Table  3  Fixed parameters of ADBN on CIFAR-10 dataset

    $\eta_0$ $\tau$ $t$ $u$ $v$ $\lambda$ $\gamma $
    0.1 300 2 1.7 0.5 0.05 0.02
    $ \eta _0 $表示学习率的初始值.
    下载: 导出CSV

    表  4  CIFAR-10数据集实验结果对比

    Table  4  Result comparison on CIFAR-10 dataset

    方法 能量函数 测试误差 平均运行时间(s)
    均值 方差 均值 方差
    E-REGAN 0.0048 0.0831 0.0160 0.0831 65.38
    SS-E-REGAN 0.0473 2.2406 0.0431 2.2406 65.75
    SN-E-REGAN 0.2097 2.8119 0.0633 2.8119 67.92
    标准GAN 0.0802 1.9227 90.68
    LS-GAN[27] 0.0358 0.1076 78.24
    LR-GAN[28] 0.0263 0.1547 84.36
    Bayesian GAN[29] 0.0386 0.2037 86.19
    粗体表示最优值.
    下载: 导出CSV
  • [1] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 2672-2680
    [2] Makhzani A, Shlens J, Jaitly N, Goodfellow I, Frey B. Adversarial autoencoders. arXiv preprint arXiv: 1511. 05644, 2015.
    [3] Mao X D, Li Q, Xie H R, Lau R Y K, Wang Z, Smolley S P. Least squares generative adversarial networks. arXiv preprint ArXiv: 1611. 04076, 2016.
    [4] Durugkar I, Gemp I, Mahadevan S. Generative multi-adversarial networks. arXiv preprint arXiv: 1611. 01673, 2016.
    [5] Huang X, Li Y X, Poursaeed O, Hopcroft J, Belongie1 S. Stacked generative adversarial networks. arXiv preprint arXiv: 1612. 04357, 2016.
    [6] Saito M, Matsumoto E, Saito S. Temporal generative adversarial nets with singular value clipping. In: Proceedings of the 2017 IEEE Conference on Computer Vision. Venice, Italy: ICCV, 2017. 2849-2858
    [7] Che T, Li Y R, Zhang R X, Hjelm R D, Li W J, Song Y Q, etal. Maximum-likelihood augmented discrete generative adversarial networks. arXiv preprint arXiv: 1702. 07983, 2017.
    [8] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml
    [9] Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. arXiv preprint arXiv: 1701. 07875, 2017.
    [10] Donahue J, Krähenbühl P, Darrell T. Adversarial feature learning. arXiv preprint arXiv: 1605. 09782, 2016.
    [11] LeCun Y, Huang F. Loss functions for discriminative training of energy-based models. In: Proceedings of the 10th International Workshop on Artificial Intelligence and Statistics. Barbados: AIS, 2005. 206-213
    [12] 乔俊飞, 潘广源, 韩红桂.一种连续型深度信念网的设计与应用.自动化学报, 2015, 41(12):2138-2146 http://www.aas.net.cn/CN/abstract/abstract18786.shtml

    Qiao Jun-Fei, Pan Guang-Yuan, Han Hong-Gui. Design and application of continuous deep belief network. Acta Automatica Sinica, 2015, 41(12):2138-2146 http://www.aas.net.cn/CN/abstract/abstract18786.shtml
    [13] 乔俊飞, 王功明, 李晓理, 韩红桂, 柴伟.基于自适应学习率的深度信念网设计与应用.自动化学报, 2017, 43(8):1339-1349 http://www.aas.net.cn/CN/abstract/abstract19108.shtml

    Qiao Jun-Fei, Wang Gong-Ming, Li Xiao-Li, Han Hong-Gui, Chai Wei. Design and application of deep belief network with adaptive learning rate. Acta Automatica Sinica, 2017, 43(8):1339-1349 http://www.aas.net.cn/CN/abstract/abstract19108.shtml
    [14] Lopes N, Ribeiro B. Towards adaptive learning with improved convergence of deep belief networks on graphics processing units. Pattern Recognition, 2014, 47(1):114-127 doi: 10.1016/j.patcog.2013.06.029
    [15] 王功明, 李文静, 乔俊飞.基于PLSR自适应深度信念网络的出水总磷预测.化工学报, 2017, 68(5):1987-1997 http://www.doc88.com/p-6922879556285.html

    Wang Gong-Ming, Li Wen-Jing, Qiao Jun-Fei. Prediction of effluent total phosphorus using PLSR-based adaptive deep belief network. CIESC Journal, 2017, 68(5):1987-1997 http://www.doc88.com/p-6922879556285.html
    [16] Hinton G E. Training products of experts by minimizing contrastive divergence. Neural Computation, 2002, 14(8):1771-1800 doi: 10.1162/089976602760128018
    [17] Le Roux N, Bengio Y. Representational power of restricted boltzmann machines and deep belief networks. Neural Computation, 2008, 20(6):1631-1649 doi: 10.1162/neco.2008.04-07-510
    [18] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7):1527-1554 doi: 10.1162/neco.2006.18.7.1527
    [19] Alain G, Bengio Y. What regularized auto-encoders learn from the data-generating distribution. The Journal of Machine Learning Research, 2014, 15(1):3563-3593 http://jmlr.csail.mit.edu/papers/volume15/alain14a/alain14a.pdf
    [20] Chan P P K, Lin Z, Hu X, Tsang E C C, Yeung D S. Sensitivity based robust learning for stacked autoencoder against evasion attack. Neurocomputing, 2017, 267:572-580 doi: 10.1016/j.neucom.2017.06.032
    [21] Huang G B, Chen L, Siew C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes. IEEE Transactions on Neural Networks, 2006, 17(4):879-892 doi: 10.1109/TNN.2006.875977
    [22] Leung F H F, Lam H K, Ling S H, Tam P K S. Tuning of the structure and parameters of a neural network using an improved genetic algorithm. IEEE Transactions on Neural networks, 2003, 14(1):79-88 doi: 10.1109/TNN.2002.804317
    [23] de la Rosa E, Yu W. Randomized algorithms for nonlinear system identification with deep learning modification. Information Sciences, 2016, 364-365:197-212 doi: 10.1016/j.ins.2015.09.048
    [24] Zhao J B, Mathieu M, LeCun Y. Energy-based generative adversarial network. arXiv preprint arXiv: 1609. 03126, 2016.
    [25] Larochelle H, Bengio Y, Louradour J, Lamblin P. Exploring strategies for training deep neural networks. The Journal of Machine Learning Research, 2009, 10:1-40 http://www.cs.toronto.edu/~larocheh/publications/jmlr-larochelle09a.pdf
    [26] Wang Y, Wang X G, Liu W Y. Unsupervised local deep feature for image recognition. Information Sciences, 2016, 351:67-75 doi: 10.1016/j.ins.2016.02.044
    [27] Qi G J. Loss-sensitive generative adversarial networks on lipschitz densities. arXiv preprint arXiv: 1701. 06264, 2017.
    [28] Yang J W, Kannan A, Batra D, Parikh D. LR-GAN: layered recursive generative adversarial networks for image generation. arXiv preprint arXiv: 1703. 01560, 2017.
    [29] Saatchi Y, Wilson A. Bayesian GAN. arXiv preprint arXiv: 1705. 09558, 2017.
    [30] Hinton G E, Srivastava N, Krizhevsky A, Sutskever I, Salakhutdinov R R. Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv: 1207. 0580, 2012.
    [31] Xu B, Wang N Y, Chen T Q, Li M. Empirical evaluation of rectified activations in convolutional network. arXiv preprint arXiv: 1505. 00853, 2015.
    [32] Goroshin R, Bruna J, Tompson J, Eigen D, LeCun Y. Unsupervised learning of spatiotemporally coherent metrics. In: Proceedings of the 2015 IEEE Conference on Computer Vision (ICCV). Santiago, Chile: IEEE, 2015. 4086-4093
    [33] Metz L, Poole B, Pfau D, Sohl-Dickstein J. Unrolled generative adversarial networks. arXiv preprint arXiv: 1611. 02163, 2016.
    [34] Springenberg J T. Unsupervised and semi-supervised learning with categorical generative adversarial networks. arXiv preprint arXiv: 1511. 06390, 2015.
  • 期刊类型引用(15)

    1. 焦枫媛,杨志秀,石韶杰,曹卫国. 基于生成对抗网络的低剂量CT图像降噪方法(英文). Journal of Measurement Science and Instrumentation. 2024(04): 490-498 . 百度学术
    2. 郭继峰,庞志奇,李星,杨帆,岳琪. 基于生成对抗网络的眼底图像生成方法. 计算机应用与软件. 2022(05): 197-203+252 . 百度学术
    3. 刘厦,郝亚峰,仇梓峰,胡炎. 面向仓库巡逻的小样本目标识别方法综述. 无线电工程. 2022(08): 1402-1408 . 百度学术
    4. 陈泓佑,陈帆,和红杰,朱翌明. 基于样本特征解码约束的GANs. 自动化学报. 2022(09): 2288-2300 . 本站查看
    5. 王功明,乔俊飞,关丽娜,贾庆山. 深度信念网络研究现状与展望. 自动化学报. 2021(01): 35-49 . 本站查看
    6. 方卫华,张慧,夏童童. 基于轻量化GANs的引水隧洞充水试验数据生成分析. 水利信息化. 2021(02): 34-39 . 百度学术
    7. 陈宗航,胡海龙,姚剑敏,严群,林志贤. 基于改进生成对抗网络的单帧图像超分辨率重建. 液晶与显示. 2021(05): 705-712 . 百度学术
    8. 陈泓佑,和红杰,陈帆,朱翌明. 基于子样本集构建的DCGANs训练方法. 自动化学报. 2021(04): 913-923 . 本站查看
    9. 谢庆,杨天驰,裴少通,谢军,律方成. 基于多尺度协作模型的电气设备红外图像超分辨率故障辨识方法. 电工技术学报. 2021(21): 4608-4616 . 百度学术
    10. 杨旺功,淮永建. 基于深度卷积生成对抗网络的花朵图像增强与分类. 计算机科学. 2020(06): 176-179 . 百度学术
    11. 王冬冬,王力,姜敏,王可新,栾浩. 改进的生成对抗网络的图像超分辨率重建. 计算机工程与设计. 2020(07): 1981-1986 . 百度学术
    12. 米恒,贾振堂. 基于改进生成式对抗网络的图像超分辨率重建. 计算机应用与软件. 2020(09): 139-145 . 百度学术
    13. 程乐峰,余涛,张孝顺,殷林飞. 机器学习在能源与电力系统领域的应用和展望. 电力系统自动化. 2019(01): 15-43 . 百度学术
    14. 杜振龙,沈海洋,宋国美,李晓丽. 基于改进CycleGAN的图像风格迁移. 光学精密工程. 2019(08): 1836-1844 . 百度学术
    15. 许浩,郭卫斌. 带有双判别器的对抗性领域适应图像分类算法. 计算机工程与科学. 2019(09): 1656-1661 . 百度学术

    其他类型引用(13)

  • 加载中
  • 图(16) / 表(4)
    计量
    • 文章访问数:  2381
    • HTML全文浏览量:  577
    • PDF下载量:  1263
    • 被引次数: 28
    出版历程
    • 收稿日期:  2017-10-31
    • 录用日期:  2017-12-23
    • 刊出日期:  2018-05-20

    目录

    /

    返回文章
    返回