2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于自适应学习率的深度信念网设计与应用

乔俊飞 王功明 李晓理 韩红桂 柴伟

乔俊飞, 王功明, 李晓理, 韩红桂, 柴伟. 基于自适应学习率的深度信念网设计与应用. 自动化学报, 2017, 43(8): 1339-1349. doi: 10.16383/j.aas.2017.c160389
引用本文: 乔俊飞, 王功明, 李晓理, 韩红桂, 柴伟. 基于自适应学习率的深度信念网设计与应用. 自动化学报, 2017, 43(8): 1339-1349. doi: 10.16383/j.aas.2017.c160389
QIAO Jun-Fei, WANG Gong-Ming, LI Xiao-Li, HAN Hong-Gui, CHAI Wei. Design and Application of Deep Belief Network with Adaptive Learning Rate. ACTA AUTOMATICA SINICA, 2017, 43(8): 1339-1349. doi: 10.16383/j.aas.2017.c160389
Citation: QIAO Jun-Fei, WANG Gong-Ming, LI Xiao-Li, HAN Hong-Gui, CHAI Wei. Design and Application of Deep Belief Network with Adaptive Learning Rate. ACTA AUTOMATICA SINICA, 2017, 43(8): 1339-1349. doi: 10.16383/j.aas.2017.c160389

基于自适应学习率的深度信念网设计与应用

doi: 10.16383/j.aas.2017.c160389
基金项目: 

国家杰出青年科学基金 61225016

国家自然科学基金 61533002

国家自然科学基金 61473034

详细信息
    作者简介:

    乔俊飞    北京工业大学教授.主要研究方向为智能控制, 神经网络分析与设计.E-mail:junfeq@bjut.edu.cn

    李晓理    北京工业大学教授.1997年获得大连理工大学控制理论与工程硕士学位, 2000年获得东北大学博士学位.主要研究方向为多模型自适应控制, 神经网络控制.E-mail:lixiaolibjut@bjut.edu.cn

    韩红桂    北京工业大学教授.主要研究方向为污水处理工艺复杂建模与控制, 神经网络分析与设计.E-mail:rechardhan@sina.com

    柴伟    北京工业大学讲师.主要研究方向为系统辨识和状态估计研究.E-mail:chaiwei@bjut.edu.cn

    通讯作者:

    王功明    北京工业大学博士研究生.主要研究方向为深度学习, 神经网络结构设计和优化.本文通信作者.E-mail:xiaowangqsd@163.com

Design and Application of Deep Belief Network with Adaptive Learning Rate

Funds: 

National Natural Science Fund for Distinguished Young Scholars 61225016

National Natural Science Foundation of China 61533002

National Natural Science Foundation of China 61473034

More Information
    Author Bio:

       Professor at Faculty of Information Technology, Beijing University of Technology. His research interest covers intelligent control, analysis and design of neural networks.E-mail:

       Professor at Faculty of Information Technology, Beijing University of Technology. He received his master degree in control theory and control engineering from Dalian University of Technology in 1997, and Ph. D. degree from Northeastern University in 2000, respectively. His research interest covers multiple model adaptive control and neural network control.E-mail:

       Professor at Faculty of Information Technology, Beijing University of Technology. His research interest covers modelling and control in waste water treatment process, analysis and design of neural networks.E-mail:

       Lecturer at Faculty of Information Technology, Beijing University of Technology. His research interest covers system identiflcation and state estimation.E-mail:

    Corresponding author: WANG Gong-Ming    Ph. D. candidate at Faculty of Information Technology, Beijing University of Technology. His research interest covers deep learning, analysis and design of neural networks. Corresponding author of this paper.E-mail:xiaowangqsd@163.com
  • 摘要: 针对深度信念网(Deep belief network,DBN)预训练耗时长的问题,提出了一种基于自适应学习率的DBN(Adaptive learning rate DBN,ALRDBN).ALRDBN将自适应学习率引入到对比差度(Contrastive divergence,CD)算法中,通过自动调整学习步长来提高CD算法的收敛速度.然后设计基于自适应学习率的权值训练方法,通过网络性能分析给出学习率变化系数的范围.最后,通过一系列的实验对所设计的ALRDBN进行测试,仿真实验结果表明,ALRDBN的收敛速度得到了提高且预测精度也有所改善.
  • 深度学习网络是人工神经网络的延伸, 在某种意义上等同于含有多个隐层的多层感知器(Multilayer perceptron, MLP), 近年来在语音识别、计算机视觉以及大数据处理等方面取得了较大的进展.深度学习通过提取底层特征信息来获取更加抽象的高层表示, 以揭示数据的分布式特征表示[1], 目前应用较为广泛的深度学习网络主要是深度信念网(Deep belief network, DBN), 已经在多个领域得到了成功的推广和应用[2-8]. DBN是由多个受限玻尔兹曼机(Restricted Boltzmann machine, RBM)顺序叠加构成, 采用无监督贪心算法对所有RBM逐一进行预训练, 然后再利用有监督的误差反传方法对整个网络权值进行微调[9]. DBN的无监督预训练相当于传统神经网络中有监督训练之前的权值随机初始化, 这样可以将初始权值确定在一个较好的范围, 有利于克服由随机初始化权值导致陷入局部最优的问题[10].

    尽管DBN已经在多个领域实现较好的应用, 但是在理论和学习算法方面仍存在许多难以解决的问题, 其中面临的最大挑战就是其预训练阶段耗时长的问题[11]. Lopes等通过合理地选取学习参数提高了RBM的收敛速度[12], BN整体学习速度方面效果不佳; 经过近几年的研究, 一种基于图像处理单元(Graphic processing unit, GPU)的硬件加速器被应用到DBN算法运算中, 并取得了显著的加速收敛效果[13-15], 该方法的主要问题是硬件设备成本和维护费用太高, 不经济并且也没有从算法的角度提高收敛速度.随着大数据时代的到来, 处理数据的信息量会呈指数级增长, 传统DBN无法快速收敛甚至会难以完成学习任务, 因此如何既快速又经济地完成对大量数据的充分学习是DBN今后发展的一个方向[16].

    针对传统DBN预训练耗时长的问题, 文中将一种基于自适应学习率[13]的思想引入到深度信念网(Adaptive learning rate DBN, ALRDBN).根据对比差度(Contrastive divergence, CD)[17]算法中参数每次迭代方向的异同来动态调整学习率, 从而成功避开了固定学习率所带来的欠学习和陷入局部最优的问题[12], 并通过网络性能分析, 给出自适应学习率的动态调整系数取值范围的选取方法.同时将所设计的ALRDBN应用于MNIST数据库手写数字识别、大气二氧化碳浓度变化预测以及洛伦兹混沌时间序列预测等实验, 结果表明ALRDBN在学习过程中能够以更快的速度实现收敛, 同时预测精度也略有提高.

    文中第1节介绍ALRDBN的结构及学习过程; 第2节进行网络性能分析, 并给出自适应学习率动态调整系数取值范围的选取方法; 第3节对网络的性能进行仿真实验, 并对结果进行分析; 第4节给出总结与展望.

    与传统的DBN结构类似, ALRDBN由若干个RBM顺序叠加构成, 上一个RBM的输出作为下一个RBM的输入.考虑到网络的过拟合和泛化能力等因素, 在处理中等规模的数据时DBN隐含层层数一般选用2至3层, 为了方便起见, 故ALRDBN隐含层选用2层, 网络结构如图 1所示.双向箭头表示相邻两层之间为双向全连接, 同一层神经元之间没有连接.

    图 1  ALRDBN结构
    Fig. 1  The structure of ALRDBN

    图 1可以看出, DBN学习过程相对复杂, 分为两个阶段:预训练阶段和微调阶段, 在预训练阶段, 首先使用CD算法对构成DBN的所有RBM逐一进行无监督训练; 在微调阶段, 将整个网络展开成一个前向型网络, 再使用误差反传方法对整个网络权值进行有监督的微调.

    RBM是一种能量生成模型, 由可视层(输入层)和隐含层(输出层)组成, 两层之间采用双向全连接, 同一层之间没有连接, 如图 2所示.

    图 2  受限玻尔兹曼机
    Fig. 2  Restricted Boltzmann machine

    用向量$\pmb{v}$和$\pmb{h}$分别表示可见层和隐含层的状态, 其中$v_i$表示第i个可见单元的状态, $h_j$表示第j个隐单元的状态, 所有神经元的输出只有两种状态(开启和关闭), 一般用1和0来分别表示开启和关闭. 图 2中的偏置是具有与$v_i$和$h_j$相同量纲的标量, 那么基于给定的一组可视层和隐含层状态$(\pmb{v}, \pmb{h})$的能量函数[16]可定义为

    $\begin{align} E({\pmb{v}}, {\pmb{h}}/{\pmb{\theta }}\;) =&- \sum\limits_{i = 1}^m {{a_i} \cdot 1 \cdot {v_i}}-\nonumber\\ &\sum\limits_{j = 1}^n {{b_j} \cdot 1 \cdot {h_j}}-\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {{v_i}{W_{ij}}{h_j}\;\;} } \end{align}$

    (1)

    其中, $~\pmb{\theta }\in \left\{ {{W}_{ij}}, {{a}_{i}}, {{b}_{j}} \right\}$是RBM的参数, 均为实数. ${\pmb a}\in {{\bf R}^{m}}$是可视层节点的偏置, ${\pmb b}\in {\bf R}^n$是隐含层节点的偏置, $W\in {{\bf R}^{n\times m}}$是可视层和隐含层之间的连接权值矩阵.

    当参数确定时, 对于可视层和隐含层所出现的每一种状态$(\pmb{v}, \pmb{h})$, 基于能量函数, 其联合概率分布为

    $\begin{equation}\label{eq2} P({\pmb{v}, {\pmb h}}/{\pmb{\theta }}\;)=\frac{{{\rm e}^{-E({\pmb{v}, {\pmb h}}/{\pmb{\theta }}\;)}}}{Z} \end{equation}$

    (2)

    其中, Z是配分函数, 可以看作为可视层和隐含层所有状态下的能量函数之和, 如式(3) 所示.

    $Z = \sum\limits_{\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} $

    (3)

    同时, 关于可视层$\pmb v$的分布$P\left( \pmb v/ \pmb \theta \right)$, 即联合概率分布$P\left( \pmb v, \pmb h/\mathbf{\pmb \theta } \right)$的边缘分布(也称为似然函数), 如式(4) 所示.

    $P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }}) = \sum\limits_\mathit{\boldsymbol{h}} {P(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}{\rm{ }}/\mathit{\boldsymbol{\theta }})} = \frac{{\sum\limits_\mathit{\boldsymbol{h}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}{\rm{ }}/\mathit{\boldsymbol{\theta }})}}} }}{Z}$

    (4)

    由RBM的结构可以看出, 从可视层到隐含层的映射以及对可视层的重构实质就是对神经元的激活, 因此神经元的状态用0或1表示, 0表示神经元处于关闭状态, 1表示神经元处于开启状态.无论是可视层还是隐含层, 同一层的节点之间是相互独立的, 那么在给定可视层状态$\pmb v$的情况下, 隐含层第j个单元$h_j$被开启的概率可表示为

    $P({h_j} = 1/\mathit{\boldsymbol{v}},\mathit{\boldsymbol{\theta }}) = \sigma ({b_j} + \sum\limits_{i = 1}^m {{v_i}{W_{ij}}} )$

    (5)

    根据RBM的对称结构可知, 当给定隐含层状态$\pmb h$时可视层第i个单元$v_i$被开启的概率可表示为

    $P({v_i} = 1/\mathit{\boldsymbol{h}},\mathit{\boldsymbol{\theta }}) = \sigma ({a_i} + \sum\limits_{j = 1}^n {{W_{ij}}} {h_j})\;$

    (6)

    其中

    $\begin{equation}\label{eq7} \sigma (x) = \frac{{{{\rm e}^x}}}{{{{\rm e}^x} + 1}} = \frac{1}{{1 + {{\rm e}^{ - x}}}} \end{equation}$

    (7)

    判断激活和开始的标准常通过设定一个阈值[17] \!来实现, 如式(8) 所示.

    $\begin{equation} {h_j} = \left\{ {\begin{array}{*{20}{c}} 1, &\mbox{若}&{p({h_j} = 1/v) > \xi }\\ 0, &\mbox{若}&{p({h_j} = 1/v) < \xi } \end{array}} \right. \end{equation}$

    (8)

    其中, $\xi $为一个介于0.5到1的常数.

    重复式(5) 和式(8) 即为一个Gibbs采样过程, 具有k个连续Gibbs采样的CD算法如图 3所示.

    图 3  CD-k算法
    Fig. 3  he algorithm of CD-k

    通过上述分析可知, $P\left( \pmb{ v}/{\pmb \theta} \right)$越大说明可视层被开启的概率越大, 即隐含层充分学习到了可视层数据的特征.根据CD算法和梯度上升的原理[12], 可以通过极大似然法调整连接权值$\pmb \theta $来得到$P\left( \pmb{v}/{\pmb \theta} \right)$的最大值.对$P\left( \pmb{v}/{\pmb \theta} \right)$求对数导数可得

    $\begin{array}{l} \frac{{\partial \log P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}} = - \frac{{\sum\limits_\mathit{\boldsymbol{h}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} \frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}}}{{\sum\limits_\mathit{\boldsymbol{h}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} }} + \\ \quad \quad \quad \quad \quad \quad \frac{{\sum\limits_{\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} \frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}}}{{\sum\limits_{\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} }} \end{array}$

    (9)

    由贝叶斯定理可知

    $P(\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{v}},\mathit{\boldsymbol{\theta }}) = \frac{{P(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}} = \frac{{{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}}}{{\sum\limits_\mathit{\boldsymbol{h}} {{{\rm{e}}^{ - E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}} }}$

    (10)

    故, 式(9) 可表示为

    $\begin{array}{l} \frac{{\partial \log P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}} = \\ \quad - \sum\limits_\mathit{\boldsymbol{h}} {P(\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{v}},\mathit{\boldsymbol{\theta }})\frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}} + \\ \quad \sum\limits_{\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}} {P(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})\frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}} = \\ \quad {\left\langle {\frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}} \right\rangle _{P(\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{v}},\mathit{\boldsymbol{\theta }})}} - \\ \quad {\left\langle {\frac{{\partial E(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}{{\partial \mathit{\boldsymbol{\theta }}}}} \right\rangle _{P(\mathit{\boldsymbol{v}},\mathit{\boldsymbol{h}}/\mathit{\boldsymbol{\theta }})}}\;\; \end{array}$

    (11)

    其中, $\text{ }\!\!~\!\!\text{ }{{\left\langle \cdot \right\rangle }_{P}}$表示求关于分布P的数学期望.

    对于每一个训练样本, 可以分别用"data"和"model"来表示${P}\left( \pmb{h}/{\pmb v}, \pmb \theta \right)$和${P}\left( \pmb v, \pmb h/\pmb \theta \right)$这两个概率分布, 则对数似然函数对连接权值$W_{ij}$、可视层单元的偏置$a_i$和隐含层单元的偏置$b_j$的偏导数分别为

    $\frac{{\partial \log P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}}{{\partial {W_{ij}}}} = {\left\langle {{v_i}{h_j}} \right\rangle _{{\rm{data}}}} - {\left\langle {{v_i}{h_j}} \right\rangle _{{\rm{model}}}}$

    (12)

    $\frac{{\partial \log P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}}{{\partial {a_i}}} = {\left\langle {{v_i}} \right\rangle _{{\rm{data}}}} - {\left\langle {{v_i}} \right\rangle _{{\rm{model}}}}$

    (13)

    $\frac{{\partial \log P(\mathit{\boldsymbol{v}}/\mathit{\boldsymbol{\theta }})}}{{\partial {b_j}}} = {\left\langle {{h_j}} \right\rangle _{{\rm{data}}}} - {\left\langle {{h_j}} \right\rangle _{{\rm{model}}}}$

    (14)

    由于${{\left\langle \cdot \right\rangle }_{\rm model}}$的计算既费时且工作量又大, 因此将Gibbs的采样个数缩至k个(CD-k准则), 根据CD-k准则, 参数集$\pmb{\theta }\in \left\{ {{W}_{ij}}, {{a}_{i}}, {{b}_{j}} \right\}$的更新公式为

    $\begin{equation}\label{eq15} {W_{ij}} = {W_{ij}} + \eta \left( {{{\left\langle {{v_i}{h_j}} \right\rangle }_0} - {{\left\langle {{v_i}{h_j}} \right\rangle }_k}} \right) \end{equation}$

    (15)

    $\begin{equation}\label{eq16} {a_i} = {a_i} + \eta \left( {{{\left\langle {{v_i}} \right\rangle }_0} - {{\left\langle {{v_i}} \right\rangle }_k}} \right) \end{equation}$

    (16)

    $\begin{equation}\label{eq17} {b_j} = {b_j} + \eta \left( {{{\left\langle {{h_j}} \right\rangle }_0} - {{\left\langle {{h_j}} \right\rangle }_k}} \right) \end{equation}$

    (17)

    其中, $\eta $为学习率, 大量研究工作证明, 将k的值取1即能达到可视层和隐含层的平稳分布[12].

    在CD-k算法中, 由于每个RBM均需要多次迭代, 且每次迭代后的参数更新方向不尽相同, 所以固定的学习率会导致算法出现“早熟”现象或难以收敛, 因此如何做到使算法根据合适的梯度来自适应地控制学习速度成为关键.根据RBM训练过程连续两次迭代后的参数更新方向的异同设计ALRDBN算法, 自适应学习率更新机制[15]

    $\begin{equation} \eta \mbox{=}\left\{ {{\begin{array}{ll} {\alpha \eta }, &~~ \Delta > 0 \\ {\beta \eta }, &~~ \Delta < 0\\ \end{array} }} \right. \end{equation}$

    (18)

    其中, $ \Delta = ( {\langle {v_i h_j } \rangle _0 -\langle {v_i h_j } \rangle _k } )\cdot ( \langle {v_i h_j } \rangle _0' -\langle {v_i h_j } \rangle _k' )$, $\alpha$和$\beta$分别表示学习率增大系数和减小系数, $0<\beta<\alpha$, $\Delta$表示RBM连续两次迭代的参数变化量的乘积.当连续两次迭代后参数更新方向相反时, 学习率会减小; 当连续两次迭代后参数更新方向相同时, 学习率会加大.针对自适应学习率算法在加速收敛方面上的有效性问题, 给出以下算法显著性差异分析.

    1) 收敛速度在很大程度上是指受限玻尔兹曼机(RBM)无监督学习速度, 而RBM无监督学习是指从可视层接收的原始数据到隐含层所表示的抽象数据的过程, 这一过程被称为Encoder, 然后再经过一个Decoder过程来解决人们所期望的回归或者分类问题.自适应学习率以变步长的方式自动调节学习因子加速了单个RBM的Encoder过程, 而ALRDBN是由多个RBM顺序叠加组成的, 上一个RBM的Encoder过程的输出作为下一个RBM的Encoder过程的输入, 以此类推. Hinton教授在论文《Reducing the dimensionality of data with neural networks》中指出分层降维能够达到高维数据维数呈现指数下降的效果.同理, 由于ALRDBN在功能上也是由多个RBM进行的分层表述, 所以在单个RBM运用自适应学习率加速收敛的情况下, 多个RBM分层表述能够产生收敛速度指数提高的效果.分层表述过程中Encoder和Decoder的网络结构如图 4所示.

    图 4  ALRDBN分层表述结构
    Fig. 4  Hierarchical representation structure of ALRDBN

    2) 受限玻尔兹曼机(RBM)的权值学习过程是一种无监督的网络权值学习过程, 它有别于以往的BP网络和RBF网络等的有监督学习过程.在以往的BP网络权值学习过程中学习率也有采取自适应形式的, 也就是说学习率为非定值.但是BP网络通常是根据误差的大小来动态调整学习率的变化(如当误差较大时常常加大学习率来减小误差, 当误差较小时常常减小学习率来防止震荡或者减小模型的误差).由于RBM是无监督学习网络, 它的权值训练过程中学习率也采用自适应学习的方式调整, 所以很难找到如BP算法类似结论, 因为它是无监督的.无监督训练阶段, 在误差曲面寻找最优点的过程中, 这种学习率自适应调整方法能够既准确又迅速的找到满足目标函数的最优解.具体来说, 自适应学习率算法能够根据误差曲面的凹凸性来自适应地增大或减小学习率, 实现在预训练阶段加速收敛的效果.另外, 在有监督微调阶段, 自适应学习率算法能够有效地克服误差校正信号越来越微弱的缺点, 避开了算法在寻优过程中处于循环波动和陷入局部最优的情况

    3) 在有监督训练阶段, 图 5是ALRDBN网络中来自输出层的误差反传过程.其中, $y_{id}^{l-1}$表示第d组训练样本作用下最后一个隐含层中第i个神经元的输入状态, $\pmb W$表示输出层和最后一个隐含层之间的连接权值, S表示输出层的输入, D表示训练样本个数$y_{jd}^{l}$和$\hat{y}_{jd}^{l}$分别表示第d组训练样本作用下输出层第j个神经元的实际输出和期望输出, 那么对应的误差可表示为${{e}_{d}}=\hat{y}_{jd}^{l}-y_{jd}^{l}$, 损失函数可定义为

    图 5  ALRDBN顶层的反传误差
    Fig. 5  Error back-propagated from top layer of ALRDBN

    $\begin{equation} L = \frac{1}{2}\sum\limits_{d = 1}^D {e_d^2} \end{equation}$

    (19)

    那么损失函数对权值的导数为

    $\begin{array}{l} \frac{{\partial L}}{{\partial {W_{ij}}}} = \frac{{\partial L}}{{\partial {e_{jd}}}} \cdot \frac{{\partial {e_{jd}}}}{{\partial y_{jd}^l}} \cdot \frac{{\partial y_{jd}^l}}{{\partial {s_{ij}}}} \cdot \frac{{\partial {s_{ij}}}}{{\partial {W_{ij}}}} = \\ \quad {e_{jd}} \cdot ( - 1) \cdot \lambda \left( {{s_j}} \right) \cdot y_{jd}^{l - 1} \end{array}$

    (20)

    其中

    $\begin{equation}\label{eq21} \lambda \left( x \right) = \frac{1}{{1 - {{\rm e}^{ - x}}}}\left( {1 - \frac{1}{{1 - {{\rm e}^{ - x}}}}} \right) \end{equation}$

    (21)

    由式(20) 可知, 权值更新过程中误差校正信号为

    $\begin{equation}\label{eq22} \eta \frac{{\partial L}}{{\partial {W_{ij}}}} = - \eta {e_{jd}} \cdot \lambda \left( {{s_j}} \right) \cdot y_{jd}^{l - 1} \end{equation}$

    (22)

    传统固定学习率算法的一个缺点就是, 权值更新过程中的每一步调节并不总是朝着损失函数减小的方向进行, 致使收敛速度大大降低.但是当学习率$\eta$以式(18) 所示的规律自适应变化时, 由式(22) 可知, 有监督学习阶段误差校正信号会根据连续两次更新方向的异同自适应地变化, 能够克服传统固定学习率算法的这一缺点, 从而加速收敛速度.同理可知, 偏置项$a_i$和$b_j$寻优过程也会以相同的自适应方法加速收敛.

    综上分析可知, 基于自适应学习率算法下的权值更新思想是, 如果连续两步的学习同时降低${{\left\langle {{v}_{i}}{{h}_{j}} \right\rangle }_{0}}$与$\text{ }\!\!~\!\!\text{ }{{\left\langle {{v}_{i}}{{h}_{j}} \right\rangle }_{k}}$之间的差值, 则学习率增大; 相反地, 如果增大了${{\left\langle {{v}_{i}}{{h}_{j}} \right\rangle }_{0}}$与$\text{ }\!\!~\!\!\text{ }{{\left\langle {{v}_{i}}{{h}_{j}} \right\rangle }_{k}}$之间的差值则学习率减小[18-19].这种确定学习率变化系数的ALRDBN不仅能够提高网络的鲁棒性, 还能够加速收敛过程.

    ALRDBN预训练过程是利用变学习率对每个RBM进行无监督学习, 以期望提取更多的输入信息特征.不失一般性, 将式(7) 中Sigmoid函数的上下渐近线推广到${{A}_{L}}$和$A_H$, $f_{i}^{0}$和$f_{i}^{1}$分别表示可视层的输入信息和重构状态, $f_{i}^{0}$和$f_{i}^{1}$分别表示隐含层状态, 此时一次Gibbs采样过程中可视层和隐含层的状态表示如下

    $\begin{equation} f_{i}^{0}\in [{{A}_{L}}, {{A}_{H}}] \end{equation}$

    (23)

    $\begin{equation}\label{eq24} f_{j}^{0}={{A}_{L}}+({{A}_{H}}-{{A}_{L}})\sigma \left( {{b}_{j}}+\sum\limits_{i=1}^{m}{f_{i}^{0}{{W}_{ij}}} \right) \end{equation}$

    (24)

    $\begin{equation}\label{eq25} f_{i}^{1}={{A}_{L}}+({{A}_{H}}-{{A}_{L}})\sigma \left( {{a}_{i}}+\sum\limits_{j=1}^{n}{{{W}_{ij}}}f_{j}^{0} \right) \end{equation}$

    (25)

    $\begin{equation}\label{eq26} f_{j}^{1}={{A}_{L}}+({{A}_{H}}-{{A}_{L}})\sigma \left( {{b}_{j}}+\sum\limits_{i=1}^{m}{f_{i}^{1}{{W}_{ij}}} \right) \end{equation}$

    (26)

    ALRDBN算法是一种对极大似然的近似, 构成ALRDBN的所有RBM被逐一训练, 上一个RBM的输出作为下一个RBM的输入, 在每个RBM的一次Gibbs采样过程中, 网络输出与采样过程的中间状态有关.同时, 自适应学习率对误差曲面最小点搜索的准确性起决定性作用, $\alpha$过大或过小都会影响到算法的收敛速度和精度, 甚至使网络不稳定.故通过以上论述, 给出如下性能分析:

    对于由3个隐含层构成的ALRDBN, 若整个网络稳定, 顶层RBM输出状态范围为, $f_{j}^{1}\in \left[{{A}_{L}}, ~{{A}_{H}} \right]$必满足$f_{j}^{0}, f_{i}^{1}\in \left[{{A}_{L}}, ~{{A}_{H}} \right]$且$\alpha$与$\text{ }\!\!~\!\!\text{ }\xi $正相关.

    一方面, 由于3个隐含层是顺序堆叠的, 故当$f_{j}^{0}, f_{i}^{1}\in \left[{{A}_{L}}, ~{{A}_{H}} \right]$时, 根据式(23)~(26) 可知, 下一个RBM的输出范围必定也为$\left[ {{A}_{L}}, ~{{A}_{H}} \right]$, 即$f_{j}^{1}\in \left[ {{A}_{L}}, ~{{A}_{H}} \right]$, 所以满足整个网络输入输出的有界性, 即网络稳定.

    另一方面, 若网络稳定, 则每个RBM的可视层和隐含层状态均满足有界性, 即当第1个RBM的可视层输入为$f_{i}^{0}\in \left[ {{A}_{L}}, ~{{A}_{H}} \right]$时, 顶层RBM的输出范围为$f_{j}^{1}\in \left[{{A}_{L}}, ~{{A}_{H}} \right]$.又因为Sigmoid函数是单调递增的, 且随着被开启的神经元个数不断增加, 可得

    $\begin{equation}\label{eq27} f_{j}^{1}>f_{i}^{1} \end{equation}$

    (27)

    $\begin{equation}\label{eq28} f_{i}^{1}>f_{j}^{0} \end{equation}$

    (28)

    即中间状态$f_{j}^{0}$和$f_{i}^{1}$范围为

    $\begin{equation} f_{j}^{0}, f_{i}^{1}\in [{{A}_{L}}, {{A}_{H}}] \end{equation}$

    (29)

    从式(8) 可知, 当$\xi$增大时隐含层神经元被开启的概率减小, Gibbs采样过程中所得到的可视层和隐含层神经元状态采样值的稀疏性[20-22]越明显, 那么连续两次Gibbs迭代之后权值更新方向一致的概率增大, 即

    $\begin{array}{l} P(\left( {{{\left\langle {{f_i}{f_j}} \right\rangle }_0} - {{\left\langle {{f_i}{f_j}} \right\rangle }_k}} \right) \times \\ \quad \left( {\left\langle {{f_i}{f_j}} \right\rangle _0^\prime - \left\langle {{f_i}{f_j}} \right\rangle _k^\prime } \right) > 0) \propto \xi \end{array}$

    (30)

    根据式(15)~(17) 可知, 当权值调整处于误差曲面比较平坦的区域时, 加大学习率可以在不影响精度的情况下加快收敛速度, 则有

    $\begin{array}{l} \alpha \propto P(\left( {{{\left\langle {{f_i}{f_j}} \right\rangle }_0} - {{\left\langle {{f_i}{f_j}} \right\rangle }_k}} \right) \times \\ \quad \left. {\left( {\left\langle {{f_i}{f_j}} \right\rangle _0^\prime - \left\langle {{f_i}{f_j}} \right\rangle _k^\prime } \right) > 0} \right) \end{array}$

    (31)

    由式(30) 和(31) 可知, $\xi$与$\alpha$的数学定性关系式为

    $\alpha \propto \xi $

    (32)

    同时, 在一个Gibbs采样过程中权值更新一次, 而中间状态的二值化采样要进行两次, 并且每次更新的权值与状态采样成正比, 所以得到$\xi$与$\alpha$的近似关系式如下:

    $\alpha \approx 2\xi $

    (33)

    $\xi$是对隐含层神经元状态(开启或者关闭)进行判别的概率阈值, 取值范围是$\left[0.5, 1 \right]$, 在实际应用中常取值为0.7, 由式(33) 可得$\alpha $的取值范围是$\left[1, ~2 \right]$, 同理可知, $\beta$的取值范围是$\left[0, ~1 \right]$.

    为了验证所提方法的有效性, 本节对手写数字识别、CO2浓度预测和Lorenz时间序列预测等进行了仿真研究.为了消除其他无关因素对实验效果的影响, 从而客观地反映所提方法的有效性, 所有仿真实验的编译软件和计算机运行环境设置情况如下:编译软件为Matlab 8.2版本, 计算机处理器为Intel(R) Core(TM) i7-4790, 主频为3.6 GHz, RAM为8 GB.

    该实验数据源于MNIST手写数据库, 该数据库拥有6万个训练图像和1万个测试图像, 其中的数字都是手写体, 每一个数字均用很多数量的手写方式来显示.随着模式识别和数据挖掘技术的不断发展, 很多理论方法应用到该数据库中, 所以该数据库被视为一种理想的、标准的测试新方法的经典对象.

    取5 000个样本用于训练, 1 000个样本用于测试.每张样本图像为0$ \sim $9手写体的阿拉伯数字, 像素为28$ \times $28, 故可视层神经元个数设定为784个, 每个神经元接收每张图像中的一个像素点. 5 000个样本分为50批次进行训练, 每批次包含100个样本, 每个RBM迭代50次, 故每层神经元个数默认为100个, 学习率增大和减小系数的根据经验取值为: $\alpha =1.5, \beta =0.5$.实验中根据RBM的分布, 进行一次Gibbs采样后所获样本与原数据的差异称为重构误差, 重构误差变化曲线能直观地反映出无监督学习的效果和收敛速度, 重构误差可表示为

    $RE = \frac{{\sum\limits_{i = 1}^s {\sum\limits_{j = 1}^d {\left| {v_{ij}^0 - v_{ij}^1} \right|} } }}{{s \cdot d}}$

    (34)

    其中, s为样本个数, d为输入维数, $v_{ij}^{1}$为可视层神经元的重构状态, $v_{ij}^{0}$为真实值, 仿真结果如图 6图 7图 8所示.

    图 6  顶层RBM的重构误差
    Fig. 6  The reconstruction error of top RBM
    图 7  ALRDBN错误识别原图像
    Fig. 7  The original images with classification mistakes of ALRDBN
    图 8  ALRDBN错误识别图像
    Fig. 8  The images with classification mistakes of ALRDBN

    图 6可以看出, 重构误差一开始呈现急速下降趋势, 当迭代到第30次时基本达到稳定(收敛), 由此可以看出自适应学习率提高了算法的收敛速度; 图 7图 8显示, 对1 000个样本进行测试后产生了68处错误.

    为了更好地展现ALRDBN的快速收敛性以及更高的识别精度, 在相同的实验环境和设置下将ALRDBN与其他算法相比较, 结果如表 1所示, 图 9是隐含层神经元数与收敛时间的关系曲线.

    表 1  MNIST手写数字实验结果对比
    Table 1  Result comparison of MNIST experiment
    方法隐含层数每层节点数正确识别率运算时间(s)
    ALRDBN210093.1 %20.0
    CDBN210093.0 %34.3
    DBN[21]210092.6 %32.9
    下载: 导出CSV 
    | 显示表格
    图 9  隐含层神经元数对收敛时间的影响
    Fig. 9  Effect of the number of hidden neurons on convergence time

    表 1可以看出, 在隐含层个数和每层神经元个数相同的情况下, ALRDBN的收敛速度最快, 且对手写数字识别的正确率略有提高.同时, 从图 9可知, 在相同的隐含层神经元数条件下ALRDBN的收敛时间最快.该MNIST手写数字识别实验证明, ALRDBN具有相对较好的学习能力和较快的收敛速度.

    同时, 为了更充分地说明学习率增大和减小系数$\alpha$和$\beta$对加快算法收敛的影响, 在确保其他实验参数不变以及ALRDBN性能稳定的前提下, 将$\alpha$和$\beta$取若干组不同的值并再次实验. 图 10是不同的$\alpha$和$\beta$对应的算法收敛时间.可以看出, 当$\alpha$和$\beta$在第2节所确定的范围内取值时, 算法收敛速度变化很微弱, 收敛时间基本维持在20 s左右, 此时ALRDBN处于平稳状态.当$\alpha$和$\beta$的取值超出稳定范围时, 算法收敛时间出现跳跃式增加, 此时ALRDBN处于不稳定状态.由此可见, 第2节所确定的学习率增大和减小系数$\alpha$和$\beta$的取值范围在理论和应用上得到了有效的验证.

    图 10  $\alpha$和$\beta$对收敛时间的影响
    Fig. 10  Influence of $\alpha$ and $\beta$ on convergence time

    环境问题一直是世界各国关心的焦点之一, 而$\rm{CO}_2$浓度的变化恰恰能反映出环境质量的好坏.大气中$\rm{CO}_2$浓度的增加导致全球变暖; 反过来, 气候的变化也会影响到碳循环, 从而影响到大气中的$\rm{CO}_2$浓度.大气中$\rm{CO}_2$浓度的增加一方面取决于人为排放的增加(这也取决于世界人口增长速度、能源需求量的增加速度和开发速度以及替代能源的开发速度等等), 另一方面又取决于自然$\rm{CO}_2$贮库对人为排放的$\rm{CO}_2$的响应, 特别是生物圈和海洋的响应.因此为了客观地反映空气中$\rm{CO}_2$的浓度变化情况, 选取西太平洋某海域的一个海岛$\rm{CO}_2$的浓度变化进行预测.实验使用此海岛1965年到1980的$\rm{CO}_2$浓度数据共187组, 前100组数据作为训练样本对网络进行训练, 后87组数据作为测试样本对网络进行测试, 网络使用3个历史数据作为输入来进行一步预测.为了较好地学习到$\rm{CO}_2$数据的内在特征提高预测效果, 采用的ALRDBN网络结构为3-20-40-1, 每个RBM训练次数为200次, 学习率增大和减小系数的根据经验取值为: $\alpha=0.5$, $\beta=1.5$.有监督的微调阶段训练步数为10 000次, 仿真结果如图 11图 12图 13所示.

    图 11  ALRDBN训练结果
    Fig. 11  The training results of ALRDBN
    图 12  ALRDBN测试结果
    Fig. 12  The test results of ALRDBN
    图 13  ALRDBN训练RMSE
    Fig. 13  The training RMSE of ALRDBN

    图 11是对网络的训练结果, 图 12是对网络的预测结果, 可以看出该海岛所在地区$\rm{CO}_2$浓度在不同季节有规律地变化, 这主要是由不同季节海岛居民的有规律活动引起的, 但总体上呈现出逐年上升的趋势, 这也符合当今全球$\rm{CO}_2$浓度逐年走高的现实情况(温室效应导致的全球变暖). 图 13是有监督阶段均方根误差的变化曲线, 可以看出, 一开始均方根误差急速下降后出现波动, 这是因为一开始无监督学习过程中某两次参数更新方向不同而导致的, 随着迭代次数的增加, 学习率以自适应的方式不断加大, 从而加速了学习过程.当迭代到1 000次时基本趋于稳定, 这说明自适应学习率提高了无监督学习算法的收敛速度并最终实现收敛.

    为了更进一步说明实验效果, 在相同的实验环境和参数设置下将ALRDBN与其他算法相比较, 结果如表 2图 14所示.

    图 14  隐含层神经元数对收敛时间的影响
    Fig. 14  Effect of the number of hidden neurons on convergence time
    表 2  CO2浓度变化实验结果对比
    Table 2  Result comparison of CO2 forecasting
    方法网络结构RMSE (训练)RMSE (测试)运算时间(s)
    ALRDBN3-20-40-10.91641.16717.6
    DBN3-20-40-10.94871.283011.9
    CDBN[22]3-20-40-10.91331.150711.5
    BP3-60-1>0.11.3 ~ 6.615.8
    下载: 导出CSV 
    | 显示表格

    表 2可以看出, BP网络在采用3-6-1的结构时网络性能相对稳定在一定的范围, 这说明BP网络耗时且易陷入局部最优.在隐含层个数和每层神经元个数相同的情况下, 深度神经网络中ALRDBN的运算速度(收敛速度)最快, 同时均方根误差相对略有降低.实际经验表明, 有规律的增加或者减少隐含层神经元个数可以获得优于表 2的均方根误差. 图 14表明尽管随着隐含层神经元数的增加收敛时间延长, 但是ALRDBN的收敛时间仍然是最快的.该CO$_2$浓度变化预测实验证明, ALRDBN具有较快的收敛速度.另一方面, 为了更充分地验证第2节所确定的$\alpha$和$\beta$取值范围的有效性, 在确保其他实验参数不变以及ALRDBN性能稳定的前提下, 将$\alpha$和$\beta$取若干组不同的值并再次实验. 图 15是不同的$\alpha$和$\beta$对应的算法收敛时间, 可以看出, 当$\alpha$和$\beta$在第2节所确定的范围内取值时算法收敛时间变化很微弱, ALRDBN处于平稳状态.当$\alpha$和$\beta$的取值超出稳定范围时算法收敛时间出现跳跃式增加, 此时ALRDBN处于不稳定状态.

    图 15  $\alpha$和$\beta$对收敛时间的影响
    Fig. 15  Influence of $\alpha$ and $\beta$ on convergence time

    本实验目的是验证ALRDBN能够以较快的速度完成预测任务, 即能够提高算法收敛的速度.混沌时间序列预测是检验神经网络结构和方法有效性的基准问题之一, Lorenz效应因其相位图酷似蝴蝶又称蝴蝶效应.实验中, 取1 500个样本用于训练, 1 000个样本用于测试, 在网络中使用3输入进行一步预测, 即用$t-2$, $t-1$和t时刻的信息预测$t+1$时刻的信息, ALRDBN网络结构为3-3-3-1每个RBM的迭代100次, 微调阶段训练步数为5 000次, 实验结果如图 16图 17图 18所示.

    图 16  ALRDBN训练结果
    Fig. 16  The training results of ALRDBN
    图 17  ALRDBN测试结果
    Fig. 17  The test results of ALRDBN
    图 18  ALRDBN训练RMSE
    Fig. 18  The training RMSE of ALRDBN

    图 16图 17分别是ALRDBN对Lorenz混沌时间序列的训练结果和预测结果, 可以看出, ALRDBN很好地学习了Lorenz时序状态, 并实现了较好的预测. 图 18是ALRDBN在有监督微调过程中均方根误差变化曲线, 从图中可以看出, 均方根误差一开始急速下降, 这是因为无监督学习过程的初始阶段参数更新方向一致, 学习率以自适应的方式不断加大, 从而加速了学习过程.当迭代到500次左右时均方根误差基本趋于稳定, 最终训练误差为0.0326.这说明基于自适应学习率算法收敛速度较快.为了更进一步展现实验效果, 在相同的实验环境和参数设置下将ALRDBN与其他算法相比较, 结果如表 3图 19所示.由图 19表 3可以看出, 在隐含层个数和每层神经元个数以及网络总神经元个数相同的情况下, ALRDBN的收敛速度最快, 同时均方根误差也略有降低.

    表 3  Lorenz时序预测实验结果对比
    Table 3  Result comparison of Lorenz forecasting
    方法网络结构RMSE (训练)RMSE (测试)运算时间(s)
    ALRDBN3-3-3-0.02100.02252.9
    DBN3-3-3-10.03710.03883.6
    CDBN3-3-3-10.02080.02233.2
    BPNN[23]3-6-10.07000.0835>10
    SRNN[24]3-6-10.02320.03026.7
    下载: 导出CSV 
    | 显示表格
    图 19  隐含层神经元数对收敛时间的影响
    Fig. 19  Effect of the number of hidden neurons on convergence time

    相应的, 为了更充分的验证第2节所确定的$\alpha$和$\beta$取值范围的有效性, 在确保其他实验参数不变以及ALRDBN性能稳定的前提下, 将$\alpha$和$\beta$取若干组不同的值并再次实验. 图 20是不同的$\alpha$和$\beta$对应的算法收敛时间, 可以看出, 当$\alpha$和$\beta$在第2节所确定的范围内取值时算法收敛时间变化很微弱, ALRDBN处于平稳状态.当$\alpha$和$\beta$的取值超出稳定范围时算法收敛时间出现跳跃式增加, 此时ALRDBN处于不稳定状态.

    图 20  $\alpha$和$\beta$对收敛时间的影响
    Fig. 20  Influence of $\alpha$ and $\beta$ on convergence time

    针对DBN预训练耗时长的问题, 文中将基于自适应学习率的思想引入到传统深度信念网中, 提出了自适应学习率深度信念网的设计方法, 并通过网络性能分析证明了网络的稳定性和有效性, 同时给出了自适应学习率增大和减小系数的取值范围.最后, 通过大量实验结果可以看出, 该方法在提高算法收敛速度方面效果明显.

    同时, 文中也存在两方面的问题: 1) 在DBN隐含层个数和每层神经元个数的确定方面尚没有行之有效的统一理论方法, 目前都是凭借经验设定, 文中也是通过经验确定隐含层层数和每层神经元个数, 这对DBN的应用效果带来很大的随机性. 2) 要想加快DBN的收敛速度, 仅凭在学习算法上的改进(自适应学习率)是远远不够的, 应该在考虑经济成本的基础之上试图更新硬件设备的性能来加速算法收敛.因此, 如何解决这两个方面存在的问题将是DBN研究的一个热点方向, 也是下一步工作的重点方向.


  • 本文责任编委 王占山
  • 图  1  ALRDBN结构

    Fig.  1  The structure of ALRDBN

    图  2  受限玻尔兹曼机

    Fig.  2  Restricted Boltzmann machine

    图  3  CD-k算法

    Fig.  3  he algorithm of CD-k

    图  4  ALRDBN分层表述结构

    Fig.  4  Hierarchical representation structure of ALRDBN

    图  5  ALRDBN顶层的反传误差

    Fig.  5  Error back-propagated from top layer of ALRDBN

    图  6  顶层RBM的重构误差

    Fig.  6  The reconstruction error of top RBM

    图  7  ALRDBN错误识别原图像

    Fig.  7  The original images with classification mistakes of ALRDBN

    图  8  ALRDBN错误识别图像

    Fig.  8  The images with classification mistakes of ALRDBN

    图  9  隐含层神经元数对收敛时间的影响

    Fig.  9  Effect of the number of hidden neurons on convergence time

    图  10  $\alpha$和$\beta$对收敛时间的影响

    Fig.  10  Influence of $\alpha$ and $\beta$ on convergence time

    图  11  ALRDBN训练结果

    Fig.  11  The training results of ALRDBN

    图  12  ALRDBN测试结果

    Fig.  12  The test results of ALRDBN

    图  13  ALRDBN训练RMSE

    Fig.  13  The training RMSE of ALRDBN

    图  14  隐含层神经元数对收敛时间的影响

    Fig.  14  Effect of the number of hidden neurons on convergence time

    图  15  $\alpha$和$\beta$对收敛时间的影响

    Fig.  15  Influence of $\alpha$ and $\beta$ on convergence time

    图  16  ALRDBN训练结果

    Fig.  16  The training results of ALRDBN

    图  17  ALRDBN测试结果

    Fig.  17  The test results of ALRDBN

    图  18  ALRDBN训练RMSE

    Fig.  18  The training RMSE of ALRDBN

    图  19  隐含层神经元数对收敛时间的影响

    Fig.  19  Effect of the number of hidden neurons on convergence time

    图  20  $\alpha$和$\beta$对收敛时间的影响

    Fig.  20  Influence of $\alpha$ and $\beta$ on convergence time

    表  1  MNIST手写数字实验结果对比

    Table  1  Result comparison of MNIST experiment

    方法隐含层数每层节点数正确识别率运算时间(s)
    ALRDBN210093.1 %20.0
    CDBN210093.0 %34.3
    DBN[21]210092.6 %32.9
    下载: 导出CSV

    表  2  CO2浓度变化实验结果对比

    Table  2  Result comparison of CO2 forecasting

    方法网络结构RMSE (训练)RMSE (测试)运算时间(s)
    ALRDBN3-20-40-10.91641.16717.6
    DBN3-20-40-10.94871.283011.9
    CDBN[22]3-20-40-10.91331.150711.5
    BP3-60-1>0.11.3 ~ 6.615.8
    下载: 导出CSV

    表  3  Lorenz时序预测实验结果对比

    Table  3  Result comparison of Lorenz forecasting

    方法网络结构RMSE (训练)RMSE (测试)运算时间(s)
    ALRDBN3-3-3-0.02100.02252.9
    DBN3-3-3-10.03710.03883.6
    CDBN3-3-3-10.02080.02233.2
    BPNN[23]3-6-10.07000.0835>10
    SRNN[24]3-6-10.02320.03026.7
    下载: 导出CSV
  • [1] Bengio Y H, Delalleau O. On the expressive power of deep Architectures. In:Proceeding of the 22nd International Conference. Berlin Heidelberg, Germany:Springer-Verlag, 2011. 18-36
    [2] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5786):504-507 doi: 10.1126/science.1127647
    [3] 郭潇逍, 李程, 梅俏竹.深度学习在游戏中的应用.自动化学报, 2016, 42(5):676-684 http://www.aas.net.cn/CN/abstract/abstract18857.shtml

    Guo Xiao-Xiao, Li Cheng, Mei Qiao-Zhu. Deep learning applied to games. Acta Automatica Sinica, 2016, 42(5):676-684 http://www.aas.net.cn/CN/abstract/abstract18857.shtml
    [4] LeCun Y, Bengio Y, Hinton G. Deep learning. Nature, 2015, 521(7553):436-444 doi: 10.1038/nature14539
    [5] 贺昱曜, 李宝奇.一种组合型的深度学习模型学习率策略.自动化学报, 2016, 42(6):953-958 http://www.aas.net.cn/CN/abstract/abstract18886.shtml

    He Yu-Yao, Li Bao-Qi. A combinatory form learning rate scheduling for deep learning model. Acta Automatica Sinica, 2016, 42(6):953-958 http://www.aas.net.cn/CN/abstract/abstract18886.shtml
    [6] 马帅, 沈韬, 王瑞琦, 赖华, 余正涛.基于深层信念网络的太赫兹光谱识别.光谱学与光谱分析, 2015, 35(12):3325-3329 http://cdmd.cnki.com.cn/Article/CDMD-10674-1015636153.htm

    Ma Shuai, Shen Tao, Wang Rui-Qi, Lai Hua, Yu Zheng-Tao. Terahertz spectroscopic identification with deep belief network. Spectroscopy and Spectral Analysis, 2015, 35(12):3325-3329 http://cdmd.cnki.com.cn/Article/CDMD-10674-1015636153.htm
    [7] 耿志强, 张怡康.一种基于胶质细胞链的改进深度信念网络模型.自动化学报, 2016, 42(6):943-952 http://www.aas.net.cn/CN/abstract/abstract18885.shtml

    Geng Zhi-Qiang, Zhang Yi-Kang. An improved deep belief network inspired by glia chains. Acta Automatica Sinica, 2016, 42(6):943-952 http://www.aas.net.cn/CN/abstract/abstract18885.shtml
    [8] Abdel-Zaher A M, Eldeib A M. Breast cancer classification using deep belief networks. Expert Systems with Applications, 2016, 46:139-144 doi: 10.1016/j.eswa.2015.10.015
    [9] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors. Nature, 1986, 323(6088):533-536 doi: 10.1038/323533a0
    [10] Mohamed A R, Dahl G E, Hinton G. Acoustic modeling using deep belief networks. IEEE Transactions on Audio, Speech, and Language Processing, 2012, 20(1):14-22 doi: 10.1109/TASL.2011.2109382
    [11] Bengio Y. Learning deep architectures for AI. Foundations and Trends in Machine Learning, 2009, 2(1):1-127 doi: 10.1561/2200000006
    [12] Lopes N, Ribeiro B. Improving convergence of restricted Boltzmann machines via a learning adaptive step size. Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications, Lecture Notes in Computer Science. Berlin Heidelberg:Springer, 2012. 511-518
    [13] Raina R, Madhavan A, Ng A Y. Large-scale deep unsupervised learning using graphics processors. In:Proceedings of the 26th Annual International Conference on Machine Learning. New York, NY, USA:ACM, 2009. 873-880
    [14] Ly D L, Paprotski V, Danny Y. Neural Networks on GPUs:Restricted Boltzmann Machines, Technical Report, University of Toronto, Canada, 2009.
    [15] Lopes N, Ribeiro B. Towards adaptive learning with improved convergence of deep belief networks on graphics processing units. Pattern Recognition, 2014, 47(1):114-127 doi: 10.1016/j.patcog.2013.06.029
    [16] Le Roux N, Bengio Y. Representational power of restricted boltzmann machines and deep belief networks. Neural Computation, 2008, 20(6):1631-1649 doi: 10.1162/neco.2008.04-07-510
    [17] Hinton G E. Training products of experts by minimizing contrastive divergence. Neural Computation, 2002, 14(8):1771-1800 doi: 10.1162/089976602760128018
    [18] Yu X H, Chen G A, Cheng S X. Dynamic learning rate optimization of the backpropagation algorithm. IEEE Transactions on Neural Networks, 1995, 6(3):669-677 doi: 10.1109/72.377972
    [19] Magoulas G D, Vrahatis M N, Androulakis G S. Improving the convergence of the backpropagation algorithm using learning rate adaptation methods. Neural Computation, 1999, 11(7):1769-1796 doi: 10.1162/089976699300016223
    [20] Lee H, Ekanadham C, Ng A. Sparse deep belief net model for visual area V2. In:Proceedings of the 2008 Advances in Neural Information Processing Systems. Cambridge, MA:MIT Press, 2008. 873-880
    [21] Ji N N, Zhang J S, Zhang C X. A sparse-response deep belief network based on rate distortion theory. Pattern Recognition, 2014, 47(9):3179-3191 doi: 10.1016/j.patcog.2014.03.025
    [22] 乔俊飞, 潘广源, 韩红桂.一种连续型深度信念网的设计与应用.自动化学报, 2015, 41(12):2138-2146 http://www.aas.net.cn/CN/abstract/abstract18786.shtml

    Qiao Jun-Fei, Pan Guang-Yuan, Han Hong-Gui. Design and application of continuous deep belief network. Acta Automatica Sinica, 2015, 41(12):2138-2146 http://www.aas.net.cn/CN/abstract/abstract18786.shtml
    [23] Chang L C, Chen P A, Chang F J. Reinforced two-step-ahead weight adjustment technique for online training of recurrent neural networks. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(8):1269-1278 doi: 10.1109/TNNLS.2012.2200695
    [24] Chen Q L, Chai W, Qiao J F. A stable online self-constructing recurrent neural network. Advances in Neural Networks-ISNN 2011. Berlin Heidelberg:Springer, 2011, 6677:122-131
  • 期刊类型引用(20)

    1. 巩彬,安爱民,石耀科,杜先君. 基于IMODA自适应深度信念网络的复杂模拟电路故障诊断方法. 电子科技大学学报. 2024(03): 327-344 . 百度学术
    2. 金亮,闫银刚,杨庆新,刘素贞,张闯. 小样本条件下永磁同步电机深度迁移学习性能预测方法. 电工技术学报. 2023(18): 4921-4931 . 百度学术
    3. 朱小勇,陈胜. 基于ResNet-ViT的海战多目标态势感知. 信息与控制. 2023(05): 638-647 . 百度学术
    4. 吴智怀,王志伟. 基于SDAE的液压泵故障诊断方法研究. 冶金设备. 2023(05): 15-22 . 百度学术
    5. 李锦键,王兴贵,杨维满,赵玲霞. 基于改进递归深度信念网络的CSP电站短期出力预测. 太阳能学报. 2022(07): 225-232 . 百度学术
    6. 沈浩宇,江先志,冯涛. 二轮平衡车的神经元控制算法及仿真. 机床与液压. 2022(19): 159-166 . 百度学术
    7. 王功明,乔俊飞,关丽娜,贾庆山. 深度信念网络研究现状与展望. 自动化学报. 2021(01): 35-49 . 本站查看
    8. 石媛媛,裴志利,姜明洋. 基于深度信念网络的文本分类研究综述. 内蒙古民族大学学报(自然科学版). 2021(01): 44-50 . 百度学术
    9. 李娜娜,胡坚剑,顾军华,张亚娟. 深度置信网络优化模型在人才评价中的应用. 计算机工程. 2020(02): 80-87+102 . 百度学术
    10. 唐魏,郑源,潘虹,徐晶珺. 引入动态调节学习率的SAE轴承故障诊断研究. 计算机工程与应用. 2020(20): 264-269 . 百度学术
    11. 李少波,李传江,胡建军,张安思,杨静. 基于深度置信网络的机械设备故障诊断研究综述. 现代制造工程. 2020(10): 156-162+142 . 百度学术
    12. 史科,陆阳,刘广亮,毕翔,王辉. 基于多隐层Gibbs采样的深度信念网络训练方法. 自动化学报. 2019(05): 975-984 . 本站查看
    13. 高磊,范冰冰,黄穗. 基于残差的改进卷积神经网络图像分类算法. 计算机系统应用. 2019(07): 139-144 . 百度学术
    14. 张德,李国璋,王怀光,张峻宁. 位姿估计自适应学习率的改进. 电子测量与仪器学报. 2019(06): 51-58 . 百度学术
    15. 邢海霞,程乐. 一种基于强化学习的深度信念网络设计方法. 控制工程. 2019(11): 2115-2120 . 百度学术
    16. 索明何,程乐. 基于PLSR的深度信念网输出权值确定方法. 控制工程. 2018(04): 668-676 . 百度学术
    17. 王功明,乔俊飞,王磊. 一种能量函数意义下的生成式对抗网络. 自动化学报. 2018(05): 793-803 . 本站查看
    18. 牟善仲,徐天赐,符奥,王萌,白茹. 基于自适应深度学习模型的变压器故障诊断方法. 南方电网技术. 2018(10): 14-19 . 百度学术
    19. 刘冰尧,庞腾,雷菊阳. 基于深度信念网络的变压器故障诊断. 化工自动化及仪表. 2018(11): 873-878 . 百度学术
    20. 王献锋,张传雷,张善文,朱义海. 基于自适应判别深度置信网络的棉花病虫害预测. 农业工程学报. 2018(14): 157-164 . 百度学术

    其他类型引用(31)

  • 加载中
  • 图(20) / 表(3)
    计量
    • 文章访问数:  2881
    • HTML全文浏览量:  381
    • PDF下载量:  1288
    • 被引次数: 51
    出版历程
    • 收稿日期:  2016-05-10
    • 录用日期:  2016-10-09
    • 刊出日期:  2017-08-20

    目录

    /

    返回文章
    返回