2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于动态Gibbs采样的RBM训练算法研究

李飞 高晓光 万开方

李飞, 高晓光, 万开方. 基于动态Gibbs采样的RBM训练算法研究. 自动化学报, 2016, 42(6): 931-942. doi: 10.16383/j.aas.2016.c150645
引用本文: 李飞, 高晓光, 万开方. 基于动态Gibbs采样的RBM训练算法研究. 自动化学报, 2016, 42(6): 931-942. doi: 10.16383/j.aas.2016.c150645
LI Fei, GAO Xiao-Guang, WAN Kai-Fang. Research on RBM Training Algorithm with Dynamic Gibbs Sampling. ACTA AUTOMATICA SINICA, 2016, 42(6): 931-942. doi: 10.16383/j.aas.2016.c150645
Citation: LI Fei, GAO Xiao-Guang, WAN Kai-Fang. Research on RBM Training Algorithm with Dynamic Gibbs Sampling. ACTA AUTOMATICA SINICA, 2016, 42(6): 931-942. doi: 10.16383/j.aas.2016.c150645

基于动态Gibbs采样的RBM训练算法研究

doi: 10.16383/j.aas.2016.c150645
基金项目: 

国家自然科学基金 61305133,61573285

详细信息
    作者简介:

    李飞 西北工业大学电子信息学院博士研究生. 2011年获得西北工业大学系统工程专业学士学位. 主要研究方向为机器学习和深度学习. E-mail: nwpulf@mail.nwpu.edu.cn

    万开方 西北工业大学电子信息学院博士研究生. 2010年获得西北工业大学系统工程专业学士学位. 主要研究方向为航空火力控制. E-mail: yibai 2003@126.com

    通讯作者:

    高晓光 西北工业大学电子信息学院教授. 1989年获得西北工业大学飞行器导航与控制系统博士学位. 主要研究方向为贝叶斯和航空火力控制. 本文通信作者. E-mail: cxg2012@nwpu.edu.cn

Research on RBM Training Algorithm with Dynamic Gibbs Sampling

Funds: 

Supported by National Natural Science Foundation of China 61305133,61573285

More Information
    Author Bio:

    LI Fei Ph. D. candidate at the School of Electronics and Information, Northwestern Polytechnical University. He received his bachelor degree in system engineering from Northwestern Polytechnical University in 2011. His re-search interest covers machine learning and deep learning.

    WAN Kai-Fang Ph. D. candidate at the School of Electronics and In-formation, Northwestern Polytechnical University. He received his bachelor degree in system en-gineering from Northwestern Polytechnical University in 2010. His main research interest is airborne ¯re control.

    Corresponding author: GAO Xiao-Guang Professor at the School of Electronics and Informa- tion, Northwestern Polytechnical Uni- versity. She received her Ph. D. degree in aircraft naviga- tion and control system from Northwestern Polytechnical University in 1989. Her research interest covers Bayes and airborne ¯re control. Corresponding author of this paper. E-mail: cxg2012@nwpu.edu.cn
  • 摘要: 目前大部分受限玻尔兹曼机(Restricted Boltzmann machines, RBMs)训练算法都是以多步Gibbs采样为基础的采样算法. 本文针对多步Gibbs采样过程中出现的采样发散和训练速度过慢的问题,首先, 对问题进行实验描述,给出了问题的具体形式; 然后, 从马尔科夫采样的角度对多步Gibbs采样的收敛性质进行了理论分析, 证明了多步Gibbs采样在受限玻尔兹曼机训练初期较差的收敛性质是造成采样发散和训练速度过慢的主要原因; 最后, 提出了动态Gibbs采样算法,给出了对比仿真实验.实验结果表明, 动态Gibbs采样算法可以有效地克服采样发散的问题,并且能够以微小的运行时间为代价获得更高的训练精度.
  • 自2006年Hinton等[1]提出第一个深度置信网络开始,经过十年的发展,深度学习已逐渐成为机器学习研究领域的前沿热点.深度置信网络[2]、深度卷积神经网络[3]、深度自动编码器[4]等深度网络也广泛应用于机器学习的各个领域,如图像识别、语音分析、文本分析等[5-7].相对于传统的机器学习网络,深度网络取得了更好的效果,极大地推动了技术发展水平(State-of-the-art)[8].尤其在大数据背景下,针对海量无标签数据的学习,深度网络具有明显的优势[9].

    受限玻尔兹曼机(Restricted Boltzmann machine,RBM)[10]是深度学习领域中的一个重要模型,也是构成诸多深度网络的基本单元之一.由于RBM较难训练,所以在很多大数据量任务上使用较少.但相对于其他基本模型,RBM具备较强的理论分析优势和可解释性,是帮助我们理解深度网络和其他基本模型内在机理的重要模型,而且在某些特殊数据集上,RBM可以获得更好的学习效果. 所以,研究RBM仍然很有意义. RBM具有两层结构,在无监督学习下,隐层单元可以对输入层单元进行抽象,提取输入层数据的抽象特征.当多个RBM或RBM与其他基本单元以堆栈的方式构成深度网络时,RBM隐层单元提取到的抽象特征可以作为其他单元的输入,继续进行特征提取.通过这种方式,深度网络可以提取到抽象度非常高的数据特征.当采用逐层贪婪(Greedy layer-wise)[11]训练方法对深度网络进行训练时,各个基本单元是逐一被训练的.因此,RBM训练的优劣将直接影响整个深度网络的性能.

    2006年,Hinton等提出了对比散度(Contrastive divergence,CD)算法[12]用以训练RBM网络.在每次训练迭代时,CD算法以数据样本为初始值,通过多步Gibbs迭代获得目标分布的近似采样,然后通过该近似采样来近似目标梯度,取得了较好的效果,是目前RBM训练的标准算法.但研究表明,CD算法对目标梯度的估计是有偏估计[13],而且每次迭代时都需要重新启动Gibbs采样链,这降低了CD算法的训练性能.为此,Tieleman等以CD算法为基础,于2008年提出了持续对比散度(Persistent contrastive divergence,PCD)算法[14].在学习率足够小的前提下,每次参数更新后,RBM模型的变化不大,可以认为RBM网络分布基本不变.基于此假设,PCD算法只运行一条独立的采样链,以上次采样迭代的采样值作为下次采样迭代的初值继续迭代,而不是像CD算法那样每次采样都以样本数据为采样初值,取得了比CD算法更好的训练效果.为了加速PCD算法,Tieleman又于2009年提出了加速持续对比散度(Fast persistent contrastive divergence,FPCD)算法[15],引入了额外的加速参数来提高训练速度. PCD算法和FPCD算法虽然训练性能较CD算法有所提高,但并没有从本质上提高CD算法的混合率[16].不管是CD算法,还是以CD算法为基础的PCD算法、FPCD算法,都是通过一条Gibbs采样链来逼近目标分布,对于目标分布较简单的数据,可以取得较好的效果.但当数据分布复杂,尤其为多模分布时,即目标分布函数存在多个峰值,Gibbs采样链很容易陷入局部极小域,导致样本不能描述数据分布的整体结构[17].为克服这个问题,Desjardins (2010)等[18]、Cho (2010)等[19]、 Brakel (2012)等[20]等分别提出应用并行回火算法(Parallel tempering,PT)来训练RBM. PT算法并行化多条温度链,每条温度链上进行多步Gibbs迭代.高温链采样目标总体分布的结构信息,低温链采样目标局部分布的精确信息.不同温度链之间以一定的交换概率进行交换,不断迭代,最后低温链就可以精确获得目标分布的总体信息.对于多模分布数据,PT算法的训练效果要明显优于CD算法[21].

    通过以上描述可知,不管是CD算法还是PT算法,本质上都是以Gibbs采样来获得关于目标分布的采样样本.因此,Gibbs采样性能的优劣将直接影响以上算法的训练效果.本文研究发现,当采用多步Gibbs采样时,在训练初期会发生采样发散现象,严重影响网络收敛速度,而且算法运行速度较慢;当采用单步Gibbs采样时,前期网络收敛性质较好,且算法运行速度较快,但后期采样精度不高.如何在前期保证良好的收敛性质,同时在后期保证网络训练精度并提高算法运行速度,是目前基于Gibbs采样的RBM训练算法亟需解决的问题,从现有文献来看,尚无人对以上问题进行研究.因此,本文将从马尔科夫采样理论的角度对以上问题进行分析,并提出了动态Gibbs采样算法,最后给出了仿真验证.

    受限玻尔兹曼机是一个马尔科夫随机场模型[22],它具有两层结构,如图 1所示.下层为输入层,包含m个输入单元vi ,用来表示输入数据,每个输入单元包含一个实值偏置量ai ;上层为隐层,包含n个隐层单元hj ,表示受限玻尔兹曼机提取到的输入数据的特征,每个隐层单元包含一个实值偏置bj .受限玻尔兹曼机具有层内无连接,层间全连接的特点.即同层内各节点之间没有连线,每个节点与相邻层所有节点全连接,连线上有实值权重矩阵wij .这一性质保证了各层之间的条件独立性.

    图 1  RBM 结构
    Fig. 1  Con¯guration of RBM

    本文研究二值受限玻尔兹曼机[23],即随机变量(V,H)取值(v,h)∈{0,1}.由二值受限玻尔兹曼机定义的联合分布满足Gibbs分布 $P(v,h)=\frac{1}{{{Z}_{\theta }}}{{e}^{-{{E}_{\theta }}(v,h)}}$ ,其中θ为网络参数 $\theta =\{{{a}_{i}},{{b}_{j}},{{w}_{ij}}\}$ ,Eθ (v,h)为网络的能量函数:

    ${{E}_{\theta }}(v,h)=-\sum\limits_{i=1}^{n}{\sum\limits_{j=1}^{m}{{{w}_{ij}}{{v}_{i}}{{h}_{j}}}-\sum\limits_{i=1}^{m}{{{a}_{i}}{{v}_{i}}}-\sum\limits_{j=1}^{n}{{{b}_{j}}{{h}_{j}}}}$

    (1)

    Zθ为配分函数: ${{Z}_{\theta }}=\sum\limits_{v,h}{{{e}^{-{{E}_{\theta }}(v,h)}}}$ .输入层节点v的概率分布P(v)为: $P(v)=\frac{1}{{{Z}_{\theta }}}\sum\limits_{h}{{{e}^{-{{E}_{\theta }}(v,h)}}}$ .由受限玻尔兹曼机各层之间的条件独立性可知,当给定输入层数据时,输出层节点取值满足如下条件概率:

    $\begin{array}{*{35}{r}} P({{h}_{k}}=1|v)=\frac{1}{1+\exp (-{{b}_{j}}-\sum\limits_{i=1}^{n}{{{w}_{ij}}{{v}_{i}}})}= \\ sigmoid\left( {{b}_{j}}+\sum\limits_{i=1}^{n}{{{w}_{ij}}{{v}_{i}}} \right)\ \\ \end{array}$

    (2)

    相应地,当输出层数据确定后,输入层节点取值的条件概率为

    $\begin{array}{*{35}{r}} P({{h}_{k}}=1|v)=\frac{1}{1+\exp (-{{a}_{i}}-\sum\limits_{i=1}^{n}{{{w}_{ij}}{{h}_{j}}})}= \\ sigmoid\left( {{a}_{i}}+\sum\limits_{i=1}^{n}{{{w}_{ij}}{{h}_{j}}} \right)\ \\ \end{array}$

    (3)

    给定一组训练样本 $S=\{{{v}^{1}},{{v}^{2}},\cdots ,{{v}^{n}}\}$ ,训练RBM意味着调整参数θ,以拟合给定的训练样本,使得该参数下由相应RBM表示的概率分布尽可能地与训练数据的经验分布相符合.本文应用最大似然估计的方法对网络参数进行估计.这样,训练RBM的目标就是最大化网络的似然函数: ${{L}_{\theta ,w}}=\prod\limits_{i=1}^{n}{P({{v}^{i}})}$ .为简化计算,将其改写为对数形式: $\ln {{L}_{\theta ,w}}=\sum\limits_{i=1}^{n}{\ln P({{v}^{i}})}$ .进一步推导对数似然函数的参数梯度

    $\begin{align} & \frac{\partial \ln P(v)}{\partial {{a}_{i}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{a}_{i}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{a}_{i}}}={{v}_{i}}-\sum\limits_{v}{P(v){{v}_{i}}} \\ & \ \frac{\partial \ln P(v)}{\partial {{b}_{j}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{b}_{j}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{b}_{j}}}=P({{h}_{i}}=1|v)-\ \\ & \sum\limits_{v}{P(v)P({{h}_{i=1}}|v)} \\ & \ \frac{\partial \ln P(v)}{\partial {{w}_{ij}}}=-\sum\limits_{h}{P(h|v)}\frac{\partial E(v,h)}{\partial {{w}_{ij}}}+ \\ & \sum P(v,h)\frac{\partial E(v,h)}{\partial {{w}_{ij}}}=P({{h}_{j}}=1|v){{v}_{i}}-\ \\ & \sum\limits_{v}{P(v)P({{h}_{j=1}}|v){{v}_{i}}}\ \\ \end{align}$

    (4)

    得到对数似然函数的参数梯度后,可以由梯度上升法求解其最大值.但由于数据分布P(v)未知,且包含配分函数Zθ ,因此,无法给出梯度的解析解.现有训练算法主要是基于采样的方法,首先,构造以P(v) 为平稳分布的马尔科夫链,获得满足P(v)分布的样本;然后,通过蒙特卡洛迭代来近似梯度:

    $\begin{matrix} \begin{align} & \nabla {{a}_{i}}=v_{i}^{(0)}-v_{i}^{(k)} \\ & \ \nabla {{b}_{j}}=P({{h}_{j}}=1|{{v}^{(0)}})-P({{h}_{j}}=1|{{v}^{(k)}})\ \\ & \nabla {{w}_{ij}}=P({{h}_{j}}=1|{{v}^{(0)}})v_{i}^{(0)}-P({{h}_{j}}=1|{{v}^{(k)}})v_{i}^{(k)}\ \\ \end{align} \\ \end{matrix}$

    (5)

    其中,vi(0) 为样本值,vi(k)为通过采样获得的满足P(v)分布的样本.最后,参数更新方程如下:

    $\begin{matrix} \begin{align} & {{a}_{i}}={{a}_{i}}+\nabla {{a}_{i}} \\ & \ {{b}_{i}}={{b}_{i}}+\nabla {{b}_{i}}\ \\ & {{w}_{ij}}={{w}_{ij}}+\nabla {{w}_{ij}}\ \\ \end{align} \\ \end{matrix}$

    (6)

    现有RBM训练算法,包括CD_k算法、并行回火(PT)算法,这两类算法都是以Gibbs采样为基础的,都是通过多步Gibbs采样获得一定精度的目标采样,然后分别通过其他后续操作获得最终的目标梯度近似值. CD_k算法是RBM训练的主流算法,因此,本节以CD_k算法为例,通过仿真的方式,揭示了作为以上算法基本操作单元的Gibbs采样在网络训练过程中出现的问题,研究了它对网络收敛速度和训练精度的影响.

    首先给出 CD_k 算法的操作步骤:

    步骤 1. 设定网络参数初值.

    步骤 2.将训练数据输入到输入层节点,由式(2)对隐层节点值进行采样,

    步骤 3.根据式(3)对输入层节点进行采样.再以此采样值作为输入层节点的值重复步骤2,这样就完成了一步Gibbs采样.

    步骤 4. 步骤2和步骤3重复k次,完成k步Gibbs采样,即CD_k.

    步骤 5.将步骤4获得的采样值带入式(5)中,计算参数梯度.

    步骤 6. 将步骤5中获得的参数梯度带入式(6)中,对参数进行更新.

    步骤 7.更新训练数据,重复步骤 2~6,直到达到额定迭代次数.

    相应的伪代码如算法1所示:

    算法 1. CD_k 算法伪代码

    Input: RBM(V1,…,Vm,H1,…,H_n ),training batch S

    Output: wij,aj and bi for i=1,…,n,j=1,…,m

    1: Init ▽wij =▽aj=▽bi=0 for i=1,…,n,j=1,…,m

    2: For all the vS do

    3: v(0)v

    4: for t=0,…,k-1 do

    5: for i=1,…,n do sample hi(t)p(hi|v(t))

    6: for j=1,…,m do sample vj(t+1)~ p(vj|h(t))

    7: for i=1,…,n,j=1,…,m do

    8: ▽ wij =p(Hi =1|v(0)vj (0)-p(Hi =1|v(k)· vj(k)

    9: ▽aj=vj(0) -vj(k)

    10: ▽bi=p(Hi =1|v(0))-p(Hi =0|v(k))

    11: wij =wij +η▽wij

    12: ai =ai+η▽ai

    13: bi=bi+η▽bi

    14: End For

    其中,a为可见层偏置向量,b为隐层偏置向量,w为网络权值矩阵,η为学习率.

    1) 实验设计

    本文采用的数据集是MNIST数据集,它是二值手写数据集,也是目前训练RBM网络的标准数据集.它总共包含60 000个训练样本和10 000个测试样本,每个样本是一幅28像素×28像素的灰度图.所采用的RBM网络有784×500个节点,输入层有784个可见单元,对应灰度图的784个像素点;输出层有500个隐层节点,这是目前实验显示的训练效果较好的隐层节点数目.具体的网络参数初始值设定如表 1.

    表 1  网络参数初值
    Table 1  Initial value of parameters
    网络参数初始值
    a zeros(1, 784)
    b zeros(1, 500)
    w 0.1 × randn(784, 500)
    η 0.1
    下载: 导出CSV 
    | 显示表格

    本文设计了6组对比实验,用60000个训练样本对RBM进行训练,分别迭代1000次,如表 2所示.其中CD_k表示进行k步Gibbs迭代.用于显示的样本数据的原始图片如图 2所示.实验结束后,我们比较了各组实验的重构误差,并给出了最终的误差图.

    图 2  原始数据灰度图
    Fig. 2  Gray image of initial data
    表 2  实验分组
    Table 2  Experimental grouping
    数据集算法迭代次数
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    下载: 导出CSV 
    | 显示表格

    2) 仿真结果图 3表示整个迭代过程中各组CD算法的重构误差图,图 4给出了各组实验的训练时间,图 5图 10分别给出了各组实验的采样灰度图.

    图 3  重构误差图
    Fig. 3  Reconstruction error diagram
    图 4  运行时间图
    Fig. 4  Runtime diagram
    图 5  CD_1 采样灰度图
    Fig. 5  Gray image of CD_1 sampling
    图 6  CD_5 采样灰度图
    Fig. 6  Gray image of CD_5 sampling
    图 7  CD_10 采样灰度图
    Fig. 7  Gray image of CD_10 sampling
    图 8  CD_100 采样灰度图
    Fig. 8  Gray image of CD_100 sampling
    图 9  CD_500 采样灰度图
    Fig. 9  Gray image of CD_500 sampling
    图 10  CD_1000 采样灰度图
    Fig. 10  Gray image of CD_1000 sampling

    上节实验给出了CD算法在不同Gibbs采样步数下的仿真图,可以看出,当RBM网络采用多步Gibbs算法进行采样迭代时,会出现如下问题:

    问题 1.训练初始阶段,得到的每幅重构采样图几乎完全相同.

    图 11图 12所示,在训练初始阶段,多步Gibbs采样出现了各组采样数据同分布的现象,这表明各组样本几乎完全相同,这与事实相左.在训练初期,大约0~100次迭代期间,这种现象持续存在.

    图 11  CD_500 采样灰度图
    Fig. 11  Gray image of CD_500 sampling
    图 12  CD_1000 采样灰度图
    Fig. 12  Gray image of CD_1000 sampling

    问题 2. 采样误差分布集中,在批量训练时,存在全0全1现象.

    图 13图 14所示,当进行多步Gibbs采样时,出现了误差分布集中的现象:有些样本采样几乎全为1,而其他的样本采样几乎全为0.由仿真实验可知,在0~100次迭代期间,这种现象在迭代初期持续存在.

    图 13  CD_500 采样灰度图
    Fig. 13  Gray image of CD_500 sampling
    图 14  CD_1000 采样灰度图
    Fig. 14  Gray image of CD_1000 sampling

    问题3.一步Gibbs采样初始误差小,训练速度快,但后期训练精度低;多步Gibbs采样初始误差大,训练速度慢,但后期训练精高.

    图 15图 16所示,只进行一步Gibbs采样的CD_1算法在开始时训练误差较小,很快便收敛到较好值,但训练后期精度不如CD_10等进行多步Gibbs迭代的CD算法;进行多步Gibbs采样的CD_k迭代算法,在训练初期误差较大,且不断振荡,而且训练时间较慢,但到训练后期,它们可以达到极高的精度.

    以上实验表明,CD算法虽然对RBM具有良好的训练能力,但Gibbs采样的步数对训练性能造成了明显的影响.我们将在下节研究这种影响,并对以上问题给出理论分析.

    图 15  采样误差局部放大图
    Fig. 15  Local enlarged drawing of reconstruction error in initial phase
    图 16  CD_1000 采样误差局部放大图
    Fig. 16  Local enlarged drawing of reconstruction error in later stage

    Gibbs采样是马尔科夫链蒙特卡洛(Markov chain Monte Carlo,MCMC)采样算法的一种.在RBM训练中,它的转移核是Sigmoid函数.隐层节点和输入层节点交替采样,公式如下:

    $\begin{array}{*{35}{l}} \begin{align} & P({{h}_{j}}=1|V)=sigmoid({{b}_{j}}+\sum\limits_{i=1}^{n}{{{w}_{i,j}}{{v}_{i}}})\ \\ & P({{v}_{i}}=1|H)=sigmoid({{a}_{i}}+\sum\limits_{i=1}^{n}{{{w}_{i,j}}{{h}_{j}}})\ \\ \end{align} \\ \end{array}$

    (7)

    由马尔科夫链收敛定理可知,当n→ +∞ 时,Gibbs采样链会收敛到平衡分布,即:

    ${{\pi }_{i}}(x)={{\pi }_{i-1}}(x)P={{\pi }_{0}}{{P}^{n}}$

    (8)

    其中,π(x)为样本x的平衡分布.同时,由细致平衡准则可得:

    $\pi (i){{P}_{ij}}=\pi (j){{P}_{ji}},\ \ \forall i,j$

    (9)

    即Gibbs采样的平稳分布与迭代初始值无关,只与转移概率有关.由上面给出的RBM交替采样概率公式可知,当用Gibbs采样对RBM进行采样训练时,其平稳分布是网络参数的函数:

    $\pi (x)=f(a,b,w)$

    (10)

    从这个角度讲,训练RBM的目的就是调节网络参数,使由网络参数确定的平稳分布等于样本的真实分布.

    基于以上描述,下面对第2节中提出的问题给出理论解释.

    问题1. 训练初始阶段,得到的每幅重构采样图几乎完全相同.

    初始时刻,网络参数初值相同,在早期迭代过程中,网络参数值的变动也不大,满足如下公式:

    $\left\{ \begin{array}{*{35}{l}} \begin{align} & {{a}_{i}}-{{a}_{j}}﹤\varepsilon \\ & \ {{b}_{i}}-{{b}_{j}}﹤\varepsilon \ \\ & {{w}_{i}}={{w}_{j}}\ \\ \end{align} \\ \end{array} \right.\ \ \ \ $

    (11)

    ε为一极小正值.由网络参数决定的平稳分布也近乎相同:

    $\begin{align} & f({{a}_{i}},{{b}_{i}},w)\approx f({{a}_{j}},{{b}_{j}},w)\Rightarrow \\ & \ \pi ({{x}_{i}})\approx \pi ({{x}_{j}})\ \\ \end{align}$

    (12)

    即各样本的平稳分布相等.因此,当进行多步Gibbs采样时,各训练样本的采样样本逐渐收敛到相同的平稳分布,这时就出现了问题1描述的现象,各样本的重构采样图几乎完全相同.

    问题2. 采样误差分布集中,在批量训练时,存在全0全1现象.

    由上一部分分析可知,在训练初期,网络参数改变不大,由RBM参数决定的平衡分布几乎同构,即各采样概率收敛到相同平衡分布值.上述对比实验中,网络参数的初始值为θ =(a,b,w)=(0,0,0.1),此时网络平衡分布收敛在0.5附近,样本数据的收敛概率将在0.5附近浮动,即一部分样本的采样概率略小于0.5,另一部分样本的采样概率略大于0.5,即:

    $\begin{align} & \pi (\theta )\to 0.5\ \\ & p({{v}_{i}}|H)=0.5+\varepsilon \\ & \ p({{v}_{n-i}}|H)=0.5-\varepsilon \ \\ \end{align}$

    (13)

    其中,ε为一极小正值.这时基于随机数对样本进行采样,一部分样本的采样值将全为0,另一部分的采样值将全为1,即全0全1现象.

    问题3.一步Gibbs采样初始误差小,训练速度快,但后期训练精度低;多步Gibbs采样初始误差大,训练速度慢,但后期训练精高.

    设网络参数期望值为 $\hat{\theta }=\left( \hat{a},\hat{b},\hat{w} \right)$ ,它代表参数的真实值:设网络参数实际值为θ =(a,b,w),这是我们在训练网络过程中,网络参数的实际值,训练的目标就是使网络参数实际值逐渐逼近其真实值.定义网络参数差△θ(△a,△b,△w):

    $\begin{array}{*{35}{l}} \begin{align} & \Delta a=\hat{a}-a\ \\ & \Delta b=\hat{b}-b\ \\ & \Delta w=\hat{w}-w\ \\ \end{align} \\ \end{array}$

    (14)

    在网络训练早期,网络参数差较大,由网络参数定义的平稳分布与真实分布相差也较大,即 $\Delta \pi =\left| {{\pi }_{{\hat{\theta }}}}(x)-{{\pi }_{\theta }}(x) \right|\gg 0$ .此时,如果对样本进行多步迭代采样,采样样本将偏离真实分布,从而不能收敛到真实分布,而是收敛到与真实分布相差较大的其他分布.因此,在迭代初期,CD_1000、CD_500等算法的采样误差非常大,而且运行时间较长.而CD_1算法由于只进行了一次采样迭代,不仅运行速度加快,而且由于采样样本的分布没有偏离真实分布太多,使得这时候的CD_1算法的采样误差非常小.由实验可知,此时采样误差的大小关系为:CD_1﹤CD_5﹤CD_10﹤CD_100﹤CD_500﹤CD_1000.到了网络训练后期,由于网络参数差非常小,网络参数的实际值已经非常接近真实值,这时候进行多步Gibbs迭代能很好地逼近样本真实分布,所以这一阶段,CD_k算法的采样精度要比CD_1高.但由于网络参数差一直存在,所以,Gibbs迭代步数也不宜过高,如实验所示,CD_1000在采样到最后,采样误差仍高于CD_10.

    在现有以Gibbs采样为基础的RBM训练算法中,Gibbs采样的采样步数多为固定值,即在整个训练过程中,每次迭代采样时都进行固定步数的Gibbs采样,这样就难以兼顾训练精度和训练速度这两个训练指标.当进行多步Gibbs采样时,容易在训练前期发生误差发散的现象,且算法运行时间较长;一步Gibbs采样算法运行较快,但后期训练精度不高,基于此,本文提出了动态Gibbs采样(Dynamic Gibbs sampling,DGS)算法.

    定义1.动态Gibbs采样是指在迭代训练过程中的不同阶段,根据网络的训练误差,动态地调整Gibbs采样的步数,以达到最优训练效果.

    通过上节分析可知,在网络训练初期,网络参数几乎相等,各样本的平稳分布也近乎相等,而且网络参数差较大,样本的平稳分布与真实分布相差也较大,因此,这一阶段应尽量减少采样次数,克服多步Gibbs采样引起的误差发散,提高训练速度,使网络参数尽快逼近真实值;当网络参数逼近真实值时,此时应加大采样迭代次数,提高训练精度.

    基于以上定义和描述,DGS算法的操作步骤如下:

    步骤 1. 设定网络参数初值和动态策略M.

    步骤 2. 在1~m1 迭代范围内,设置Gibbs采样步数k1 =Gibbs_N1 .

    步骤 3. 将训练数据输入到输入层节点,由式(2)对隐层节点值进行采样.

    步骤 4. 根据式(3)对输入层节点进行采样.再以此采样值作为输入层节点的值重复步骤3,这样就完成了一步Gibbs采样.

    步骤 5. 步骤3和步骤4重复k1 次,完成k1步Gibbs采样.

    步骤 6. 将步骤5获得的采样值带入式(5)中,计算参数梯度.

    步骤 7. 将步骤6中获得的参数梯度带入式(6)中,对参数进行更新.

    步骤 8. 更新训练数据,重复步骤3到步骤7,直到迭代次数达到m1 .

    步骤 9.m1m2 迭代范围内,设置Gibbs采样步数k2 =Gibbs_N2 .

    步骤 10. 重复步骤3到步骤8,直到迭代次数达到m2 .

    步骤 11.m2Iter迭代范围内,设置Gibbs采样步数k3 =Gibbs_N3 .

    步骤 12. 重复步骤3到步骤8,直到迭代次数达到最大迭代次数Iter.

    相应的伪代码如算法2所示.

    算法2. DGS 算法伪代码

    1: Input: RBM(v1 ,v2 ,v3 ,…,vn ,h1 ,h2 ,h3 ,…,hm ),training batch S

    2: Output: wij ,ai andbj for i=1,…,n,j=1,…,m

    3: Init:▽wij =▽aj =▽bi =0 for i=1,…,n,j=1,…,m

    4: For all the S do

    5: for iter=1:m1 do

    6: for t=0,…,k-1 do Gibbs_N1

    7: for i=1,…,n do sample hi(t)p(hi|v(t))

    8: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    9: for iter=m1 :m2 do

    10: for t=0,…,k-1 do Gibbs_N2

    11: for i=1,…,n do sample hi(t)p(hi|v(t))

    12: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    13: for iter=m2:Iter do

    14: for t=0,…,k-1 do Gibbs_N3

    15: for i=1,…,n do sample hi(t)p(hi|v(t))

    16: for j=1,…,m do sample vj(t+1)p(vj|h(t))

    17: for i=1,…,n,j=1,…,m do

    18:▽wij =p(Hi =1| v(0)vj (0)-p(Hi=1|v(k)vj(k)

    19:▽aj =vj(0) -vj(k)

    20:▽bi=p(Hi=1|v(0))-p(Hi=0|v(k))

    21: wij =wij +η▽wij

    22: ai =ai +η▽ai

    23:bi=bi+η▽bi

    24: End For}

    其中,M=(m1 ,m2 )为动态策略,且满足m2 >m1 . Iter为总的迭代次数,iter为当前迭代次数. Gibbs_Ni为Gibbs采样,Ni 表示采样次数,且满足Nn >N_n-1 .其中Gibbs采样次数N与网络训练迭代次数M之间的大致关系如下:

    $\begin{align} & Gibbs\_{{N}_{1}}=1\ \ \ \ \ \ \ \ \ \ 若\ iter\in (1\tilde{\ }{{m}_{1}}>) \\ & \ Gibbs\_{{N}_{2}}=2\tilde{\ }10\ \ \ 若\ iter\in ({{m}_{1}}\tilde{\ }{{m}_{2}})\ \\ & Gibbs\_{{N}_{3}}>10\ \ \ \ \ \ \ \ \ 若\ iter\in ({{m}_{2}}\tilde{\ }Iter) \\ & \\ \end{align}$

    (15)

    本节设计了7组对比实验,第1~6组实验采用固定Gibbs采样步数的CD_k算法进行训练仿真,第6组实验用DGS算法对网络进行训练仿真,如表 3所示.两组实验使用相同的数据集MNIST,网络结构相同,网络参数初始值相同,如表 4所示.本文设计的动态采样策略如表 5所示.下面给出仿真实验结果和分析.

    表 3  实验分组
    Table 3  Experimental grouping
    数据集训练算法Iter
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    MNIST DGS1000
    下载: 导出CSV 
    | 显示表格
    表 4  网络参数初值
    Table 4  Initial values of parameters
    算法参数CD_k DGS
    a zeros(1,784) zeros(1,784)
    b zeros(1,500) zeros(1,500)
    w 0.1 × randn(784,500) 0.1 × randn(784,500)
    η0.10.1
    V784784
    H500500
    下载: 导出CSV 
    | 显示表格
    表 5  DGS 迭代策略
    Table 5  Iterative strategy of DGS
    M Gibbs_N
    (1:m1) = (1:300) Gibbs_N1 = 1
    (m1:m2) = (300:900) Gibbs_N2 = 5
    (m2:Iter) = (900:1000) Gibbs_N3 = 10
    下载: 导出CSV 
    | 显示表格

    图 17给出了所有算法的重构误差对比图.对比结果显示,本文设计的DGS算法可以很好地训练RBM网络,从而证明了本文算法的有效性.

    图 17  重构误差对比图
    Fig. 17  Contrast of reconstruction error

    在迭代初期,DGS算法只进行一次Gibbs采样迭代,避免了采样发散,从而迅速收敛到较好的值,由误差对比图初始阶段的局部放大图(图 18)可以看出,此时误差满足:

    图 18  训练初期局部放大图
    Fig. 18  Local enlarged drawing of reconstruction error in initial phase

    $\begin{align} & \text{DGS= CD }\!\!\_\!\!\text{ 1}\succ \text{CD5}\succ \text{CD }\!\!\_\!\!\text{ 10}\succ \text{CD }\!\!\_\!\!\text{ 100}\succ \\ & \text{CD }\!\!\_\!\!\text{ 500}\succ \text{CD }\!\!\_\!\!\text{ 1000} \\ & \\ \end{align}$

    (16)

    在迭代后期,网络参数值已非常接近真实值,此时DGS逐步增大了Gibbs采样的迭代步数,获得了采样精度更高的目标样本,最终获得了更高的训练精度,即:

    $\begin{align} & \text{DGS= CD }\!\!\_\!\!\text{ 10}\succ \text{CD }\!\!\_\!\!\text{ 5}\succ \text{CD }\!\!\_\!\!\text{ 1}\succ \text{CD }\!\!\_\!\!\text{ 100}\succ \\ & \text{CD }\!\!\_\!\!\text{ 500}\succ \text{CD }\!\!\_\!\!\text{ 1000} \\ & \\ \end{align}$

    (17)

    图 19所示.

    图 19  训练后期局部放大图
    Fig. 19  Local enlarged drawing of reconstruction error in later stage

    图 20给出了所有算法的运行时间对比图.从图中可以看出,在整个训练过程中,DGS算法、CD_1算法、CD_5算法和CD_10算法的运行速度都明显比其他算法快.因此,下面根据本文设计的动态策略,对各个迭代区间内这4种算法的运行速度进行分析:

    图 20  运行时间对比图
    Fig. 20  Contrast of runtime

    在1~300迭代范围内,DGS算法的Gibbs采样步数k设为1,与CD_1算法相同.所以,此时的DGS算法的运行速度与CD_1相同,且快于其他两种算法,如图 21所示.

    图 21  运行时间对比图
    Fig. 21  Contrast of runtime

    在300~900迭代范围内,DGS算法的Gibbs采样步数k设为5.由图 22可以看出,此时DGS算法的运行速度逐渐放缓,运行时间明显上升,逐渐大于CD_1算法.

    图 22  运行时间对比图
    Fig. 22  Contrast of runtime

    在900~1000迭代范围内,DGS算法的Gibbs采样步数k设为10.所以,这个时期的DGS运行时间持续放缓.但从图 23中可以看出,即便到了训练后期,DGS算法的运行时间仍然小于CD_5算法和其他CD_k (k>5)算法.这说明,DGS算法在后期提高训练精度的同时,只付出了微小的时间代价.

    图 23  运行时间对比图
    Fig. 23  Contrast of runtime

    图 24图 28分别给出了DGS算法在不同迭代次数下的采样重构图.对比图 11图 12,可以看出,DGS在训练迭代50次以内就可以很好地重构输入样本,而且没有出现全0全1现象和采样图同构现象,从而克服了第2.2节问题1和问题2中描述的问题.

    图 24  DGS 迭代10次采样灰度图
    Fig. 24  Gray image of DGS by 10 iterations
    图 25  DGS 迭代20次采样灰度图
    Fig. 25  Gray image of DGS by 20 iterations
    图 26  DGS 迭代30次采样灰度图
    Fig. 26  Gray image of DGS by 30 iterations
    图 27  DGS 迭代40次采样灰度图
    Fig. 27  Gray image of DGS by 40 iterations
    图 28  DGS 迭代50次采样灰度图
    Fig. 28  Gray image of DGS by 50 iterations

    图 29显示了DGS训练结束后的重构灰度图,图中几乎没有噪点.可见,采用DGS算法训练网络可以获得更高的训练精度,从而解决了第2.2节中问题3描述的问题.

    图 29  DGS 重构灰度图
    Fig. 29  Gray image of DGS

    综上所述,本文设计的DGS算法在训练初期克服了多步Gibbs采样发散的缺点,在训练后期获得更高的精度,而且在保证收敛精度的情况下大幅度提高了训练速度,获得了较好的效果.

    本文首先通过仿真实验,给出了现有基于Gibbs采样的RBM训练算法在训练初期误差发散和后期训练精度不高等问题的具体描述,然后从马尔科夫采样理论的角度对Gibbs采样误差进行理论分析.证明在RBM网络下,多步Gibbs采样较差的收敛性质是导致前期采样发散和算法运行速度较低的主要原因;单步Gibbs采样是造成后期训练精度不高的主要原因.基于此,本文提出了动态Gibbs采样算法,并给出了验证实验.实验表明,本文提出的动态Gibbs采样算法在训练初期克服了多步Gibbs采样引起的误差发散,后期克服了单步Gibbs采样带来的训练精度低的问题,同时提高了训练速度,以上特点可以弥补现有以Gibbs采样为基础的RBM训练算法的不足.

    关于Gibbs采样步数、训练迭代次数与训练精度之间的关系,本文在理论分析部分只给出了定性分析;在动态Gibbs采样算法设计阶段,本文只是根据实验分析,给出Gibbs采样步数和训练迭代次数之间的经验区间. Gibbs采样步数、训练迭代次数以及网络训练精度之间是否存在精确的数学关系,如果存在,其数学模型如何构建.以上问题仍有待进一步研究.

  • 图  1  RBM 结构

    Fig.  1  Con¯guration of RBM

    图  2  原始数据灰度图

    Fig.  2  Gray image of initial data

    图  3  重构误差图

    Fig.  3  Reconstruction error diagram

    图  4  运行时间图

    Fig.  4  Runtime diagram

    图  5  CD_1 采样灰度图

    Fig.  5  Gray image of CD_1 sampling

    图  6  CD_5 采样灰度图

    Fig.  6  Gray image of CD_5 sampling

    图  7  CD_10 采样灰度图

    Fig.  7  Gray image of CD_10 sampling

    图  8  CD_100 采样灰度图

    Fig.  8  Gray image of CD_100 sampling

    图  9  CD_500 采样灰度图

    Fig.  9  Gray image of CD_500 sampling

    图  10  CD_1000 采样灰度图

    Fig.  10  Gray image of CD_1000 sampling

    图  11  CD_500 采样灰度图

    Fig.  11  Gray image of CD_500 sampling

    图  12  CD_1000 采样灰度图

    Fig.  12  Gray image of CD_1000 sampling

    图  13  CD_500 采样灰度图

    Fig.  13  Gray image of CD_500 sampling

    图  14  CD_1000 采样灰度图

    Fig.  14  Gray image of CD_1000 sampling

    图  15  采样误差局部放大图

    Fig.  15  Local enlarged drawing of reconstruction error in initial phase

    图  16  CD_1000 采样误差局部放大图

    Fig.  16  Local enlarged drawing of reconstruction error in later stage

    图  17  重构误差对比图

    Fig.  17  Contrast of reconstruction error

    图  18  训练初期局部放大图

    Fig.  18  Local enlarged drawing of reconstruction error in initial phase

    图  19  训练后期局部放大图

    Fig.  19  Local enlarged drawing of reconstruction error in later stage

    图  20  运行时间对比图

    Fig.  20  Contrast of runtime

    图  21  运行时间对比图

    Fig.  21  Contrast of runtime

    图  22  运行时间对比图

    Fig.  22  Contrast of runtime

    图  23  运行时间对比图

    Fig.  23  Contrast of runtime

    图  24  DGS 迭代10次采样灰度图

    Fig.  24  Gray image of DGS by 10 iterations

    图  25  DGS 迭代20次采样灰度图

    Fig.  25  Gray image of DGS by 20 iterations

    图  26  DGS 迭代30次采样灰度图

    Fig.  26  Gray image of DGS by 30 iterations

    图  27  DGS 迭代40次采样灰度图

    Fig.  27  Gray image of DGS by 40 iterations

    图  28  DGS 迭代50次采样灰度图

    Fig.  28  Gray image of DGS by 50 iterations

    图  29  DGS 重构灰度图

    Fig.  29  Gray image of DGS

    表  1  网络参数初值

    Table  1  Initial value of parameters

    网络参数初始值
    a zeros(1, 784)
    b zeros(1, 500)
    w 0.1 × randn(784, 500)
    η 0.1
    下载: 导出CSV

    表  2  实验分组

    Table  2  Experimental grouping

    数据集算法迭代次数
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    下载: 导出CSV

    表  3  实验分组

    Table  3  Experimental grouping

    数据集训练算法Iter
    MNIST CD_11000
    MNIST CD_51000
    MNIST CD_101000
    MNIST CD_1001000
    MNIST CD_5001000
    MNIST CD_10001000
    MNIST DGS1000
    下载: 导出CSV

    表  4  网络参数初值

    Table  4  Initial values of parameters

    算法参数CD_k DGS
    a zeros(1,784) zeros(1,784)
    b zeros(1,500) zeros(1,500)
    w 0.1 × randn(784,500) 0.1 × randn(784,500)
    η0.10.1
    V784784
    H500500
    下载: 导出CSV

    表  5  DGS 迭代策略

    Table  5  Iterative strategy of DGS

    M Gibbs_N
    (1:m1) = (1:300) Gibbs_N1 = 1
    (m1:m2) = (300:900) Gibbs_N2 = 5
    (m2:Iter) = (900:1000) Gibbs_N3 = 10
    下载: 导出CSV
  • [1] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5786): 504-507
    [2] Le Roux N, Heess N, Shotton J, Winn J. Learning a generative model of images by factoring appearance and shape. Neural Computation, 2011, 23(3): 593-650
    [3] 苏连成,朱枫. 一种新的全向立体视觉系统的设计. 自动化学报, 2006, 32(1): 67-72

    Su Lian-Cheng, Zhu Feng. Design of a novel omnidirectional stereo vision system. Acta Automatica Sinica, 2006, 32(1): 67-72
    [4] Bengio Y. Learning deep architectures for AI. Foundations and Trends® in Machine Learning, 2009, 2(1): 1-127
    [5] Deng L, Abdel-Hamid O, Yu D. A deep convolutional neural network using heterogeneous pooling for trading acoustic invariance with phonetic confusion. In: Proceedings of the 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver, BC: IEEE, 2013. 6669-6673
    [6] Deng L. Design and learning of output representations for speech recognition. In: Proceedings of the Neural Information Processing Systems (NIPS) Workshop on Learning Output Representations[Online], available: http://research.microsoft.com/apps/pubs/default.aspx?id=204702, July 14, 2015
    [7] Chet C C, Eswaran C. Reconstruction and recognition of face and digit images using autoencoders. Neural Computing and Applications, 2010, 19(7): 1069-1079
    [8] Deng L, Hinton G, Kingsbury B. New types of deep neural network learning for speech recognition and related applications: an overview. In: Proceedings of the 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Vancouver, BC: IEEE, 2013. 8599-8603
    [9] Erhan D, Courville A, Bengio Y, Vincent P. Why does unsupervised pre-training help deep learning? In: Proceedings of the 13th International Conference on Artificial Intelligence and Statistics (AISTATS 2010). Sardinia, Italy, 2010. 201-208
    [10] Salakhutdinov R, Hinton G. Deep Boltzmann machines. In: Proceedings of the 12th International Conference on Artificial Intelligence and Statistics (AISTATS 2009). Florida, USA, 2009. 448-455
    [11] Swersky K, Chen B, Marlin B, de Freitas N. A tutorial on stochastic approximation algorithms for training restricted Boltzmann machines and deep belief nets. In: Proceedings of the 2010 Information Theory and Applications Workshop (ITA). San Diego, CA: IEEE, 2010. 1-10
    [12] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7): 1527-1554
    [13] Fischer A, Igel C. Bounding the bias of contrastive divergence learning. Neural Computation, 2011, 23(3): 664-673
    [14] Tieleman T. Training restricted Boltzmann machines using approximations to the likelihood gradient. In: Proceedings of the 25th International Conference on Machine Learning (ICML). New York: ACM, 2008. 1064-1071
    [15] Tieleman T, Hinton G E. Using fast weights to improve persistent contrastive divergence. In: Proceedings of the 26th Annual International Conference on Machine Learning (ICML). New York: ACM, 2009. 1033-1040
    [16] Sutskever I, Tieleman T. On the convergence properties of contrastive divergence. In: Proceedings of the 13th International Conference on Artificial Intelligence and Statistics (AISTATS 2010). Sardinia, Italy, 2010. 789-795
    [17] Fischer A, Igel C. Parallel tempering, importance sampling, and restricted Boltzmann machines. In: Proceedings of 5th Workshop on Theory of Randomized Search Heuristics (ThRaSH),[Online], available: http://www.imm.dtu.dk/projects/thrash-workshop/schedule.php, August 20, 2015
    [18] Desjardins G, Courville A, Bengio Y. Adaptive parallel tempering for stochastic maximum likelihood learning of RBMs. In: Proceedings of NIPS 2010 Workshop on Deep Learning and Unsupervised Feature Learning. Granada, Spain, 2010.
    [19] Cho K, Raiko T, Ilin A. Parallel tempering is efficient for learning restricted Boltzmann machines. In: Proceedings of the WCCI 2010 IEEE World Congress on Computational Intelligence. Barcelona, Spain: IEEE, 2010. 3246-3253
    [20] Brakel P, Dieleman S, Schrauwen B. Training restricted Boltzmann machines with multi-tempering: harnessing parallelization. In: Proceedings of the 22nd International Conference on Artificial Neural Networks. Lausanne, Switzerland: Springer, 2012. 92-99
    [21] Desjardins G, Courville A, Bengio Y, Vincent P, Delalleau O. Tempered Markov chain Monte Carlo for training of restricted Boltzmann machines. In: Proceedings of the 13th International Conference on Artificial Intelligence and Statistics (AISTATS 2010). Sardinia, Italy, 2010. 145-152
    [22] Fischer A, Igel C. Training restricted Boltzmann machines: an introduction. Pattern Recognition, 2014, 47(1): 25-39
    [23] Hinton G E. A practical guide to training restricted Boltzmann machines. Neural Networks: Tricks of the Trade (2nd Edition). Berlin Heidelberg: Springer, 2012. 599-619
  • 期刊类型引用(16)

    1. 张成,吕莹. 基于双路LDA的在线学习课程评价分析研究. 信息技术与信息化. 2024(02): 52-57 . 百度学术
    2. 汪强龙,高晓光,吴必聪,胡子剑,万开方. 受限玻尔兹曼机及其变体研究综述. 系统工程与电子技术. 2024(07): 2323-2345 . 百度学术
    3. 卿会,郭军红,李薇,亢朋朋,王金明,潘张榕. 利用SVM-LSTM-DBN的短期光伏发电预测方法. 华侨大学学报(自然科学版). 2022(03): 371-378 . 百度学术
    4. 魏立新,王恒,孙浩,呼子宇. 基于改进深度信念网络训练的冷轧轧制力预报. 计量学报. 2021(07): 906-912 . 百度学术
    5. 郝占军,段渝,党小超,曹渊. 基于信道状态信息的人体复杂动作识别方法. 计算机工程. 2020(01): 286-293 . 百度学术
    6. 常怀文,陈浩文,张宜. 消费者视角下电商发展前景的挖掘与分析——以亚马逊市场为例. 特区经济. 2020(05): 89-94 . 百度学术
    7. 李维乾,张艺,郑振峰,王海,张紫云. 基于多属性的动态采样协同过滤推荐算法. 计算机应用研究. 2020(09): 2640-2644+2683 . 百度学术
    8. 魏乐,张云娟. 基于改进深度信念网络的旋转机械故障诊断研究. 华北电力大学学报(自然科学版). 2020(06): 99-106 . 百度学术
    9. 刘仲民,翟玉晓,张鑫,周静龙. 基于DBN-IFCM的变压器故障诊断方法. 高电压技术. 2020(12): 4258-4265 . 百度学术
    10. 党小超,唐续豪,郝占军. 基于受限玻尔兹曼机的CSI指纹室内定位方法. 计算机工程与设计. 2019(05): 1264-1270 . 百度学术
    11. 史科,陆阳,刘广亮,毕翔,王辉. 基于多隐层Gibbs采样的深度信念网络训练方法. 自动化学报. 2019(05): 975-984 . 本站查看
    12. 刘家学,尹鹏. 改进深度信念网络在飞机下降段油耗估计中的应用. 计算机应用与软件. 2019(08): 69-74 . 百度学术
    13. 曲媛媛,宫莉莹,贺维. 一种RNN-DBN的网络购物风险评估方法. 哈尔滨理工大学学报. 2019(04): 105-109 . 百度学术
    14. 高晓光,李新宇,岳勐琪,张金辉,赵利强,吴高峰,李飞. 基于深度学习的地空导弹发射区拟合算法. 航空学报. 2019(09): 238-251 . 百度学术
    15. 周贤泉,宋威. 基于狼群算法的DBN网络结构确定方法研究. 微电子学与计算机. 2018(07): 28-34 . 百度学术
    16. 王盈旭,韩红桂,郭民. 一种基于改进型深度学习的非线性建模方法. 信息与控制. 2018(06): 680-686 . 百度学术

    其他类型引用(18)

  • 加载中
图(29) / 表(5)
计量
  • 文章访问数:  2194
  • HTML全文浏览量:  413
  • PDF下载量:  1556
  • 被引次数: 34
出版历程
  • 收稿日期:  2015-10-19
  • 录用日期:  2016-05-03
  • 刊出日期:  2016-06-20

目录

/

返回文章
返回