2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

人工智能研究的新前线:生成式对抗网络

林懿伦 戴星原 李力 王晓 王飞跃

郑文博, 王坤峰, 王飞跃. 基于贝叶斯生成对抗网络的背景消减算法. 自动化学报, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562
引用本文: 林懿伦, 戴星原, 李力, 王晓, 王飞跃. 人工智能研究的新前线:生成式对抗网络. 自动化学报, 2018, 44(5): 775-792. doi: 10.16383/j.aas.2018.y000002
ZHENG Wen-Bo, WANG Kun-Feng, WANG Fei-Yue. Background Subtraction Algorithm With Bayesian Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562
Citation: LIN Yi-Lun, DAI Xing-Yuan, LI Li, WANG Xiao, WANG Fei-Yue. The New Frontier of AI Research: Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 775-792. doi: 10.16383/j.aas.2018.y000002

人工智能研究的新前线:生成式对抗网络

doi: 10.16383/j.aas.2018.y000002
基金项目: 

国家自然科学基金 61702519

北京市科技项目 D17110600030000

国家自然科学基金 61533019

北京市科技项目 ZC179074Z

详细信息
    作者简介:

    林懿伦  中国科学院自动化研究所复杂系统管理与控制国家重点实验室博士研究生.主要研究方向为社会计算, 智能交通系统和智能汽车, 深度学习和强化学习.E-mail:linyilun2014@ia.ac.cn

    戴星原  中国科学院自动化研究所复杂系统管理与控制国家重点实验室博士研究生.主要研究方向为智能交通系统, 机器学习和深度学习.E-mail:daixingyuan2015@ia.ac.cn

    王晓  中国科学院自动化研究所复杂系统管理与控制国家重点实验室助理研究员.主要研究方向为社会计算, 社会网络结构分析及其内容挖掘, 知识自动化, 人工智能, 平行驾驶.E-mail:x.wang@ia.ac.cn

    王飞跃  中国科学院自动化研究所复杂系统管理与控制国家重点实验室研究员.国防科学技术大学军事计算实验与平行系统技术研究中心主任.主要研究方向为智能系统和复杂系统的建模、分析与控制.E-mail:feiyue.wang@ia.ac.cn

    通讯作者:

    李力  清华大学自动化系副教授.主要研究方向为人工智能和机器学习, 智能交通系统和智能汽车.本文通信作者.E-mail:li-li@tsinghua.edu.cn

The New Frontier of AI Research: Generative Adversarial Networks

Funds: 

National Natural Science Foundation of China 61702519

Beijing Municipal Science and Technology Commission Program D17110600030000

National Natural Science Foundation of China 61533019

Beijing Municipal Science and Technology Commission Program ZC179074Z

More Information
    Author Bio:

     Ph. D. candidate at the State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. His research interest covers social computing, intelligent transportation systems and intelligent vehicles, deep learning and reinforcement learning

     Ph. D. candidate at the State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. His research interest covers intelligent transportation systems, machine learning and deep learning

       Assistant researcher at the State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. Her research interest covers social computing, knowledge automation, artificial intelligence, and parallel driving

     Professor at the State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. Director of the Research Center for Computational Experiments and Parallel Systems Technology, National University of Defense Technology. His research interest covers modeling, analysis, and control of intelligent systems and complex systems

    Corresponding author: LI Li  Associate professor at the Department of Automation, Tsinghua University. His research interest covers artificial intelligence and machine learning, intelligent transportation systems and intelligent vehicles. Corresponding author of this paper
  • 摘要: 生成式对抗网络(Generative adversarial networks,GAN)是当前人工智能学界最为重要的研究热点之一.其突出的生成能力不仅可用于生成各类图像和自然语言数据,还启发和推动了各类半监督学习和无监督学习任务的发展.本文概括了GAN的基本思想,并对近年来相关的理论与应用研究进行了梳理,总结了GAN常见的网络结构与训练方法,博弈形式,集成方法,并对一些应用场景进行了介绍.在此基础上,本文对GAN发展的内在逻辑进行了归纳总结.
  • 形状匹配一直都是计算机视觉领域中的重要研究问题, 其经过几十年发展已经得到了很多成熟有效的方法, 在目标识别、图像检索、医学成像分析等众多领域都得到了广泛的应用[1-2].形状匹配结果一般表示为形状距离, 一对相似形状对应的形状距离通常较小, 反之两个不相似形状对应的距离往往较大[3].

    逐对形状匹配方法由形状特征提取和形状特征匹配两个步骤组成, 其专注于分析两个待匹配形状间的关系来计算距离[4].但是很多情况下, 仅考虑一对形状间相似程度往往难以分析得到准确的匹配结果[5-6]. 图 1给出了一组利用逐对形状匹配方法可能产生错误匹配结果的示例 ( $A$ 为狗, $B$ 和 $C$ 为马).由于 $A$ 与 $B$ 的姿态比较接近, 逐对形状匹配方法通常分析得到 $AB$ 间距离小于 $BC$ 间距离, 与实际分类结果不符.当相同类别形状差异较大、不同类别形状差异较小时, 通过分析数据集中蕴含的流形信息可以较为有效地改善匹配结果.鉴于此, 近些年很多研究都在逐对形状匹配方法后引入距离度量学习作为后处理步骤, 经过该步骤后可以得到新的``相似度''、``距离''或``排序''结果, 从而改善逐对形状匹配方法得到的距离.改进后得到形状匹配方法框架如图 2所示.

    图 1  逐对形状匹配方法可能导致错误结果的示例
    Fig. 1  An example of misunderstanding of objects caused by pairwise shape matching methods
    图 2  形状匹配方法框架
    Fig. 2  The framework for shape matching methods

    在形状距离学习的研究中, Bai等[5, 7]首先引入半监督学习中的标记传播算法 (Label propagation, LP) 对逐对形状匹配的结果进行改进.在样本空间中, 形状标记可以沿测地线路径方向快速传播, 因此标记传播方法能够隐式地分析样本空间中的流形信息. Yang等[6]提出了基于局部约束扩散过程 (Locally constrained diffusion process, LCDP) 的形状距离学习算法.该方法首先对原始形状集合进行扩展, 在此基础上建立具有约束条件的扩散图, 进而选择扩散距离作为距离更新结果.文献[8-9]也应用该算法对不同的形状匹配结果进行距离学习, 取得了较好结果. Egozi等[10]也提出了一种基于元描述符 (Meta descriptor, MD) 的形状距离学习方法.元描述符是以相似度空间中 $K$ 近邻权重生成的矢量特征, 利用 $L_1$ 范数计算可得更新后的形状间距离.文献[11]提出在张量积图 (Tensor product graph, TPG) 的基础上分析扩散过程, 由于引入了更高阶的信息, 因此得到了更可靠的目标间相似度. Donoser等[12]对距离学习方法进行了总结回顾, 并在扩散过程框架下提出了更加有效的距离学习方法.文献[13]引入期望首达时间 (Mean first-passage time, MFPT) 对逐对形状匹配结果进行分析, 以完成状态转移所需的平均时间步长作为形状距离学习结果, 能够较为有效地挖掘空间流形结构信息.

    上述距离学习方法都尝试隐式地挖掘样本空间拓扑结构, 虽然能较好地分析局部空间信息, 但很难准确描述相距较远的同类样本间相似程度.当样本空间中一对同类别目标距离较远时, 空间流形对应的检索路径上通常会包含许多样本点.这可能导致标记信息在传播过程中衰减较快, 难以有效地影响到距离较远的同类样本.对于期望首达时间而言, 这一情形可能导致完成状态转移所需的平均时间步长较大, 不能得到理想的形状距离更新结果.

    针对此类问题, Wang等[14]提出了一种最短路径传播算法 (Shortest path propagation, SPP), 通过显式地挖掘样本空间中最优路径来实现距离学习, 但是其无法克服标记传播算法存在的不平衡性问题.为了更好地分析形状距离学习问题, 提出一种基于广义期望首达时间 (Generalized mean first-passage time, GMFPT) 的形状距离学习算法.本文在期望首达时间概念基础上引申定义了广义期望首达时间, 其反映了质点从状态空间中一个状态转移至某个状态集合所对应的平均时间步长.已知逐对形状匹配方法得到的距离矩阵, 通过构造稀疏连接图以去除不相关样本间的连接, 可以一定程度上避免质点在非同类样本间的状态转移, 从而消除不相关样本在距离学习过程中的干扰.在进行形状距离学习的过程中, 考虑利用查询样本及距离较近的样本构造样本子集合, 利用广义期望首达时间来表示更新后的形状间距离, 通过多次迭代显式地挖掘得到最优路径.本文分别选择了不同的形状数据集进行仿真实验, 对比其他文献中形状距离学习方法, 所提方法能够得到更好的形状检索结果.

    本节首先介绍期望首达时间的相关概念, 进一步对文献[13]中提出的形状距离学习算法进行回顾.在逐对形状匹配的基础上, 该方法借助期望首达时间来分析挖掘样本空间流形结构, 对形状匹配结果进行更新.

    对于形状样本集合 $\{s_1, s_2, \cdots, s_N\}$ , 可以构造状态空间 $Space=\{1, 2, \cdots, N\}$ , 样本 $s_k$ 对应元素 $k$ $\in$ ${Space}$ .对于任意的元素 $i, j\in{Space}$ , (一步) 状态转移概率满足 $p_{ij}>0$ , 状态空间对应的状态转移矩阵为 $P=[p_{ij}]$ .随机序列 $\{X_n:n=0, 1, 2, \cdots\}$ 是时齐的离散时间马尔科夫链

    $\begin{align} &P\left({X_{n+1}=j|X_n=i, X_{n-1}=i_{n-1}, \cdots, X_0=i_0}\right)=\notag\\[1mm] &~~~ P\left({X_{n+1}=j|X_n=i}\right)= P\left({X_{1}=j|X_0=i}\right)=p_{ij} \end{align} $

    (1)

    其中, $X_n$ 在状态空间 $Space$ 中取值.

    在状态空间中, 期望首达时间表示质点由一个状态转移至另一个状态所需的平均转移次数.由状态 $i$ 至状态 $j$ 的期望首达时间定义为 $\mu_{ij}$

    $\begin{align} \mu_{ij}=&\ {\rm E}\left({T_j|X_0=i}\right)=\notag\\[1mm] &\ \sum\limits_{n=1}^\infty{n{P\left({T_j=n|X_0=i}\right)}} \end{align} $

    (2)

    其中, $T_j=\min\{{n>0:X_n=j}\}$ 表示质点首次到达状态 $j$ 所对应的转移次数.对于集合中同类形状样本而言, 质点可以沿检索路径快速完成状态转移.

    标记传播算法固定查询样本标记, 将标记的传播过程作为研究重点.对比而言, 以期望首达时间更新形状距离则重点关注质点完成状态转移所需的时间步长, 可以避免标记传播算法的不平衡性问题.其使同类形状样本的分布更加紧凑, 进而更好地挖掘局部空间的几何信息[12].

    假设 $s_N$ 和 $s_k$ 分别为查询样本和目标样本, $1$ $\le$ ${k}$ $\le$ ${K}$ , $K=N-1$ .以期望首达时间 $\mu_{Nk}$ 作为二者间更新后的距离, 可以得到如下方程形式

    $\begin{align} \left(I-A\right)\boldsymbol{\mu}_i=\boldsymbol{1}_{K} \end{align} $

    (3)

    其中, $\boldsymbol{\mu}_i=\left[{\mu_{1i}, \cdots, \mu_{Ki}}\right]^\mathrm{T}$ , $A=\left[p_{i j}\right]$ , $1\le{i}\le{K}$ , $1\le{j}\le{K}$ , $\boldsymbol{1}_{K}=\left[{1, \cdots, 1}\right]^\mathrm{T}$ 包含了 $K=N-1$ 个元素.由于 $A$ 中元素满足 $p_{ij}>0$ , $I-A$ 中有 $1-p_{ii}$ $>$ $\sum\nolimits_{j\ne{i}}{\left|-p_{ij}\right|}=1-p_{ii}-p_{iN}$ .因此, $I-A$ 是严格对角占优方阵, 式 (3) 对应的线性方程可以直接进行求解, 通过对 $\boldsymbol{\mu}_i$ 中各元素进行排序 (Ranking) 即可得到形状检索结果.

    为了能够分析状态空间中更加复杂的状态转移问题, 本节在期望首达时间的基础上提出了更具一般意义的广义期望首达时间, 为后续形状距离学习提供相关的理论支持.

    已知状态空间 $Space$ 下的时齐离散时间马尔科夫链 $\{X_n\}$ , 对于状态 $i\in{Space}$ 和集合 $L\subset{Space}$ , 引入条件概率

    $\begin{align} \label{eq4} f_{iL}^{\left(n\right)}=P_i\left({X_n\in{L}, X_m\notin{L}, 1\le{m}\le{n-1}}\right) \end{align} $

    (4)

    其中, $P_i\left(\cdot\right)=P\left({\cdot|X_0=i}\right)$ .在式 (4) 中, $f_{iL}$ 表示质点从状态 $i$ 出发, 第 $n$ 步到达集合 $L$ 的概率.这里进一步给出广义期望首达时间的定义.

    定义1.定义由 $i$ 转移至 $L$ 的平均状态转移次数为广义期望首达时间, 记作 $\eta_{iL}$

    $ \begin{array}{l} {\eta _{iL}} = \;{\rm{E}}\left( {{T_L}|{X_0} = i} \right) = \\ \sum\limits_{n = 1}^\infty {n{P_i}\left( {{T_L} = n} \right)} = \sum\limits_{n = 1}^\infty {nf_{iL}^{\left( n \right)}} \end{array} $

    (5)

    其中, $T_L=\min\{{n>0:X_n\in{L}}\}$ 表示质点首次到达集合 $L$ 的转移次数.比较式 (2) 中期望首达时间和式 (5) 中广义期望首达时间的定义可以看出, 如果集合 $L$ 中仅包含元素 $j\in{Space}$ , 则 $\eta_{iL}=\mu_{ij}$ , 即期望首达时间是广义期望首达时间对应的一种特殊情况.

    从式 (4) 可知, $f_{iL}$ 满足如下关系

    ${\small \begin{align} &f_{iL}^{\left(n\right)}=P_i\left({X_n\in{L}, X_m\notin{L}, 1\le{m}\le{n-1}}\right) =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}P\left({X_n\in{L}, X_m\notin{L}, 2\le{m}\le{n-1}|X_1=j}\right)} =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}P_j\left({X_{n-1}\in{L}, X_m\notin{L}, 1\le{m}\le{n-2}}\right)} =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}f_{jL}^{\left({n-1}\right)}} \end{align}} $

    (6)

    结合式 (5) 中广义期望首达时间的定义, 可得如下所示的表达式

    $ \begin{align} \eta_{iL}=&\ \sum\limits_{n=1}^\infty{nf_{iL}^{\left(n\right)}} =\sum\limits_{n=2}^\infty{\left({n-1}\right)f_{iL}^{\left(n\right)}}+ \sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}}=\notag\\ &\ \sum\limits_{j\notin{L}}{p_{ij}\sum\limits_{n=2}^\infty{\left({n-1}\right)f_{jL}^{\left({n-1}\right)}}} +\sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}}=\notag\\ &\ \sum\limits_{j\notin{L}}{p_{ij}}\eta_{jL}+\sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}} \end{align} $

    (7)

    为方便讨论, 将状态空间划分为两个集合 $U=$ $\{1$ , $\cdots, M\}$ 和 $L=\{M+1, \cdots, N\}$ , 二者分别包含 $M$ 个元素和 $N-M$ 个元素, $Space=U\cup{L}$ .状态转移矩阵 $P$ 可以写成如下式所示的分块矩阵

    $\begin{align} \label{eq8} P=\left[{\begin{array}{*{20}{c}} {{P_{UU}}}&{{P_{UL}}}\\ {{P_{LU}}}&{{P_{LL}}} \end{array}}\right] \end{align} $

    (8)

    其中, $P_{UU}=\left[p_{ij}\right]$ , $P_{UL}=\left[p_{ik}\right]$ , $P_{LU}=\left[p_{lj}\right]$ , $P_{LL}$ = $\left[p_{lk}\right]$ , $1\le{i}\le{M}$ , $1\le{j}\le{M}$ , $M$ $+$ $1$ $\le$ ${k}\le{N}$ , $M+1\le{l}\le{N}$ .进一步可知 $f_{iL}^{\left(n\right)}$ = $\sum\nolimits_{j=1}^M{p_{ij}f_{jL}^{\left({n-1}\right)}}$ , $f_{iL}^{\left(1\right)}$ = $\sum\nolimits_{j=M+1}^N{p_{ij}}$ , 满足如下关系

    $\begin{align} &\label{eq9} \left[{\begin{array}{*{20}c}f_{1L}^{\left(n\right)}\\\vdots\\f_{ML}^{\left(n\right)} \\\end{array}}\right]=P_{UU}\times{\left[{\begin{array}{*{20}c}f_{1L}^{\left(n-1\right)}\\ \vdots\\f_{ML}^{\left(n-1\right)}\\\end{array}}\right]} \end{align} $

    (9)

    $\begin{align} \left[{\begin{array}{*{20}c}f_{1L}^{\left(1\right)}\\\vdots\\f_{ML}^{\left(1\right)} \\\end{array}}\right]=P_{UL}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (10)

    通过式 (9) 和式 (10) 可得

    $\begin{align} &\left[{\begin{array}{*{20}c}\sum\limits_{n=1}^\infty{f_{1L}^{\left(n\right)}} \\ \vdots\\\sum\limits_{n=1}^\infty{f_{ML}^{\left(n\right)}} \\\end{array}}\right]=\notag\\[1mm] &\qquad \left(I+P_{UU}+P_{UU}^2+\cdots\right)\times{P_{UL}}\times{\boldsymbol{1}_{N-M}}=\notag\\[1mm] &\qquad \sum\limits_{k=0}^\infty{\left(P_{UU}\right)^k}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (11)

    在状态空间划分下, 式 (7) 可写作 $\eta_{iL}=\sum\nolimits_{j=1}^M{p_{ij}\eta_{jL}}+\sum\nolimits_{n=1}^\infty{f_{iL}^{\left(n\right)}}$ , 结合式 (11) 可得

    $\begin{align} &\label{eq12} \boldsymbol{\eta}_L=P_{UU}\times{\boldsymbol{\eta}_L} +\left[{\begin{array}{*{20}c}\sum\limits_{n=1}^\infty{f_{1L}^{\left(n\right)}} \\\vdots\\\sum\limits_{n=1}^\infty{f_{ML}^{\left(n\right)}}\\\end{array}}\right] \end{align} $

    (12)

    $ \begin{align} \label{eq13} \left(I-P_{UU}\right)\times{\boldsymbol{\eta}_L} =\sum\limits_{k=0}^\infty{\left(P_{UU}\right)^k}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (13)

    其中, $\boldsymbol{\eta}_L=\left[{\eta_{1L}, \cdots, \eta_{ML}}\right]^\mathrm{T}$ .从式 (13) 可以看出, 如果矩阵 $I-P_{UU}$ 可逆, 直接求解线性方程即可得到广义期望首达时间.

    已知逐对形状匹配方法所得到的形状间距离, 本节将首先通过形状间距离矩阵构造状态转移矩阵, 进一步借助广义期望首达时间对形状间距离进行学习和更新.

    已知形状样本集合 $\{s_1, \cdots, s_N\}$ , $d_{ij}$ 是利用逐对形状匹配方法得到的 $s_i$ 和 $s_j$ 间距离, 距离矩阵为 $D$ = $\left[d_{ij}\right]$ .相似度 $r_{ij}$ 可由 $d_{ij}$ 计算得到, 将其对应表达式定义为

    $\begin{align} \label{eq14} r_{ij}=\exp\left({-\frac{{d_{ij}^2}}{{\sigma_{ij}^2}}}\right) \end{align} $

    (14)

    其中, $\sigma_{ij}$ 对应高斯核函数的核宽.利用 $kd\left(i\right)$ 表示样本 $s_i$ 的 $K_d$ 个近邻形状样本集合.参考文献[5, 10]中的核宽设置方法, $\sigma_{ij}$ 可以表示为

    $\begin{align} \label{eq15} \sigma_{ij}=\alpha\frac{1}{2K_d}\left(\sum\limits_{s_k\in{kd\left(i\right)}}{d_{ik}} +\sum\limits_{s_l\in{kd\left(j\right)}}{d_{jl}}\right) \end{align} $

    (15)

    其中, 参数 $K_d$ 由数据集中形状样本数目决定, 样本数目越多 $K_d$ 的取值越大, 即能够得到更合适的距离均值.参数 $\alpha$ 的取值通常介于0.2~0.4之间, 往往需要结合逐对形状匹配方法的选择来确定.

    在得到样本间相似度的基础上, 建立稀疏连接的无向图 $G$ .以 $ks\left(i\right)$ 表示 $s_i$ 的 $K_s$ 个近邻样本, 各顶点连接权重 $w_{ij}$ 定义为

    $\begin{align} \label{eq16} w_{ij}=\begin{cases} r_{ij}, &s_i\in{ks\left(j\right)}, \ s_j\in{ks\left(i\right)}\\[1mm] 0, &{\mbox{其他}}\end{cases} \end{align} $

    (16)

    其中, 参数 $K_s$ 与数据集中样本分布情况相关, 同类样本间越接近则 $K_s$ 值越小, 反之 $K_s$ 值越大, 其可以根据交叉验证方法确定.通过式 (16) 可得连接权重矩阵 $W=\left[w_{ij}\right]$ .图 $G$ 是通过连接少数近邻样本得到的, 相距较远的样本间没有连接, 其对状态转移过程进行了约束.由于参考点与近邻样本大多属于同一类别, 因此可以保证质点仅在同类别样本对应状态间进行转移, 能有效地避免不相关样本间的影响, 极大地消除冗余信息.

    由于数据集中样本分布存在不平衡性, $G$ 可能是由多个连通分量构成的非连通图, 可以通过深度优先遍历等方法得到各连通分量[15].为了方便后续的分析, 本小节假设 $G$ 是一个连通图, 对于非连通图的情形将在第3.3节进行说明.

    在形状样本集合对应的状态空间 $Space$ 中, 由状态 $i$ 至状态 $j$ 的状态转移概率定义为

    $\begin{align} \label{eq17} p_{ij}=\frac{{w_{ij}}}{{\sum\limits_{k = 1}^N{w_{ik}}}} \end{align} $

    (17)

    可得状态转移矩阵为 $P=\left[p_{ij}\right]$ .由于 $G$ 是连通图, 且 $p_{ii} > 0$ , 进而可知一定存在 $\lambda\ge{1}$ , 使得 $p_{ij}^{\left(\lambda\right)} > 0$ , $P^{\left(\lambda\right)}=\left[p_{ij}^{\left(\lambda\right)}\right]$ .

    状态转移矩阵 $P$ 是由形状距离矩阵 $D$ 构造生成的, 其中包含了丰富的样本空间局部几何信息.借助期望首达时间进行形状距离学习时, 流形空间中的检索路径可以隐式地挖掘得到.但是, 当两个同类样本在样本空间中相距较远时, 二者之间必定间隔了数目较多的同类别样本.因此质点在状态转移过程中, 必将经过多个同类别样本对应的状态, 对应的期望首达时间较长.

    图 3中给出了一个由7个状态构成状态空间的示例. $b$ 和 $c$ 属于一个类别, $a$ 、 $d$ 、 $e$ 、 $f$ 和 $g$ 属于另一个类别, 状态间连接权重与样本间距离成反比.如果将 $a$ 视作查询样本, 通过分析期望首达时间进行距离学习, 可以得到 $\mu_{{ba}}> \mu_{{ea}}$ , 但是存在 $\mu_{{ba}} < \mu_{{fa}}$ 和 $\mu_{{ba}} < \mu_{{ga}}$ .可以看出, 虽然期望首达时间能够有效分析相距较近的样本间关系, 却难以准确描述相距较远的样本间相似程度.

    图 3  由2个类别样本对应的7个状态构成状态空间的示例
    Fig. 3  An example of state space consisting of 7 states which corresponds to the samples from 2 categories

    为了减少质点在同类样本对应状态间完成转移所需时间步长, 考虑显式地挖掘空间中的检索路径, 分析计算质点由各状态转移至检索路径对应集合的时间步长, 即将上一节定义的广义期望首达时间作为距离更新结果.在图 3的示例中, 借助广义期望首达时间分析的结果, 依次将 $d$ 和 $e$ 划入检索路径集合得到对应的 $L$ 和 $L'$ , 可知 $\eta_{{\rm{b}}L} > \eta_{{\rm{f}}L}$ 和 $\eta_{{\rm{b}}L'} > \eta_{{\rm{g}}L'}$ .不难发现, 结合广义期望首达时间分析样本间距离能够得到更准确的检索结果.

    通过此前分析可知广义期望首达时间满足线性方程 (13), 这里进一步分析如何进行求解.定义 $\left(P_{UU}\right)^\lambda$ = $\left[q_{ij}\right]$ , 可得

    $\begin{align} q_{ij}=&\ \sum\limits_{{k_1}=1}^M{...\sum\limits_{{k_{\lambda-1}}=1}^M{p_{ik_1}...{p_{k_{\lambda-1}j}}}}\le\notag\\[1mm] &\ {\sum\limits_{{k_1}=1}^N{...\sum\limits_{{k_{\lambda-1}}=1}^N{p_{ik_1}...{p_{k_{\lambda-1}j}}}}} =p_{ij}^{\left(\lambda\right)}\notag \end{align} $

    (18)

    由式 (18) 的关系可知

    $\begin{align} \label{eq19} \sum\limits_{j=1}^M{q_{ij}}\le{\sum\limits_{j=1}^M{p_{ij}^{\left(\lambda\right)}}} =1-\sum\limits_{j=M+1}^N{p_{ij}^{\left(\lambda\right)}} < 1 \end{align} $

    (19)

    结合式 (19) 可知谱半径满足如下关系

    $\begin{align} &\label{eq20} \left\|\left(P_{UU}\right)^\lambda\right\|_\infty=\mathop{\max}\limits_{1\le{i}\le{M}}\sum\limits_{j=1}^M{\left|q_{ij}\right|} < 1 \end{align} $

    (20)

    $\begin{align} \rho\left(P_{UU}\right)\le{\left\|\left(P_{UU}\right)^\lambda\right\|_\infty^{\frac{1}{\lambda}}} < 1 \end{align} $

    (21)

    据此, 进一步可以得到 $I-P_{UU}$ 可逆且 $\sum\nolimits_{k=0}^\infty{\left(P_{UU}\right)^k}=\left(I-P_{UU}\right)^{-1}$ , 式 (13) 对应的线性方程表示为

    $\begin{align} \label{eq22} \left(I-P_{UU}\right)\times{\boldsymbol{\eta}_L}=\left(I-P_{UU}\right)^{-1}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (22)

    又 $\sum\nolimits_{j=1}^N{p_{ij}}=1$ , 可知 $P_{UU}\times{\boldsymbol{1}_M}+P_{UL}\times{\boldsymbol{1}_{N-M}}=\boldsymbol{1}_M$ , 进而

    $\begin{align} \label{eq23} \left(I-P_{UU}\right)^{-1}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}}=\boldsymbol{1}_M \end{align} $

    (23)

    线性方程最终形式表示为

    $\begin{align} \label{eq24} \boldsymbol{\eta}_L=\left(I-P_{UU}\right)^{-1}\times{\boldsymbol{1}_M} \end{align} $

    (24)

    因此, 线性方程具有唯一解, 广义期望首达时间可以通过不同的线性方程求解方法得到.进而可知, 其对应计算过程的时间复杂度与求解线性方程组的时间复杂度相同, 均为 ${\rm O}\left(M^3\right)$ .

    此前为方便讨论, 假设 $G$ 是一个连通图, 但是很多情况下 $G$ 可能是非连通图, 质点无法在隶属于不同连通分量的状态和集合间完成状态转移.以 $C$ 表示包含查询样本的连通分量, 可以将其视作状态空间 $Space$ 并分析广义期望首达时间.此外, 考虑到同类样本可能隶属于不同的连通分量, 因此进一步将其他连通分量中样本与查询样本间相似度进行分析排序.

    综合此前的分析, 给出基于广义期望首达时间的形状距离学习算法步骤如下:

    步骤1.  利用形状间距离矩阵构造状态转移矩阵.如果样本数目 $N$ 很大, 则选择距离查询样本最近的 $N'$ 个样本构造图 $G$ .进一步求取查询样本对应的连通分量 $C$ 作为状态空间 $Space$ , 并计算状态转移矩阵.将查询形状样本视作集合 $L$ , $C$ 中余下样本作为集合 $U$ .

    步骤2.  求解式 (24), 得到 $U$ 中对应各样本至集合 $L$ 的广义期望首达时间 $\boldsymbol{\eta}_L$ .

    步骤3.  对 $\boldsymbol{\eta}_L$ 中各元素按照升序进行排序.如果未达到终止条件 $I_e$ 且 $\#U>K_{\eta}$ , 则将排序中前 $K_{\eta}$ 个状态从集合 $U$ 中移除并依次加入到集合 $L$ 中, 跳转至步骤2;否则, 算法停止, 将 $\boldsymbol{\eta}_L$ 的排序结果依次添加至集合 $L$ 中, $L$ 中的样本排序即为检索结果.

    步骤4.  对于包含在 $G$ 中但不属于 $C$ 的样本, 依照其与查询样本的相似度关系进行排序, 列于检索结果的最后.

    在上述步骤中, 包含3个参数需要设定, 分别是 $N'$ 、 $K_{\eta}$ 和 $I_e$ .参数 $N'$ 负责对检索过程中数据集规模进行限制, 通常设置 $N'\ll{N}$ , 本文实验中选择20 %左右的样本进行形状距离学习.参数 $K_{\eta}$ 负责控制每次迭代过程中加入检索路径中的样本数目, 通常为一个较小正数, 本文实验中设置 $K_{\eta}=3$ . $I_e$ 负责对迭代次数进行约束, 待检索的相关样本数目越多则 $I_e$ 越大.本文实验中设置 $I_e$ = ${\rm{floor}}\left({rs}/{K_{\eta}}\right)$ , 其中 $rs$ 表示待检索的相关样本数目.

    为了验证本文所提方法的有效性, 本节将对不同形状数据集进行仿真实验分析比较.在实验过程中, 首先选择已有的几种比较成熟的逐对形状匹配方法分析形状间距离, 用到的方法包括形状上下文 (Shape context, SC)[16]、内距离形状上下文 (Inner-distance shape context, IDSC)[17]和连接不变表示 (Articulation-invariant representation, AIR)[18].在选择相同逐对形状匹配方法的基础上, 分别利用本文提出的广义期望首达时间 (GMFPT) 方法和其他文献中的方法进行形状距离学习, 使用到的方法包括标记传播 (LP)[5]、元描述符 (MD)[10]、期望首达时间 (MFPT)[13]等.

    在分析实验结果的过程中, 分别将样本集合中每个样本依次作为查询形状, 分析其与各样本间的距离并将其按升序排列, 将距离查询样本较近的几组结果作为检索结果.在检索得到的全部样本中, 相关样本数目与全部样本数目之比即为检索精度.在对实验结果进行验证的过程中, 将主要以检索结果和检索精度作为评价方法性能的指标.

    首先选择Kimia-216数据集[19]进行实验比较, 该数据集中含了18个类别各12个形状样本, 分别选择形状上下文 (SC) 和内距离形状上下文 (IDSC) 计算形状距离矩阵, 此部分实验参数根据文献[17]中给出的方法进行设置.由于数据集规模较小, 可以直接对样本集合中全部形状进行距离学习.在两组形状距离学习实验中, 设置 $\alpha=0.38$ , $K_d=12$ , $K_s$ = $8$ . 表 1中列出了不同方法在Kimia-216数据集上得到的形状检索结果, 表 1中各列分别表示与查询样本近邻的检索结果所属类别正确与否, 其中包含了最接近的1~11组相关样本数目及合计相关样本数目.从表 1中的结果中可以看出, 与其他形状距离学习方法相比, 本文的方法在相同条件下能够达到最好的形状检索效果.

    表 1  Kimia-216数据集在不同方法下检索结果比较
    Table 1  Comparison of retrieval rates for different algorithms tested on Kimia-216 database
    方法 1st 2nd 3rd 4th 5th 6th 7th 8th 9th 10th 11th 全部
    SC 216 216 215 210 210 209 208 204 200 191 175 2 254
    IDSC 216 216 215 211 211 210 211 207 203 198 185 2 283
    SC + LP 216 216 214 212 211 211 215 209 209 206 197 2 316
    IDSC + LP 216 216 214 211 213 213 212 210 207 208 203 2 323
    SC + MD 215 215 215 213 212 212 214 211 211 209 208 2 335
    IDSC + MD 215 215 215 211 212 213 212 212 207 209 209 2 330
    SC + MFPT 216 216 216 212 212 212 212 212 212 211 212 2 343
    IDSC + MFPT 216 216 216 212 212 212 212 212 212 212 212 2 344
    SC + GMFPT 216 216 216 216 216 216 216 216 216 216 216 2 376
    IDSC + GMFPT 216 216 216 216 216 216 216 216 216 216 216 2 376
    下载: 导出CSV 
    | 显示表格

    为了进一步说明提出的形状距离学习方法在大数据集下的有效性, 本文分别选择了Tari-1000数据集[20]和MPEG-7数据集[21]进行实验. Tari-1000数据集中包含了1 000个目标剪影, 其对应50个类别, 每个类别各20个形状样本, 图 4列出了该数据集部分类别中一个剪影的示例. MPEG-7数据集中包含了1 400个目标剪影, 其对应70个形状类别, 每个类别各20个样本, 图 5列出了该数据集部分类别中一个剪影的示例.

    图 4  Tari-1000数据集中部分类别形状样本示例
    Fig. 4  Examples of shapes from different categories in Tari-1000 database
    图 5  MPEG-7数据集中部分类别形状样本示例
    Fig. 5  Examples of shapes from different categories in MPEG-7 database

    对Tari-1000数据集仿真过程中, 分别选择形状上下文 (SC) 和内距离形状上下文 (IDSC) 计算形状距离矩阵.查询样本与全部样本匹配后, 分析计算距离最近的前20组结果对应的检索精度.由于数据集包含样本数目较多, 因此设置参数 $N'=200$ .选择SC计算距离矩阵时, 设置 $\alpha=0.28$ , $K_d=22$ , $K_s$ = $30$ ; 选择IDSC计算距离矩阵时, 设置 $\alpha$ = $0.32$ , $K_d=24$ , $K_s=30$ .表 2中列出了不同方法在Tari-1000数据集上进行实验得到的形状检索精度.从表中的结果可以看出, 与其他形状距离学习方法相比, 本文提出的方法在相同条件下能够得到最好的形状检索精度.

    表 2  Tari-1000数据集在不同方法下的结果比较
    Table 2  Comparison of results for different algorithms tested on Tari-1000 database
    方法 检索精度 (%)
    SC 88.01
    IDSC 90.43
    SC + LP 94.22
    IDSC + LP 96.44
    SC + MD 94.98
    IDSC + MD 98.49
    SC + MFPT 97.02
    IDSC + MFPT 99.11
    SC + GMFPT 97.15
    IDSC + GMFPT 99.27
    下载: 导出CSV 
    | 显示表格

    对MPEG-7数据集进行实验过程中, 选择连接不变表示 (AIR)[18]计算样本间距离矩阵, 该逐对形状匹配方法在MPEG-7数据集上具有最高的匹形状配精度.在分析检索精度时, 各查询样本都与全部样本进行匹配, 统计距离最近的前40组结果中相关样本数目并计算查全率, 这种评价规则被称为Bullseye方法.由于MPEG-7数据集中同类目标间差异较大而不同类目标间差异较小, 形状匹配研究一直都将该数据集下的检索精度作为重点关注问题[21].由于包含样本数目较多, 检索过程中仅保留与查询形状临近的300个样本进行分析, 即 $N'=300$ .余下参数分别设置为 $\alpha=0.38$ , $K_d=18$ , $K_s=14$ . 表 3中列出了近年来文献中给出方法和本文方法在MPEG-7数据集下的形状检索精度.从表中可以看出, 与其他形状距离学习方法相比, 本文提出的方法能够有效地提升形状匹配结果, 并能够得到100 %的形状检索精度, 与文献中公布的最好结果相当.

    表 3  MPEG-7数据集在不同方法下的结果比较
    Table 3  Comparison of results for different algorithms tested on MPEG-7 database
    方法 检索精度 (Bullseye) (%)
    IDSC + LP[5] 91.61
    SC + GM + Meta Descriptor[10] 92.51
    IDSC + LCDP[6] 93.32
    IDSC + Mutual Graph[22] 93.40
    SC + MFPT[13] 94.04
    ASC + LCDP[8] 95.96
    ASC + TPG Diffusion[11] 96.47
    SC + IDSC + Co-transduction[23] 97.72
    IDSC + SSC+LCDP[9] 98.85
    AIR + TPG Diffusion[11] 99.99
    AIR + Generic Diffusion Framework[12] 100.00
    AIR + GMFPT 100.00
    下载: 导出CSV 
    | 显示表格

    为了对不同形状距离学习方法进行综合比较, 这里进一步分析探讨各方法对应的时间复杂度.已知求解广义期望首达时间的时间复杂度为 ${\rm O}\left(M^3\right)$ , 且 $M$ 与查询样本对应连通分量的样本数目 $N_C$ 较为接近.通过第3.3节的算法流程可知本文所提方法的时间复杂度为 ${\rm O}\left(I_eN_C^3\right)$ . 表 4中列出了本文方法与其他距离学习方法的时间复杂度, $I_t$ 表示矩阵运算迭代次数.从表中结果可以看出, 本文所提方法的时间复杂度高于LP和MFPT两种方法, 与文献[6]、文献[11]和文献[12]所提算法复杂度大致相当.但与上述方法相比, 本文方法能够得到更好的形状检索结果.

    表 4  不同方法下的时间复杂度比较
    Table 4  Comparison of the time complexities for different algorithms
    方法 时间复杂度
    LP[5] ${\rm O}\left(I_tN'^2\right)$
    LCDP[6] ${\rm O}\left(I_tN^3\right)$
    MFPT[13] ${\rm O}\left(N'^3\right)$
    TPG diffusion[11] ${\rm O}\left(I_tN^3\right)$
    Generic diffusion framework[12] ${\rm O}\left(I_tN^3\right)$
    GMFPT ${\rm O} \left(I_eN_C^3\right)$
    下载: 导出CSV 
    | 显示表格

    考虑到逐对形状匹配方法难以准确反映目标间相似程度, 本文提出了基于广义期望首达时间的形状距离学习方法以改善形状匹配结果.广义期望首达时间是在期望首达时间的基础上推广得到的, 其反映了质点由状态转移至状态集合所需的平均时间步长.借助广义期望首达时间能够更好地反映流形结构, 提出的方法可以显式地挖掘样本空间信息, 所得结果能够更加准确地反映样本间的距离关系.分别在不同的形状数据集下进行实验比较, 所提方法在相同条件下能够得到更好的形状检索结果.


  • 本文责任编委 刘德荣
  • 图  1  变分自编码机

    Fig.  1  Variational auto-encoder

    图  2  生成式对抗网络

    Fig.  2  Generative adversarial networks

    图  3  DCGAN的拓扑结构[47]

    Fig.  3  Schematic of DCGAN architecture[47]

    图  4  CGAN的拓扑结构

    Fig.  4  Schematic of CGAN architecture

    图  5  InfoGAN的拓扑结构

    Fig.  5  Schematic of InfoGAN architecture

    图  6  VAE/GAN的拓扑结构

    Fig.  6  Schematic of VAE/GAN architecture

    图  7  Stack GAN的拓扑结构

    Fig.  7  Schematic of stack GAN architecture

    图  8  LAP-GAN的拓扑结构

    Fig.  8  Schematic of LAP-GAN architecture

    图  9  GAN与Actor-critic模型

    Fig.  9  GAN and actor-critic models

    图  10  SeqGAN的拓扑结构

    Fig.  10  Schematic of SeqGAN architecture

    图  11  WGAN的拓扑结构

    Fig.  11  Schematic of WGAN architecture

    图  12  EBGAN的拓扑结

    Fig.  12  Schematic of EBGAN architecture

    图  13  GAN[86]与传统方法[92]的数据填补效果

    Fig.  13  Image completion by GAN[86] and traditional method[92]

    图  14  iGAN的生成样例[110]

    Fig.  14  Images generated by iGAN[110]

    图  15  图对图翻译举例[112]

    Fig.  15  Examples of image to image translation[112]

    图  16  Pix2Pix的拓扑结构

    Fig.  16  Chematic of Pix2Pix architectur

    图  17  CycleGAN的拓扑结构

    Fig.  17  Schematic of CycleGAN architecture

    图  18  生成式模仿学习

    Fig.  18  Generative adversarial imitation learnin

    图  19  探索与利用

    Fig.  19  Explore and exploit

  • [1] Murphy K P. Machine Learning: A Probabilistic Perspective. Cambridge: MIT Press, 2012.
    [2] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classiflcation with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: ACM, 2012. 1097-1105
    [3] Farabet C, Couprie C, Najman L, LeCun Y. Learning hierarchical features for scene labeling. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1915-1929 doi: 10.1109/TPAMI.2012.231
    [4] Mikolov T, Deoras A, Povey D, Burget L, Cernocky J. Strategies for training large scale neural network language models. In: Proceedings of the 2011 IEEE Workshop on Automatic Speech Recognition and Understanding. Waikoloa, HI, USA: IEEE, 2011. 196-201
    [5] Hinton G, Deng L, Yu D, Dahl G E, Mohamed A R, Jaitly N, et al. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups. IEEE Signal Processing Magazine, 2012, 29(6): 82-97 doi: 10.1109/MSP.2012.2205597
    [6] Collobert R, Weston J, Bottou L, Karlen M, Kavukcuoglu K, Kuksa P. Natural language processing (almost) from scratch. Journal of Machine Learning Research, 2011, 12: 2493-2537 http://www.inf.ed.ac.uk/teaching/courses/tnlp/2014/Ryan.pdf
    [7] Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 3104-3112
    [8] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7): 1527-1554 doi: 10.1162/neco.2006.18.7.1527
    [9] Salakhutdinov R, Hinton G. Deep Boltzmann machines. In: Proceedings of the 12th International Conference on Artiflcial Intelligence and Statistics. Clearwater Beach, Florida, USA: AISTATS, 2009. 448-455
    [10] Smolensky P. Information processing in dynamical systems: Foundations of harmony theory. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge, MA, USA: MIT Press, 1986.
    [11] Hinton G E, Zemel R S. Autoencoders, minimum description length and Helmholtz free energy. In: Proceedings of the 6th International Conference on Neural Information Processing Systems. Denver, Colorado, USA: Morgan Kaufmann Publishers Inc., 1994. 3-10
    [12] Bengio Y, Lamblin P, Popovici D, Larochelle H. Greedy layer-wise training of deep networks. In: Proceedings of the 21st Annual Conference on Neural Information Processing Systems. Vancouver, BC, Canada: MIT Press, 2007. 153-160
    [13] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, WardeFarley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 2672-2680
    [14] Goodfellow I. NIPS 2016 tutorial: Generative adversarial networks. arXiv preprint arXiv: 1701. 00160, 2016
    [15] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3): 321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks: The state of the art and beyond. Acta Automatica Sinica, 2017, 43(3): 321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml
    [16] LeCun Y, Bengio Y, Hinton G. Deep learning. Nature, 2015, 521(7553): 436-444 doi: 10.1038/nature14539
    [17] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors. Nature, 1986, 323(6088): 533-536 doi: 10.1038/323533a0
    [18] Le Cun Y, Boser B, Denker J S, Howard R E, Habbard W, Jackel L D, et al. Handwritten digit recognition with a back-propagation network. In: Proceedings of the 1990 Advances in Neural Information Processing Systems. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1990. 396-404
    [19] Lecun Y, Bottou L, Bengio Y, Hafiner P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 1998, 86(11): 2278-2324 doi: 10.1109/5.726791
    [20] Hochreiter S. Untersuchungen zu dynamischen neuronalen Netzen[Ph. D. dissertation], Technische Universitt München, München, Germany, 1991
    [21] Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult. IEEE Transactions on Neural Networks, 1994, 5(2): 157-166 doi: 10.1109/72.279181
    [22] Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780 doi: 10.1162/neco.1997.9.8.1735
    [23] Nair V, Hinton G E. Rectifled linear units improve restricted Boltzmann machines. In: Proceedings of the 27th International Conference on Machine Learning. Haifa, Israel: Omni Press, 2010. 807-814
    [24] Srivastava N, Hinton G E, Krizhevsky A, Sutskever I, Salakhutdinov R. Dropout: A simple way to prevent neural networks from overfltting. Journal of Machine Learning Research, 2014, 15(1): 1929-1958
    [25] Kingma D P, Ba J. Adam: A method for stochastic optimization. arXiv preprint arXiv: 1412. 6980, 2014
    [26] Chellapilla K, Puri S, Simard P. High performance convolutional neural networks for document processing. In: Proceedings of the 10th International Workshop on Frontiers in Handwriting Recognition. La Baule, France: Suvisoft, 2006.
    [27] Lacey G, Taylor G W, Areibi S. Deep learning on FPGAs: Past, present, and future. arXiv preprint arXiv: 1602. 04283, 2016
    [28] Jouppi N P, Young C, Patil N, Patterson D, Agrawal G, Bajwa R, et al. In-datacenter performance analysis of a tensor processing unit. In: Proceedings of the 44th Annual International Symposium on Computer Architecture. Toronto, ON, Canada: ACM, 2017. 1-12
    [29] Dean J, Corrado G S, Monga R, Chen K, Devin M, Le Q V, et al. Large scale distributed deep networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: Curran Associates Inc., 2012. 1223-1231
    [30] Bergstra J, Bastien F, Breuleux O, Lamblin P, Pascanu R, Delalleau O, et al. Theano: Deep learning on GPUs with python. Journal of Machine Learning Research, 2011, 1: 1-48 http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.678.1889
    [31] Collobert R, Kavukcuoglu K, Farabet C. Torch7: A Matlab-like environment for machine learning. In: BigLearn, NIPS Workshop. Martigny, Switzerland: Idiap Research Institute, 2011
    [32] Paszke A, Gross S, Chintala S, Chanan G. PyTorch: Tensors and dynamic neural networks in Python with strong GPU acceleration[Online], available: http://pytorch.org/, April 31, 2018
    [33] Abadi M, Agarwal A, Barham P, Brevdo E, Chen Z F, Citro C, et al. TensorFlow: Large-scale machine learning on heterogeneous distributed systems. arXiv preprint arXiv: 1603. 04467, 2016
    [34] Li F F, Deng J. ImageNet: Where are we going? and where have we been?. In: Presented at the 2017 Conference on Computer Vision and Pattern Recognition[Online], available: https://www.youtube.com/watch?v=jYvBmJo7qjc, April 31, 2018
    [35] Hastie T, Tibshirani R, Friedman J. Unsupervised learning. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. New York, NY, USA: Springer, 2009. 485-585
    [36] Bengio Y. Learning deep architectures for AI. Foundations and Trends in Machine Learning, 2009, 2(1): 1-127 http://www.docin.com/p-1661610042.html
    [37] Werbos P J. Learning how the world works: Speciflcations for predictive networks in robots and brains. In: Proceedings of IEEE International Conference on Systems, Man and Cybernetics. New York, NY, USA: IEEE, 1987.
    [38] Opper M, Archambeau C. The variational Gaussian approximation revisited. Neural Computation, 2009, 21(3): 786-792 doi: 10.1162/neco.2008.08-07-592
    [39] Kingma D P, Welling M. Auto-encoding variational Bayes. arXiv preprint arXiv: 1312. 6114, 2013
    [40] Arjovsky M, Bottou L. Towards principled methods for training generative adversarial networks. arXiv preprint arXiv: 1701. 04862, 2017
    [41] Salimans T, Goodfellow I, Zaremba W, Cheung V, Radford A, Chen X. Improved techniques for training GANs. arXiv preprint arXiv: 1606. 03498, 2016
    [42] Heusel M, Ramsauer H, Unterthiner T, Nessler B, Hochreiter S. GANs trained by a two time-scale update rule converge to a local Nash equilibrium. arXiv preprint arXiv: 1706. 08500, 2017
    [43] Miyato T, Kataoka T, Koyama M, Yoshida Y. Spectral normalization for generative adversarial networks. arXiv preprint arXiv: 1802. 05957, 2018
    [44] Papineni K, Roukos S, Ward T, Zhu W J. BLEU: A method for automatic evaluation of machine translation. In: Proceedings of the 40th Annual Meeting on Association for Computational Linguistics. Philadelphia, PA, USA: ACL, 2002. 311-318
    [45] Lucic M, Kurach K, Michalski M, Gelly S, Bousquet O. Are GANs created equal? A large-scale study. arXiv preprint arXiv: 1711. 10337, 2017
    [46] Theis L, van den Oord A, Bethge M. A note on the evaluation of generative models. arXiv preprint arXiv: 1511. 01844, 2015
    [47] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv: 1511. 06434, 2015
    [48] Zeiler M D, Taylor G W, Fergus R. Adaptive deconvolutional networks for mid and high level feature learning. In: Proceedings of the 2011 IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011. 2018-2025
    [49] Mirza M, Osindero S. Conditional generative adversarial nets. arXiv preprint arXiv: 1411. 1784, 2014
    [50] Odena A, Olah C, Shlens J. Conditional image synthesis with auxiliary classifler GANs. arXiv preprint arXiv: 1610. 09585, 2016
    [51] Chen X, Duan Y, Houthooft R, Schulman J, Sutskever I, Abbeel P. Infogan: Interpretable representation learning by information maximizing generative adversarial nets. In: Proceedings of the 30th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 2172-2180
    [52] Larsen A B L, Sonderby S K, Larochelle H, Winther O. Autoencoding beyond pixels using a learned similarity metric. arXiv preprint arXiv: 1512. 09300, 2015
    [53] Warde-Farley D, Bengio Y. Improving generative adversarial networks with denoising feature matching. In: International Conference on Learning Representations. 2017
    [54] Nguyen A, Clune J, Bengio Y, Dosovitskiy A, Yosinski J. Plug & play generative networks: Conditional iterative generation of images in latent space. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii, USA: IEEE, 2017. 3510-3520
    [55] Rosca M, Lakshminarayanan B, Warde-Farley D, Mohamed S. Variational Approaches for auto-encoding generative adversarial networks. arXiv preprint arXiv: 1706. 04987, 2017
    [56] Wu J J, Zhang C K, Xue T F, Freeman B, Tenenbaum J. Learning a probabilistic latent space of object shapes via 3D generative-adversarial modeling. In: Proceedings of the 30th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 82-90
    [57] Iofie S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In: Proceedings of the 32nd International Conference on Machine Learning. Lille, France: PMLR, 2015. 448-456
    [58] Salimans T, Kingma D P. Weight normalization: A simple reparameterization to accelerate training of deep neural networks. In: Proceedings of the 30th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 901-909
    [59] Xiang S T, Li H. On the efiects of batch and weight normalization in generative adversarial networks. arXiv preprint arXiv: 1704. 03971, 2017
    [60] Dietterich T G. Ensemble methods in machine learning. Multiple Classifler Systems. Berlin, Heidelberg, Germany: Springer, 2000. 1-15
    [61] Zhou Z H, Wu J X, Tang W. Ensembling neural networks: Many could be better than all. Artiflcial Intelligence, 2002, 137(1): 239-263 https://core.ac.uk/download/pdf/82151182.pdf
    [62] Tolstikhin I, Gelly S, Bousquet O, Simon-Gabriel C J, Schölkopf B. AdaGAN: Boosting generative models. arXiv preprint arXiv: 1701. 02386, 2017
    [63] Huang X, Li Y X, Poursaeed O, Hopcroft J, Belongie S. Stacked generative adversarial networks. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017.
    [64] Denton E, Chintala S, Szlam A, Fergus R. Deep generative image models using a Laplacian pyramid of adversarial networks. In: Proceedings of the 29th Annual Conference on Neural Information Processing Systems. Montreal, Canada: Curran Associates, Inc., 2015. 1486-1494
    [65] Karras T, Aila T, Laine S, Lehtinen J. Progressive Growing of GANs for improved quality, stability, and variation. arXiv preprint arXiv: 1710. 10196, 2017
    [66] Liu M Y, Tuzel O. Coupled generative adversarial networks. In: Proceedings of the 30th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 469-477
    [67] Ghosh A, Kulharia V, Namboodiri V, Torr P H S, Dokania P K. Multi-agent diverse generative adversarial networks. arXiv preprint arXiv: 1704. 02906, 2017
    [68] Mescheder L, Nowozin S, Geiger A. The Numerics of GANs. arXiv preprint arXiv: 1705. 10461, 2017
    [69] Sutton R S, McAllester D A, Singh S P, Mansour Y. Policy gradient methods for reinforcement learning with function approximation. In: Proceedings of the 12th International Conference on Neural Information Processing Systems. Denver, CO, USA: MIT Press, 1999. 1057-1063
    [70] Grondman I, Busoniu L, Lopes G A D, Babuska R. A survey of actor-critic reinforcement learning: Standard and natural policy gradients. IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 2012, 42(6): 1291-1307 doi: 10.1109/TSMCC.2012.2218595
    [71] Pfau D, Vinyals O. Connecting generative adversarial networks and actor-critic methods. arXiv preprint arXiv: 1610. 01945, 2016
    [72] Sutton R S, Barto A G. Reinforcement Learning: An Introduction. Cambridge, UK: MIT Press, 1998.
    [73] Goodfellow I. AMA (Ask Me Anything) about the GANs (Generative Adversarial Nets) paper[Online], available: https://fermatslibrary.com/arxivcomments?url=https%3A%2F%2Farxiv.org%2Fpdf%2F1406.2661.pdf, April 31, 2018
    [74] Williams R J. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine Learning, 1992, 8(3-4): 229-256 doi: 10.1007/BF00992696
    [75] Yu L T, Zhang W N, Wang J, Yu Y. SeqGAN: Sequence generative adversarial nets with policy gradient. arXiv preprint arXiv: 1609. 05473, 2016
    [76] Fedus W, Goodfellow I, Dai A M. MaskGAN: Better text generation via fllling in the. arXiv preprint arXiv: 1801. 07736, 2018
    [77] Ganin Y, Kulkarni T, Babuschkin I, Eslami S M A, Vinyals O. Synthesizing programs for images using reinforced adversarial learning. arXiv preprint arXiv: 1804. 01118, 2018
    [78] Goodfellow I J. On distinguishability criteria for estimating generative models. arXiv preprint arXiv: 1412. 6515, 2014
    [79] Arora S, Ge R, Liang Y Y, Ma T Y, Zhang Y. Generalization and equilibrium in generative adversarial nets (GANs). arXiv preprint arXiv: 1703. 00573, 2017
    [80] Qi G J. Loss-sensitive generative adversarial networks on Lipschitz densities. arXiv preprint arXiv: 1701. 06264, 2017
    [81] Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. arXiv preprint arXiv: 1701. 07875, 2017
    [82] Rachev S T, R M. Duality Theorems For Kantorovich-Rubinstein And Wasserstein Functionals. Warszawa: Instytut Matematyczny Polskiej Akademi Nauk, 1990.
    [83] Gulrajani I, Ahmed F, Arjovsky M, Dumoulin V, Courville A. Improved training of wasserstein GANs. arXiv preprint arXiv: 1704. 00028, 2017
    [84] Zhao J B, Mathieu M, LeCun Y. Energy-based generative adversarial network. arXiv preprint arXiv: 1609. 03126, 2016
    [85] Wang R H, Cully A, Chang H J, Demiris Y. MAGAN: Margin adaptation for generative adversarial networks. arXiv preprint arXiv: 1704. 03817, 2017
    [86] Iizuka S, Simo-Serra E, Ishikawa H. Globally and locally consistent image completion. ACM Transactions on Graphics, 2017, 36(4): Article No. 107 https://www.cs.siue.edu/~wwhite/CS482/SIGGRAPHPapers/107-0331-iizuka.pdf
    [87] Li Y J, Liu S F, Yang J M, Yang M H. Generative face completion. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii, USA: IEEE, 2017. 5892-5900
    [88] Ledig C, Theis L, Huszar F, Caballero J, Cunningham A, Acosta A, et al. Photo-realistic single image superresolution using a generative adversarial network. arXiv preprint arXiv: 1609. 04802, 2016
    [89] Lotter W, Kreiman G, Cox D. Unsupervised learning of visual structure using predictive generative networks. arXiv preprint arXiv: 1511. 06380, 2015
    [90] Lotter W, Kreiman G, Cox D. Deep predictive coding networks for video prediction and unsupervised learning. arXiv preprint arXiv: 1605. 08104, 2016
    [91] Kupyn O, Budzan V, Mykhailych M, Mishkin D, Matas J. DeblurGAN: Blind motion deblurring using conditional adversarial networks. arXiv preprint arXiv: 1711. 07064, 2017
    [92] Huang J B, Kang S B, Ahuja N, Kopf J. Image completion using planar structure guidance. ACM Transactions on Graphics, 2014, 33(4): Article No. 129 http://www.academia.edu/7162612/Image_Completion_using_Planar_Structure_Guidance
    [93] Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples. arXiv preprint arXiv: 1412. 6572, 2014
    [94] Papernot N, Carlini N, Goodfellow I, Feinman R, Faghri F, Matyasko A, et al. cleverhans v2. 0. 0: An adversarial machine learning library. arXiv preprint arXiv: 1610. 00768, 2016
    [95] Yang C F, Wu Q, Li H, Chen Y R. Generative poisoning attack method against neural networks. arXiv preprint arXiv: 1703. 01340, 2017
    [96] Shen S, Jin G, Gao K, Zhang Y. APE-GAN: Adversarial Perturbation Elimination with GAN. arXiv preprint arXiv: 1707. 05474, 2017.
    [97] Lee H, Han S, Lee J. Generative adversarial trainer: Defense to adversarial perturbations with GAN. arXiv preprint arXiv: 1705. 03387, 2017
    [98] Johnson-Roberson M, Barto C, Mehta R, Sridhar S N, Rosaen K, Vasudevan R. Driving in the matrix: Can virtual worlds replace human-generated annotations for real world tasks? In: Proceedings of the 2017 IEEE International Conference on Robotics and Automation. Singapore: Institute of Electrical and Electronics Engineers Inc., 2017. 746-753
    [99] Bousmalis K, Silberman N, Dohan D, Erhan D, Krishnan D. Unsupervised pixel-level domain adaptation with generative adversarial networks. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii, USA: IEEE, 2017. 95-104
    [100] Shrivastava A, Pflster T, Tuzel O, Susskind J, Wang W D, Webb R. Learning from simulated and unsupervised images through adversarial training. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii, USA: IEEE, 2017. 2242-2251
    [101] Bousmalis K, Irpan A, Wohlhart P, Bai Y F, Kelcey M, Kalakrishnan M, et al. Using simulation and domain adaptation to improve efficiency of deep robotic grasping. arXiv preprint arXiv: 1709. 07857, 2017
    [102] Santana E, Hotz G. Learning a driving simulator. arXiv preprint arXiv: 1608. 01230, 2016
    [103] Huang V, Ley T, Vlachou-Konchylaki M, Hu W F. Enhanced experience replay generation for efficient reinforcement learning. arXiv preprint arXiv: 1705. 08245, 2017
    [104] Wang K F, Gou C, Zheng N N, Rehg J M, Wang F Y. Parallel vision for perception and understanding of complex scenes: Methods, framework, and perspectives. Artiflcial Intelligence Review, 2017, 48(3): 299-329 doi: 10.1007/s10462-017-9569-z
    [105] Yu Y, Qu W Y, Li N, Guo Z M. Open-category classiflcation by adversarial sample generation. arXiv preprint arXiv: 1705. 08722, 2017
    [106] Odena A. Semi-supervised learning with generative adversarial networks. arXiv preprint arXiv: 1606. 01583, 2016
    [107] Lamb A M, Goyal A, Zhang Y, Zhang S Z, Courville A, Bengio Y. Professor forcing: A new algorithm for training recurrent networks. In: Proceedings of the 29th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 4601-4609
    [108] Johnson J, Gupta A, Fei-Fei L. Image generation from scene graphs. arXiv preprint arXiv: 1804. 01622, 2018
    [109] Reed S, Akata Z, Yan X C, Logeswaran L, Schiele B, Lee H. Generative adversarial text to image synthesis. arXiv preprint arXiv: 1605. 05396, 2016
    [110] Zhu J Y, Krähenbühl P, Shechtman E, Efros A A. Generative visual manipulation on the natural image manifold. In: Proceedings of the 2016 European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016. 597-613
    [111] Brock A, Lim T, Ritchie J M, Weston N. Neural photo editing with introspective adversarial networks. arXiv preprint arXiv: 1609. 07093, 2016
    [112] Isola P, Zhu J Y, Zhou T H, Efros A A. Image-to-image translation with conditional adversarial networks. arXiv preprint arXiv: 1611. 07004, 2016
    [113] Wang T C, Liu M Y, Zhu J Y, Tao A, Kautz J, Catanzaro B. High-resolution image synthesis and semantic manipulation with conditional GANs. arXiv preprint arXiv: 1711. 11585, 2017
    [114] He D, Xia Y, Qin T, Wang L W, Yu N H, Liu T Y, et al. Dual learning for machine translation. In: Proceedings of the 30th Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 820-828
    [115] Zhu J Y, Park T, Isola P, Efros A A. Unpaired image-toimage translation using cycle-consistent adversarial networks. arXiv preprint arXiv: 1703. 10593, 2017
    [116] Gatys L A, Ecker A S, Bethge M. A neural algorithm of artistic style. arXiv preprint arXiv: 1508. 06576, 2015
    [117] Ho J, Ermon S. Generative adversarial imitation learning. arXiv preprint arXiv: 1606. 03476, 2016
    [118] Ng A Y, Russell S J. Algorithms for inverse reinforcement learning. In: Proceedings of the 17th International Conference on Machine Learning. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 2000. 663-670
    [119] Ziebart B D, Maas A L, Bagnell J A, Dey A K. Maximum Entropy Inverse Reinforcement Learning. In: Proceedings of the 23rd National Conference on Artiflcial Intelligence. Chicago, Illinois: AAAI, 2008. 1433-1438
    [120] Ratlifi N D, Silver D, Bagnell J A. Learning to search: Functional gradient techniques for imitation learning. Autonomous Robots, 2009, 27(1): 25-53 doi: 10.1007/s10514-009-9121-3
    [121] Kuefler A, Morton J, Wheeler T, Kochenderfer M. Imitating driver behavior with generative adversarial networks. In: Proceedings of the 2017 IEEE Intelligent Vehicles Symposium. Los Angeles, CA, USA: IEEE, 2017
    [122] Wang Z Y, Merel J, Reed S, Wayne G, de Freitas N, Heess N. Robust imitation of diverse behaviors. arXiv preprint arXiv: 1707. 02747, 2017
    [123] Wang J, Yu L T, Zhang W N, Gong Y, Xu Y H, Wang B Y, et al. IRGAN: A minimax game for unifying generative and discriminative information retrieval models. In: Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. Shinjuku, Tokyo, Japan: ACM, 2017. 515-524
    [124] Frakes, W B, Baeza-Yates R, (Eds. ). Information Retrieval: Data Structures And Algorithms (Vol. 331). Englewood Clifis, New Jersey: prentice Hall, 1992.
    [125] Hu W W, Tan Y. Generating adversarial malware examples for black-box attacks based on GAN. arXiv preprint arXiv: 1702. 05983, 2017
    [126] Gupta A, Zou J. Feedback GAN (FBGAN) for DNA: A novel feedback-loop architecture for optimizing protein functions. arXiv preprint arXiv: 1804. 01694, 2018
    [127] Wang H W, Wang J, Wang J L, Zhao M, Zhang W N, Zhang F Z, et al. GraphGAN: Graph representation learning with generative adversarial nets. arXiv preprint arXiv: 1711. 08267, 2017
    [128] Silver D, Schrittwieser J, Simonyan K, Antonoglou I, Huang A, Guez A, et al. Mastering the game of Go without human knowledge. Nature, 2017, 550(7676): 354-359 doi: 10.1038/nature24270
    [129] Wang F Y, Zhang J J, Zheng X H, Wang X, Yuan Y, Dai X X, et al. Where does AlphaGo go: From church-turing thesis to AlphaGo thesis and beyond. IEEE/CAA Journal of Automatica Sinica, 2016, 3(2): 113-120 doi: 10.1109/JAS.2016.7471613
    [130] Li L, Lin Y L, Zheng N N, Wang F Y. Parallel learning: A perspective and a framework. IEEE/CAA Journal of Automatica Sinica, 2017, 4(3): 389-395 doi: 10.1109/JAS.2017.7510493
    [131] Lin Y L, Li L, Dai X Y, Zheng N N, Wang F Y. Master general parking skill via deep learning. In: Proceedings of the 2017 IEEE Intelligent Vehicles Symposium. Los Angeles, CA, USA: IEEE, 2017.
    [132] Wang F Y, Zheng N N, Cao D P, Martinez C M, Li L, Liu T. Parallel driving in CPSS: A unifled approach for transport automation and vehicle intelligence. IEEE/CAA Journal of Automatica Sinica, 2017, 4(4): 577-587 doi: 10.1109/JAS.2017.7510598
    [133] 王飞跃.生成式对抗网络的研究进展与展望.中国计算机学会通讯, 2017, 13(11): 58-62 https://www.researchgate.net/profile/Fei_Yue_Wang/publication/320827081_shengchengshiduikangwangluoGAN_deyanjiujinzhanyuzhanwang/links/59fc140ca6fdcca1f2931a80/shengchengshiduikangwangluoGAN-deyanjiujinzhanyuzhanwang.pdf
  • 期刊类型引用(86)

    1. 王娜,赵根漩. 大模型技术赋能新质生产力发展:理论逻辑与实现路径. 经济纵横. 2025(01): 100-109 . 百度学术
    2. 张新长,赵元,齐霁,冯炜明. 基于Al大模型的文生图技术方法研究及应用. 地球信息科学学报. 2025(01): 10-26 . 百度学术
    3. 李猛,董红斌. 单样本条件下邻域选择聚合零次知识图谱链接预测方法. 计算机应用研究. 2025(01): 65-70 . 百度学术
    4. 邢润媚,常升龙,何宽,朱曙光,高琼,胡昊. AIGC图像质量评估指标研究. 南京信息工程大学学报. 2025(01): 63-73 . 百度学术
    5. 汤健,郭海涛,夏恒,王鼎,乔俊飞. 面向工业过程的图像生成及其应用研究综述. 自动化学报. 2024(02): 211-240 . 本站查看
    6. 王晓,张翔宇,周锐,田永林,王建功,陈龙,孙长银. 基于平行测试的认知自动驾驶智能架构研究. 自动化学报. 2024(02): 356-371 . 本站查看
    7. 钱惠敏,毛邱凌,陈实,韩怡星,吕本杰. TCSNGAN:基于Transformer和谱归一化CNN的图像生成模型. 计算机应用研究. 2024(04): 1221-1227 . 百度学术
    8. 孙晨晖. 网络流量分析中的深度学习优化方法研究. 信息记录材料. 2024(04): 128-130 . 百度学术
    9. 方伟,张婷婷,谭凯文,汤淼. 基于差分窗口生成式对抗网络的空战态势评估. 系统工程与电子技术. 2024(08): 2738-2746 . 百度学术
    10. 李梦浩,李勇男. 生成式人工智能引发的认知安全风险与对策. 广西警察学院学报. 2024(05): 99-108 . 百度学术
    11. 秦璇,于洺珠,魏伦,程若琦. 基于AIGC背景的交互设计师能力要求的模型分析. 深圳职业技术大学学报. 2024(06): 64-71+87 . 百度学术
    12. 孔锐,蔡佳纯,黄钢,张冰. 基于复合生成对抗网络的对抗样本生成算法研究. 控制与决策. 2023(02): 528-536 . 百度学术
    13. 张贤坤,赵亚婷,丁文强,张翼英. 基于生成对抗网络的变分自编码器解耦合. 天津科技大学学报. 2023(04): 62-68 . 百度学术
    14. 徐笛,梁鹤. 循迹网络:深度造假与新闻真实体制. 全球传媒学刊. 2023(03): 153-169 . 百度学术
    15. 孔祥承. 国家安全视阈下生成式人工智能的法治应对——以ChatGPT为视角. 法治研究. 2023(05): 61-70 . 百度学术
    16. 严钰文,毕文豪,张安,张百川. 基于序列生成对抗网络的无人机集群任务分配方法. 兵工学报. 2023(09): 2672-2684 . 百度学术
    17. 赵祥模,赵玉钰,景首才,惠飞,刘建蓓. 面向自动驾驶测试的危险变道场景泛化生成. 自动化学报. 2023(10): 2211-2223 . 本站查看
    18. 宋晓娜,庄洁,钱振宇. SAEE:主动健康的理论模型. 体育科技文献通报. 2023(10): 268-269+274 . 百度学术
    19. 姜忠龙,邓德位. 军事信息系统人工智能对抗技术研究. 舰船电子工程. 2023(11): 27-32 . 百度学术
    20. 马永硕,齐林海,肖湘宁,王红. 基于改进生成对抗网络的谐波状态估计方法. 电力系统自动化. 2022(01): 139-145 . 百度学术
    21. 文载道,王佳蕊,王小旭,潘泉. 解耦表征学习综述. 自动化学报. 2022(02): 351-374 . 本站查看
    22. 李红彩,马德辉. 人工智能对美国国家情报工作战略演进的影响. 情报杂志. 2022(03): 9-17 . 百度学术
    23. 曹一珉,蔡磊,高敬阳. 基于生成对抗网络的基因数据生成方法. 计算机应用. 2022(03): 783-790 . 百度学术
    24. 吕海峰,蒲宝明. 一种改进的深度信念网络算法. 小型微型计算机系统. 2022(06): 1240-1244 . 百度学术
    25. 彭雨诺,刘敏,万智,蒋文博,何文轩,王耀南. 基于改进YOLO的双网络桥梁表观病害快速检测算法. 自动化学报. 2022(04): 1018-1032 . 本站查看
    26. 彭晏飞,李健,顾丽睿,张曼婷. 基于改进条件生成对抗网络的水下图像增强方法. 液晶与显示. 2022(06): 768-776 . 百度学术
    27. 杜鹏,宋永红,张鑫瑶. 基于自注意力模态融合网络的跨模态行人再识别方法研究. 自动化学报. 2022(06): 1457-1468 . 本站查看
    28. 郭继峰,庞志奇,李星,杨帆,岳琪. 基于生成对抗网络的眼底图像生成方法. 计算机应用与软件. 2022(05): 197-203+252 . 百度学术
    29. 岳丹阳,罗健旭. 改进半监督GAN及在糖网病分级上的应用. 计算机工程与设计. 2022(08): 2204-2212 . 百度学术
    30. 莫建文,贾鹏. 基于梯形网络和改进三训练法的半监督分类. 自动化学报. 2022(08): 2088-2096 . 本站查看
    31. 彭天奇,禹晶,肖创柏. 基于跨尺度低秩约束的图像盲解卷积算法. 自动化学报. 2022(10): 2508-2525 . 本站查看
    32. 郭一鸣,吴晓庆,苏昶东,张世泰,毕翠翠,陶志炜. 基于双向多尺度特征融合的湍流退化图像快速复原. 激光与光电子学进展. 2022(22): 63-73 . 百度学术
    33. 周晓敏,李雄,李丽琦,巩宪锋,张清东,张勃洋. 基于自适应矩估计算法的冷连轧机板形反馈优化控制策略. 冶金自动化. 2022(06): 102-110 . 百度学术
    34. 秦瑞琳,周昌乐,晁飞. 机器意识研究综述. 自动化学报. 2021(01): 18-34 . 本站查看
    35. 郑凯,李建胜,王俊强,欧阳文,谷友艺,张迅. DCLS-GAN:利用生成对抗网络的天绘一号卫星高原地区影像去云方法. 测绘学报. 2021(02): 248-259 . 百度学术
    36. 陈佛计,朱枫,吴清潇,郝颖明,王恩德,崔芸阁. 生成对抗网络及其在图像生成中的应用研究综述. 计算机学报. 2021(02): 347-369 . 百度学术
    37. 李阳,赵于前,廖苗,廖胜辉,杨振. 基于水平集和形状描述符的腹部CT序列肝脏自动分割. 自动化学报. 2021(02): 327-337 . 本站查看
    38. 刘之瑜,张淑芬,刘洋,罗长银,李敏. 基于图像梯度的数据增广方法. 应用科学学报. 2021(02): 302-311 . 百度学术
    39. 姚成思,齐亚莉,夏浩昌,丁忠祥. 基于无映射数据集的生成对抗网络图像生成算法研究. 北京印刷学院学报. 2021(03): 147-150 . 百度学术
    40. 李新利,邹昌铭,杨国田,刘禾. 基于生成式对抗网络的发票图像超分辨率研究. 系统仿真学报. 2021(06): 1307-1314 . 百度学术
    41. 李祥霞,谢娴,李彬,尹华,许波,郑心炜. 生成对抗网络在医学图像处理中的应用. 计算机工程与应用. 2021(18): 24-37 . 百度学术
    42. 张福正,李琨,李仕林,赵李强,董厚琦. 基于集成学习PCA多元融合的输电线路图像生成研究. 光电子·激光. 2021(08): 841-851 . 百度学术
    43. 史加荣,王丹,尚凡华,张鹤于. 随机梯度下降算法研究进展. 自动化学报. 2021(09): 2103-2119 . 本站查看
    44. 李新利,邹昌铭,杨国田,刘禾. SealGAN:基于生成式对抗网络的印章消除研究. 自动化学报. 2021(11): 2614-2622 . 本站查看
    45. 秦菲菲,董昱. 面向列车轮轨接触区域图像分割的生成对抗网络. 电子测量与仪器学报. 2021(11): 154-162 . 百度学术
    46. 孔锐,黄钢. 基于条件约束的胶囊生成对抗网络. 自动化学报. 2020(01): 94-107 . 本站查看
    47. 卫星,杨国强,李佳,陆阳,石雷. 结合多尺度条件生成对抗网络的井下轨道检测. 中国图象图形学报. 2020(02): 282-293 . 百度学术
    48. 林胜,巩名轶,牟文芊,董伯男. 基于对抗式生成网络的农作物病虫害图像扩充. 电子技术与软件工程. 2020(03): 140-142 . 百度学术
    49. 武随烁,杨金福,单义,许兵兵. 使用孪生注意力机制的生成对抗网络的研究. 计算机科学与探索. 2020(05): 833-840 . 百度学术
    50. 王晓,韩双双,杨林瑶,曾轲,王飞跃. 基于ACP的动态网民群体运动组织建模与计算实验研究. 自动化学报. 2020(04): 653-669 . 本站查看
    51. 邵杭,王永雄. 基于并行对抗与多条件融合的生成式高分辨率图像修复. 模式识别与人工智能. 2020(04): 363-374 . 百度学术
    52. 高庆吉,赵志华,徐达,邢志伟. 语音情感识别研究综述. 智能系统学报. 2020(01): 1-13 . 百度学术
    53. 王晓峰,杨亚东. 基于生态演化的通用智能系统结构模型研究. 自动化学报. 2020(05): 1017-1030 . 本站查看
    54. 许韬,段宣尧. 生成式对抗网络的现实应用. 电子技术与软件工程. 2020(08): 132-133 . 百度学术
    55. 陈佛计,朱枫,吴清潇,郝颖明,王恩德. 基于生成对抗网络的红外图像数据增强. 计算机应用. 2020(07): 2084-2088 . 百度学术
    56. 钱文华,曹进德,徐丹,吴昊. 非真实感绘制技术研究现状与展望. 中国图象图形学报. 2020(07): 1283-1295 . 百度学术
    57. 杨玉莲,齐林海,王红,苏林萍,徐永海. 基于生成对抗和双重语义感知的配电网量测数据缺失重构. 电力系统自动化. 2020(18): 46-56 . 百度学术
    58. 王利,陈宇综,张辉. 深度学习下AI生成印象派美术及全景画的微观艺术研究. 艺术工作. 2020(05): 19-23 . 百度学术
    59. 张翠,杨志清,周茂杰. 基于双通道卷积神经网络的缺陷检测. 模具工业. 2020(11): 13-17 . 百度学术
    60. 曹通,白艳萍. 基于梯度下降优化的LSTM对空气质量预测研究. 陕西科技大学学报. 2020(06): 159-164 . 百度学术
    61. 彭晏飞,杜婷婷,高艺,訾玲玲,桑雨. 基于条件生成对抗网络的低照度遥感图像增强. 激光与光电子学进展. 2020(14): 152-160 . 百度学术
    62. 张贺舒,李涛,宋公飞. 单帧图像的耦合生成式对抗超分辨率重建. 计算机工程与应用. 2020(24): 194-200 . 百度学术
    63. 李少波,杨静,王铮,朱书德,杨观赐. 缺陷检测技术的发展与应用研究综述. 自动化学报. 2020(11): 2319-2336 . 本站查看
    64. 程乐峰,余涛,张孝顺,殷林飞. 机器学习在能源与电力系统领域的应用和展望. 电力系统自动化. 2019(01): 15-43 . 百度学术
    65. 唐骞. 基于对抗学习的图像修复. 计算机产品与流通. 2019(01): 210 . 百度学术
    66. 冯杰,班彪华. 生成对抗网络模型的基本介绍和应用综述. 现代计算机(专业版). 2019(04): 34-39 . 百度学术
    67. 杨延西,赵梦. 基于CNN的带钢表面缺陷检测. 重型机械. 2019(02): 25-29 . 百度学术
    68. 罗佳,黄晋英. 生成式对抗网络研究综述. 仪器仪表学报. 2019(03): 74-84 . 百度学术
    69. 吕之谓. 计算机网络安全管理中人工智能系统的应用. 电大理工. 2019(01): 12-15+23 . 百度学术
    70. 伍辉. 生成式对抗网络的研究进展综述. 工业控制计算机. 2019(07): 70-71 . 百度学术
    71. 李从利,张思雨,韦哲,薛松. 基于深度卷积生成对抗网络的航拍图像去厚云方法. 兵工学报. 2019(07): 1434-1442 . 百度学术
    72. 张强,杨剑,富丽贞. 双输入流深度反卷积的插值神经网络. 计算机应用. 2019(08): 2271-2275 . 百度学术
    73. 杜振龙,沈海洋,宋国美,李晓丽. 基于改进CycleGAN的图像风格迁移. 光学精密工程. 2019(08): 1836-1844 . 百度学术
    74. 王格格,郭涛,李贵洋. 多层感知器深度卷积生成对抗网络. 计算机科学. 2019(09): 243-249 . 百度学术
    75. 魏小娜,李英豪,王振宇,李皓尊,汪红志. 医学影像人工智能辅助诊断的样本增广方法. 计算机应用. 2019(09): 2558-2567 . 百度学术
    76. 尹一伊,朱其新,张国平,朱永红. 基于GAN网络的机器人逆运动学求解. 苏州科技大学学报(自然科学版). 2019(03): 74-78 . 百度学术
    77. 姜玉宁,李劲华,赵俊莉. 生成式对抗网络模型研究. 青岛大学学报(自然科学版). 2019(03): 31-38+43 . 百度学术
    78. 张杰,赵惠军,李贤威,王亚林,张梦圆. 基于生成式对抗网络技术合成医学图像的研究进展与展望. 医疗卫生装备. 2019(10): 93-98 . 百度学术
    79. 方舟,裘炜浩,季超,夏鹏飞,龚康家,周后盘. 基于对抗生成网络与BP神经网络的低压台区线损率预测. 浙江电力. 2019(10): 46-51 . 百度学术
    80. 王格格,郭涛,余游,苏菡. 基于半监督学习的多层感知器生成对抗网络. 小型微型计算机系统. 2019(11): 2297-2303 . 百度学术
    81. 陈晓榕,江岳文. 基于DCGAN的风速场景建模方法优越性研究. 电器与能效管理技术. 2019(21): 74-82 . 百度学术
    82. 马文焱,戚晨皓. 基于深度学习的上行传输过程毫米波通信波束选择方法. 合肥工业大学学报(自然科学版). 2019(12): 1644-1648 . 百度学术
    83. 赵维. 基于生成对抗网络的异常行为模拟算法研究. 长春理工大学学报(自然科学版). 2019(06): 138-142 . 百度学术
    84. 赵维. 基于生成对抗网络的异常行为模拟算法研究. 长春理工大学学报. 2019(06): 138-142 . 百度学术
    85. 杨林瑶,陈思远,王晓,张俊,王成红. 数字孪生与平行系统:发展现状、对比及展望. 自动化学报. 2019(11): 2001-2031 . 本站查看
    86. 李可,贺少杰,宿磊,顾杰斐,苏文胜,卢立新. 基于进化算法优化GAN的轴承故障诊断. 振动.测试与诊断. 2023(02): 298-303+410 . 百度学术

    其他类型引用(125)

  • 加载中
  • 图(19)
    计量
    • 文章访问数:  5213
    • HTML全文浏览量:  1229
    • PDF下载量:  4565
    • 被引次数: 211
    出版历程
    • 收稿日期:  2018-03-01
    • 录用日期:  2018-05-01
    • 刊出日期:  2018-05-20

    目录

    /

    返回文章
    返回