2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于贝叶斯生成对抗网络的背景消减算法

郑文博 王坤峰 王飞跃

郑文博, 王坤峰, 王飞跃. 基于贝叶斯生成对抗网络的背景消减算法. 自动化学报, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562
引用本文: 郑文博, 王坤峰, 王飞跃. 基于贝叶斯生成对抗网络的背景消减算法. 自动化学报, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562
ZHENG Wen-Bo, WANG Kun-Feng, WANG Fei-Yue. Background Subtraction Algorithm With Bayesian Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562
Citation: ZHENG Wen-Bo, WANG Kun-Feng, WANG Fei-Yue. Background Subtraction Algorithm With Bayesian Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 878-890. doi: 10.16383/j.aas.2018.c170562

基于贝叶斯生成对抗网络的背景消减算法

doi: 10.16383/j.aas.2018.c170562
基金项目: 

国家自然科学基金 91720000

国家自然科学基金 61533019

详细信息
    作者简介:

    郑文博  西安交通大学软件学院长学制研究生.主要研究方向为平行视觉, 平行学习, 机器学习.E-mail:zwb2017@stu.xjtu.edu.cn

    王坤峰  中国科学院自动化研究所复杂系统管理与控制国家重点实验室副研究员.主要研究方向为智能交通系统, 智能视觉计算, 机器学习.E-mail:kunfeng.wang@ia.ac.cn

    通讯作者:

    王飞跃  中国科学院自动化研究所复杂系统管理与控制国家重点实验室研究员.国防科技大学军事计算实验与平行系统技术研究中心主任.主要研究方向为智能系统和复杂系统的建模、分析与控制.本文通信作者.E-mail:feiyue.wang@ia.ac.cn

Background Subtraction Algorithm With Bayesian Generative Adversarial Networks

Funds: 

National Natural Science Foundation of China 91720000

National Natural Science Foundation of China 61533019

More Information
    Author Bio:

     Master-doctor combined candidate at the School of Software Engineering, Xi0an Jiaotong University. His research interest covers parallel vision, parallel learning, and machine learning

     Associate professor at The State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. His research interest covers intelligent transportation systems, intelligent vision computing, and machine learning

    Corresponding author: WANG Fei-Yue  Professor at The State Key Laboratory for Management and Control of Complex Systems, Institute of Automation, Chinese Academy of Sciences. Director of the Research Center for Computational Experiments and Parallel Systems Technology, National University of Defense Technology. His research interest covers modeling, analysis, and control of intelligent systems and complex systems. Corresponding author of this paper
  • 摘要: 背景消减是计算机视觉和模式识别的关键技术之一.本文提出一种新的背景消减算法,该算法首先利用中值滤波算法进行背景数据的获取,然后基于贝叶斯生成对抗网络进行训练,利用生成对抗网络的特性,有效地对每个像素进行分类,解决了光照渐变和突变、非静止背景以及鬼影的问题.本文采用深度卷积神经网络,来构建贝叶斯生成对抗网络的生成器和判别器.实验结果表明,本文提出的算法性能在绝大多数情况下优于现有其他算法.本文的贡献在于首次将贝叶斯生成对抗网络应用于背景消减,并且取得了良好的实验效果.
  • 形状匹配一直都是计算机视觉领域中的重要研究问题, 其经过几十年发展已经得到了很多成熟有效的方法, 在目标识别、图像检索、医学成像分析等众多领域都得到了广泛的应用[1-2].形状匹配结果一般表示为形状距离, 一对相似形状对应的形状距离通常较小, 反之两个不相似形状对应的距离往往较大[3].

    逐对形状匹配方法由形状特征提取和形状特征匹配两个步骤组成, 其专注于分析两个待匹配形状间的关系来计算距离[4].但是很多情况下, 仅考虑一对形状间相似程度往往难以分析得到准确的匹配结果[5-6]. 图 1给出了一组利用逐对形状匹配方法可能产生错误匹配结果的示例 ( $A$ 为狗, $B$ 和 $C$ 为马).由于 $A$ 与 $B$ 的姿态比较接近, 逐对形状匹配方法通常分析得到 $AB$ 间距离小于 $BC$ 间距离, 与实际分类结果不符.当相同类别形状差异较大、不同类别形状差异较小时, 通过分析数据集中蕴含的流形信息可以较为有效地改善匹配结果.鉴于此, 近些年很多研究都在逐对形状匹配方法后引入距离度量学习作为后处理步骤, 经过该步骤后可以得到新的``相似度''、``距离''或``排序''结果, 从而改善逐对形状匹配方法得到的距离.改进后得到形状匹配方法框架如图 2所示.

    图 1  逐对形状匹配方法可能导致错误结果的示例
    Fig. 1  An example of misunderstanding of objects caused by pairwise shape matching methods
    图 2  形状匹配方法框架
    Fig. 2  The framework for shape matching methods

    在形状距离学习的研究中, Bai等[5, 7]首先引入半监督学习中的标记传播算法 (Label propagation, LP) 对逐对形状匹配的结果进行改进.在样本空间中, 形状标记可以沿测地线路径方向快速传播, 因此标记传播方法能够隐式地分析样本空间中的流形信息. Yang等[6]提出了基于局部约束扩散过程 (Locally constrained diffusion process, LCDP) 的形状距离学习算法.该方法首先对原始形状集合进行扩展, 在此基础上建立具有约束条件的扩散图, 进而选择扩散距离作为距离更新结果.文献[8-9]也应用该算法对不同的形状匹配结果进行距离学习, 取得了较好结果. Egozi等[10]也提出了一种基于元描述符 (Meta descriptor, MD) 的形状距离学习方法.元描述符是以相似度空间中 $K$ 近邻权重生成的矢量特征, 利用 $L_1$ 范数计算可得更新后的形状间距离.文献[11]提出在张量积图 (Tensor product graph, TPG) 的基础上分析扩散过程, 由于引入了更高阶的信息, 因此得到了更可靠的目标间相似度. Donoser等[12]对距离学习方法进行了总结回顾, 并在扩散过程框架下提出了更加有效的距离学习方法.文献[13]引入期望首达时间 (Mean first-passage time, MFPT) 对逐对形状匹配结果进行分析, 以完成状态转移所需的平均时间步长作为形状距离学习结果, 能够较为有效地挖掘空间流形结构信息.

    上述距离学习方法都尝试隐式地挖掘样本空间拓扑结构, 虽然能较好地分析局部空间信息, 但很难准确描述相距较远的同类样本间相似程度.当样本空间中一对同类别目标距离较远时, 空间流形对应的检索路径上通常会包含许多样本点.这可能导致标记信息在传播过程中衰减较快, 难以有效地影响到距离较远的同类样本.对于期望首达时间而言, 这一情形可能导致完成状态转移所需的平均时间步长较大, 不能得到理想的形状距离更新结果.

    针对此类问题, Wang等[14]提出了一种最短路径传播算法 (Shortest path propagation, SPP), 通过显式地挖掘样本空间中最优路径来实现距离学习, 但是其无法克服标记传播算法存在的不平衡性问题.为了更好地分析形状距离学习问题, 提出一种基于广义期望首达时间 (Generalized mean first-passage time, GMFPT) 的形状距离学习算法.本文在期望首达时间概念基础上引申定义了广义期望首达时间, 其反映了质点从状态空间中一个状态转移至某个状态集合所对应的平均时间步长.已知逐对形状匹配方法得到的距离矩阵, 通过构造稀疏连接图以去除不相关样本间的连接, 可以一定程度上避免质点在非同类样本间的状态转移, 从而消除不相关样本在距离学习过程中的干扰.在进行形状距离学习的过程中, 考虑利用查询样本及距离较近的样本构造样本子集合, 利用广义期望首达时间来表示更新后的形状间距离, 通过多次迭代显式地挖掘得到最优路径.本文分别选择了不同的形状数据集进行仿真实验, 对比其他文献中形状距离学习方法, 所提方法能够得到更好的形状检索结果.

    本节首先介绍期望首达时间的相关概念, 进一步对文献[13]中提出的形状距离学习算法进行回顾.在逐对形状匹配的基础上, 该方法借助期望首达时间来分析挖掘样本空间流形结构, 对形状匹配结果进行更新.

    对于形状样本集合 $\{s_1, s_2, \cdots, s_N\}$ , 可以构造状态空间 $Space=\{1, 2, \cdots, N\}$ , 样本 $s_k$ 对应元素 $k$ $\in$ ${Space}$ .对于任意的元素 $i, j\in{Space}$ , (一步) 状态转移概率满足 $p_{ij}>0$ , 状态空间对应的状态转移矩阵为 $P=[p_{ij}]$ .随机序列 $\{X_n:n=0, 1, 2, \cdots\}$ 是时齐的离散时间马尔科夫链

    $\begin{align} &P\left({X_{n+1}=j|X_n=i, X_{n-1}=i_{n-1}, \cdots, X_0=i_0}\right)=\notag\\[1mm] &~~~ P\left({X_{n+1}=j|X_n=i}\right)= P\left({X_{1}=j|X_0=i}\right)=p_{ij} \end{align} $

    (1)

    其中, $X_n$ 在状态空间 $Space$ 中取值.

    在状态空间中, 期望首达时间表示质点由一个状态转移至另一个状态所需的平均转移次数.由状态 $i$ 至状态 $j$ 的期望首达时间定义为 $\mu_{ij}$

    $\begin{align} \mu_{ij}=&\ {\rm E}\left({T_j|X_0=i}\right)=\notag\\[1mm] &\ \sum\limits_{n=1}^\infty{n{P\left({T_j=n|X_0=i}\right)}} \end{align} $

    (2)

    其中, $T_j=\min\{{n>0:X_n=j}\}$ 表示质点首次到达状态 $j$ 所对应的转移次数.对于集合中同类形状样本而言, 质点可以沿检索路径快速完成状态转移.

    标记传播算法固定查询样本标记, 将标记的传播过程作为研究重点.对比而言, 以期望首达时间更新形状距离则重点关注质点完成状态转移所需的时间步长, 可以避免标记传播算法的不平衡性问题.其使同类形状样本的分布更加紧凑, 进而更好地挖掘局部空间的几何信息[12].

    假设 $s_N$ 和 $s_k$ 分别为查询样本和目标样本, $1$ $\le$ ${k}$ $\le$ ${K}$ , $K=N-1$ .以期望首达时间 $\mu_{Nk}$ 作为二者间更新后的距离, 可以得到如下方程形式

    $\begin{align} \left(I-A\right)\boldsymbol{\mu}_i=\boldsymbol{1}_{K} \end{align} $

    (3)

    其中, $\boldsymbol{\mu}_i=\left[{\mu_{1i}, \cdots, \mu_{Ki}}\right]^\mathrm{T}$ , $A=\left[p_{i j}\right]$ , $1\le{i}\le{K}$ , $1\le{j}\le{K}$ , $\boldsymbol{1}_{K}=\left[{1, \cdots, 1}\right]^\mathrm{T}$ 包含了 $K=N-1$ 个元素.由于 $A$ 中元素满足 $p_{ij}>0$ , $I-A$ 中有 $1-p_{ii}$ $>$ $\sum\nolimits_{j\ne{i}}{\left|-p_{ij}\right|}=1-p_{ii}-p_{iN}$ .因此, $I-A$ 是严格对角占优方阵, 式 (3) 对应的线性方程可以直接进行求解, 通过对 $\boldsymbol{\mu}_i$ 中各元素进行排序 (Ranking) 即可得到形状检索结果.

    为了能够分析状态空间中更加复杂的状态转移问题, 本节在期望首达时间的基础上提出了更具一般意义的广义期望首达时间, 为后续形状距离学习提供相关的理论支持.

    已知状态空间 $Space$ 下的时齐离散时间马尔科夫链 $\{X_n\}$ , 对于状态 $i\in{Space}$ 和集合 $L\subset{Space}$ , 引入条件概率

    $\begin{align} \label{eq4} f_{iL}^{\left(n\right)}=P_i\left({X_n\in{L}, X_m\notin{L}, 1\le{m}\le{n-1}}\right) \end{align} $

    (4)

    其中, $P_i\left(\cdot\right)=P\left({\cdot|X_0=i}\right)$ .在式 (4) 中, $f_{iL}$ 表示质点从状态 $i$ 出发, 第 $n$ 步到达集合 $L$ 的概率.这里进一步给出广义期望首达时间的定义.

    定义1.定义由 $i$ 转移至 $L$ 的平均状态转移次数为广义期望首达时间, 记作 $\eta_{iL}$

    $ \begin{array}{l} {\eta _{iL}} = \;{\rm{E}}\left( {{T_L}|{X_0} = i} \right) = \\ \sum\limits_{n = 1}^\infty {n{P_i}\left( {{T_L} = n} \right)} = \sum\limits_{n = 1}^\infty {nf_{iL}^{\left( n \right)}} \end{array} $

    (5)

    其中, $T_L=\min\{{n>0:X_n\in{L}}\}$ 表示质点首次到达集合 $L$ 的转移次数.比较式 (2) 中期望首达时间和式 (5) 中广义期望首达时间的定义可以看出, 如果集合 $L$ 中仅包含元素 $j\in{Space}$ , 则 $\eta_{iL}=\mu_{ij}$ , 即期望首达时间是广义期望首达时间对应的一种特殊情况.

    从式 (4) 可知, $f_{iL}$ 满足如下关系

    ${\small \begin{align} &f_{iL}^{\left(n\right)}=P_i\left({X_n\in{L}, X_m\notin{L}, 1\le{m}\le{n-1}}\right) =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}P\left({X_n\in{L}, X_m\notin{L}, 2\le{m}\le{n-1}|X_1=j}\right)} =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}P_j\left({X_{n-1}\in{L}, X_m\notin{L}, 1\le{m}\le{n-2}}\right)} =\notag\\[1mm] &\qquad \sum\limits_{j\notin{L}}{p_{ij}f_{jL}^{\left({n-1}\right)}} \end{align}} $

    (6)

    结合式 (5) 中广义期望首达时间的定义, 可得如下所示的表达式

    $ \begin{align} \eta_{iL}=&\ \sum\limits_{n=1}^\infty{nf_{iL}^{\left(n\right)}} =\sum\limits_{n=2}^\infty{\left({n-1}\right)f_{iL}^{\left(n\right)}}+ \sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}}=\notag\\ &\ \sum\limits_{j\notin{L}}{p_{ij}\sum\limits_{n=2}^\infty{\left({n-1}\right)f_{jL}^{\left({n-1}\right)}}} +\sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}}=\notag\\ &\ \sum\limits_{j\notin{L}}{p_{ij}}\eta_{jL}+\sum\limits_{n=1}^\infty{f_{iL}^{\left(n\right)}} \end{align} $

    (7)

    为方便讨论, 将状态空间划分为两个集合 $U=$ $\{1$ , $\cdots, M\}$ 和 $L=\{M+1, \cdots, N\}$ , 二者分别包含 $M$ 个元素和 $N-M$ 个元素, $Space=U\cup{L}$ .状态转移矩阵 $P$ 可以写成如下式所示的分块矩阵

    $\begin{align} \label{eq8} P=\left[{\begin{array}{*{20}{c}} {{P_{UU}}}&{{P_{UL}}}\\ {{P_{LU}}}&{{P_{LL}}} \end{array}}\right] \end{align} $

    (8)

    其中, $P_{UU}=\left[p_{ij}\right]$ , $P_{UL}=\left[p_{ik}\right]$ , $P_{LU}=\left[p_{lj}\right]$ , $P_{LL}$ = $\left[p_{lk}\right]$ , $1\le{i}\le{M}$ , $1\le{j}\le{M}$ , $M$ $+$ $1$ $\le$ ${k}\le{N}$ , $M+1\le{l}\le{N}$ .进一步可知 $f_{iL}^{\left(n\right)}$ = $\sum\nolimits_{j=1}^M{p_{ij}f_{jL}^{\left({n-1}\right)}}$ , $f_{iL}^{\left(1\right)}$ = $\sum\nolimits_{j=M+1}^N{p_{ij}}$ , 满足如下关系

    $\begin{align} &\label{eq9} \left[{\begin{array}{*{20}c}f_{1L}^{\left(n\right)}\\\vdots\\f_{ML}^{\left(n\right)} \\\end{array}}\right]=P_{UU}\times{\left[{\begin{array}{*{20}c}f_{1L}^{\left(n-1\right)}\\ \vdots\\f_{ML}^{\left(n-1\right)}\\\end{array}}\right]} \end{align} $

    (9)

    $\begin{align} \left[{\begin{array}{*{20}c}f_{1L}^{\left(1\right)}\\\vdots\\f_{ML}^{\left(1\right)} \\\end{array}}\right]=P_{UL}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (10)

    通过式 (9) 和式 (10) 可得

    $\begin{align} &\left[{\begin{array}{*{20}c}\sum\limits_{n=1}^\infty{f_{1L}^{\left(n\right)}} \\ \vdots\\\sum\limits_{n=1}^\infty{f_{ML}^{\left(n\right)}} \\\end{array}}\right]=\notag\\[1mm] &\qquad \left(I+P_{UU}+P_{UU}^2+\cdots\right)\times{P_{UL}}\times{\boldsymbol{1}_{N-M}}=\notag\\[1mm] &\qquad \sum\limits_{k=0}^\infty{\left(P_{UU}\right)^k}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (11)

    在状态空间划分下, 式 (7) 可写作 $\eta_{iL}=\sum\nolimits_{j=1}^M{p_{ij}\eta_{jL}}+\sum\nolimits_{n=1}^\infty{f_{iL}^{\left(n\right)}}$ , 结合式 (11) 可得

    $\begin{align} &\label{eq12} \boldsymbol{\eta}_L=P_{UU}\times{\boldsymbol{\eta}_L} +\left[{\begin{array}{*{20}c}\sum\limits_{n=1}^\infty{f_{1L}^{\left(n\right)}} \\\vdots\\\sum\limits_{n=1}^\infty{f_{ML}^{\left(n\right)}}\\\end{array}}\right] \end{align} $

    (12)

    $ \begin{align} \label{eq13} \left(I-P_{UU}\right)\times{\boldsymbol{\eta}_L} =\sum\limits_{k=0}^\infty{\left(P_{UU}\right)^k}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (13)

    其中, $\boldsymbol{\eta}_L=\left[{\eta_{1L}, \cdots, \eta_{ML}}\right]^\mathrm{T}$ .从式 (13) 可以看出, 如果矩阵 $I-P_{UU}$ 可逆, 直接求解线性方程即可得到广义期望首达时间.

    已知逐对形状匹配方法所得到的形状间距离, 本节将首先通过形状间距离矩阵构造状态转移矩阵, 进一步借助广义期望首达时间对形状间距离进行学习和更新.

    已知形状样本集合 $\{s_1, \cdots, s_N\}$ , $d_{ij}$ 是利用逐对形状匹配方法得到的 $s_i$ 和 $s_j$ 间距离, 距离矩阵为 $D$ = $\left[d_{ij}\right]$ .相似度 $r_{ij}$ 可由 $d_{ij}$ 计算得到, 将其对应表达式定义为

    $\begin{align} \label{eq14} r_{ij}=\exp\left({-\frac{{d_{ij}^2}}{{\sigma_{ij}^2}}}\right) \end{align} $

    (14)

    其中, $\sigma_{ij}$ 对应高斯核函数的核宽.利用 $kd\left(i\right)$ 表示样本 $s_i$ 的 $K_d$ 个近邻形状样本集合.参考文献[5, 10]中的核宽设置方法, $\sigma_{ij}$ 可以表示为

    $\begin{align} \label{eq15} \sigma_{ij}=\alpha\frac{1}{2K_d}\left(\sum\limits_{s_k\in{kd\left(i\right)}}{d_{ik}} +\sum\limits_{s_l\in{kd\left(j\right)}}{d_{jl}}\right) \end{align} $

    (15)

    其中, 参数 $K_d$ 由数据集中形状样本数目决定, 样本数目越多 $K_d$ 的取值越大, 即能够得到更合适的距离均值.参数 $\alpha$ 的取值通常介于0.2~0.4之间, 往往需要结合逐对形状匹配方法的选择来确定.

    在得到样本间相似度的基础上, 建立稀疏连接的无向图 $G$ .以 $ks\left(i\right)$ 表示 $s_i$ 的 $K_s$ 个近邻样本, 各顶点连接权重 $w_{ij}$ 定义为

    $\begin{align} \label{eq16} w_{ij}=\begin{cases} r_{ij}, &s_i\in{ks\left(j\right)}, \ s_j\in{ks\left(i\right)}\\[1mm] 0, &{\mbox{其他}}\end{cases} \end{align} $

    (16)

    其中, 参数 $K_s$ 与数据集中样本分布情况相关, 同类样本间越接近则 $K_s$ 值越小, 反之 $K_s$ 值越大, 其可以根据交叉验证方法确定.通过式 (16) 可得连接权重矩阵 $W=\left[w_{ij}\right]$ .图 $G$ 是通过连接少数近邻样本得到的, 相距较远的样本间没有连接, 其对状态转移过程进行了约束.由于参考点与近邻样本大多属于同一类别, 因此可以保证质点仅在同类别样本对应状态间进行转移, 能有效地避免不相关样本间的影响, 极大地消除冗余信息.

    由于数据集中样本分布存在不平衡性, $G$ 可能是由多个连通分量构成的非连通图, 可以通过深度优先遍历等方法得到各连通分量[15].为了方便后续的分析, 本小节假设 $G$ 是一个连通图, 对于非连通图的情形将在第3.3节进行说明.

    在形状样本集合对应的状态空间 $Space$ 中, 由状态 $i$ 至状态 $j$ 的状态转移概率定义为

    $\begin{align} \label{eq17} p_{ij}=\frac{{w_{ij}}}{{\sum\limits_{k = 1}^N{w_{ik}}}} \end{align} $

    (17)

    可得状态转移矩阵为 $P=\left[p_{ij}\right]$ .由于 $G$ 是连通图, 且 $p_{ii} > 0$ , 进而可知一定存在 $\lambda\ge{1}$ , 使得 $p_{ij}^{\left(\lambda\right)} > 0$ , $P^{\left(\lambda\right)}=\left[p_{ij}^{\left(\lambda\right)}\right]$ .

    状态转移矩阵 $P$ 是由形状距离矩阵 $D$ 构造生成的, 其中包含了丰富的样本空间局部几何信息.借助期望首达时间进行形状距离学习时, 流形空间中的检索路径可以隐式地挖掘得到.但是, 当两个同类样本在样本空间中相距较远时, 二者之间必定间隔了数目较多的同类别样本.因此质点在状态转移过程中, 必将经过多个同类别样本对应的状态, 对应的期望首达时间较长.

    图 3中给出了一个由7个状态构成状态空间的示例. $b$ 和 $c$ 属于一个类别, $a$ 、 $d$ 、 $e$ 、 $f$ 和 $g$ 属于另一个类别, 状态间连接权重与样本间距离成反比.如果将 $a$ 视作查询样本, 通过分析期望首达时间进行距离学习, 可以得到 $\mu_{{ba}}> \mu_{{ea}}$ , 但是存在 $\mu_{{ba}} < \mu_{{fa}}$ 和 $\mu_{{ba}} < \mu_{{ga}}$ .可以看出, 虽然期望首达时间能够有效分析相距较近的样本间关系, 却难以准确描述相距较远的样本间相似程度.

    图 3  由2个类别样本对应的7个状态构成状态空间的示例
    Fig. 3  An example of state space consisting of 7 states which corresponds to the samples from 2 categories

    为了减少质点在同类样本对应状态间完成转移所需时间步长, 考虑显式地挖掘空间中的检索路径, 分析计算质点由各状态转移至检索路径对应集合的时间步长, 即将上一节定义的广义期望首达时间作为距离更新结果.在图 3的示例中, 借助广义期望首达时间分析的结果, 依次将 $d$ 和 $e$ 划入检索路径集合得到对应的 $L$ 和 $L'$ , 可知 $\eta_{{\rm{b}}L} > \eta_{{\rm{f}}L}$ 和 $\eta_{{\rm{b}}L'} > \eta_{{\rm{g}}L'}$ .不难发现, 结合广义期望首达时间分析样本间距离能够得到更准确的检索结果.

    通过此前分析可知广义期望首达时间满足线性方程 (13), 这里进一步分析如何进行求解.定义 $\left(P_{UU}\right)^\lambda$ = $\left[q_{ij}\right]$ , 可得

    $\begin{align} q_{ij}=&\ \sum\limits_{{k_1}=1}^M{...\sum\limits_{{k_{\lambda-1}}=1}^M{p_{ik_1}...{p_{k_{\lambda-1}j}}}}\le\notag\\[1mm] &\ {\sum\limits_{{k_1}=1}^N{...\sum\limits_{{k_{\lambda-1}}=1}^N{p_{ik_1}...{p_{k_{\lambda-1}j}}}}} =p_{ij}^{\left(\lambda\right)}\notag \end{align} $

    (18)

    由式 (18) 的关系可知

    $\begin{align} \label{eq19} \sum\limits_{j=1}^M{q_{ij}}\le{\sum\limits_{j=1}^M{p_{ij}^{\left(\lambda\right)}}} =1-\sum\limits_{j=M+1}^N{p_{ij}^{\left(\lambda\right)}} < 1 \end{align} $

    (19)

    结合式 (19) 可知谱半径满足如下关系

    $\begin{align} &\label{eq20} \left\|\left(P_{UU}\right)^\lambda\right\|_\infty=\mathop{\max}\limits_{1\le{i}\le{M}}\sum\limits_{j=1}^M{\left|q_{ij}\right|} < 1 \end{align} $

    (20)

    $\begin{align} \rho\left(P_{UU}\right)\le{\left\|\left(P_{UU}\right)^\lambda\right\|_\infty^{\frac{1}{\lambda}}} < 1 \end{align} $

    (21)

    据此, 进一步可以得到 $I-P_{UU}$ 可逆且 $\sum\nolimits_{k=0}^\infty{\left(P_{UU}\right)^k}=\left(I-P_{UU}\right)^{-1}$ , 式 (13) 对应的线性方程表示为

    $\begin{align} \label{eq22} \left(I-P_{UU}\right)\times{\boldsymbol{\eta}_L}=\left(I-P_{UU}\right)^{-1}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}} \end{align} $

    (22)

    又 $\sum\nolimits_{j=1}^N{p_{ij}}=1$ , 可知 $P_{UU}\times{\boldsymbol{1}_M}+P_{UL}\times{\boldsymbol{1}_{N-M}}=\boldsymbol{1}_M$ , 进而

    $\begin{align} \label{eq23} \left(I-P_{UU}\right)^{-1}\times{P_{UL}}\times{\boldsymbol{1}_{N-M}}=\boldsymbol{1}_M \end{align} $

    (23)

    线性方程最终形式表示为

    $\begin{align} \label{eq24} \boldsymbol{\eta}_L=\left(I-P_{UU}\right)^{-1}\times{\boldsymbol{1}_M} \end{align} $

    (24)

    因此, 线性方程具有唯一解, 广义期望首达时间可以通过不同的线性方程求解方法得到.进而可知, 其对应计算过程的时间复杂度与求解线性方程组的时间复杂度相同, 均为 ${\rm O}\left(M^3\right)$ .

    此前为方便讨论, 假设 $G$ 是一个连通图, 但是很多情况下 $G$ 可能是非连通图, 质点无法在隶属于不同连通分量的状态和集合间完成状态转移.以 $C$ 表示包含查询样本的连通分量, 可以将其视作状态空间 $Space$ 并分析广义期望首达时间.此外, 考虑到同类样本可能隶属于不同的连通分量, 因此进一步将其他连通分量中样本与查询样本间相似度进行分析排序.

    综合此前的分析, 给出基于广义期望首达时间的形状距离学习算法步骤如下:

    步骤1.  利用形状间距离矩阵构造状态转移矩阵.如果样本数目 $N$ 很大, 则选择距离查询样本最近的 $N'$ 个样本构造图 $G$ .进一步求取查询样本对应的连通分量 $C$ 作为状态空间 $Space$ , 并计算状态转移矩阵.将查询形状样本视作集合 $L$ , $C$ 中余下样本作为集合 $U$ .

    步骤2.  求解式 (24), 得到 $U$ 中对应各样本至集合 $L$ 的广义期望首达时间 $\boldsymbol{\eta}_L$ .

    步骤3.  对 $\boldsymbol{\eta}_L$ 中各元素按照升序进行排序.如果未达到终止条件 $I_e$ 且 $\#U>K_{\eta}$ , 则将排序中前 $K_{\eta}$ 个状态从集合 $U$ 中移除并依次加入到集合 $L$ 中, 跳转至步骤2;否则, 算法停止, 将 $\boldsymbol{\eta}_L$ 的排序结果依次添加至集合 $L$ 中, $L$ 中的样本排序即为检索结果.

    步骤4.  对于包含在 $G$ 中但不属于 $C$ 的样本, 依照其与查询样本的相似度关系进行排序, 列于检索结果的最后.

    在上述步骤中, 包含3个参数需要设定, 分别是 $N'$ 、 $K_{\eta}$ 和 $I_e$ .参数 $N'$ 负责对检索过程中数据集规模进行限制, 通常设置 $N'\ll{N}$ , 本文实验中选择20 %左右的样本进行形状距离学习.参数 $K_{\eta}$ 负责控制每次迭代过程中加入检索路径中的样本数目, 通常为一个较小正数, 本文实验中设置 $K_{\eta}=3$ . $I_e$ 负责对迭代次数进行约束, 待检索的相关样本数目越多则 $I_e$ 越大.本文实验中设置 $I_e$ = ${\rm{floor}}\left({rs}/{K_{\eta}}\right)$ , 其中 $rs$ 表示待检索的相关样本数目.

    为了验证本文所提方法的有效性, 本节将对不同形状数据集进行仿真实验分析比较.在实验过程中, 首先选择已有的几种比较成熟的逐对形状匹配方法分析形状间距离, 用到的方法包括形状上下文 (Shape context, SC)[16]、内距离形状上下文 (Inner-distance shape context, IDSC)[17]和连接不变表示 (Articulation-invariant representation, AIR)[18].在选择相同逐对形状匹配方法的基础上, 分别利用本文提出的广义期望首达时间 (GMFPT) 方法和其他文献中的方法进行形状距离学习, 使用到的方法包括标记传播 (LP)[5]、元描述符 (MD)[10]、期望首达时间 (MFPT)[13]等.

    在分析实验结果的过程中, 分别将样本集合中每个样本依次作为查询形状, 分析其与各样本间的距离并将其按升序排列, 将距离查询样本较近的几组结果作为检索结果.在检索得到的全部样本中, 相关样本数目与全部样本数目之比即为检索精度.在对实验结果进行验证的过程中, 将主要以检索结果和检索精度作为评价方法性能的指标.

    首先选择Kimia-216数据集[19]进行实验比较, 该数据集中含了18个类别各12个形状样本, 分别选择形状上下文 (SC) 和内距离形状上下文 (IDSC) 计算形状距离矩阵, 此部分实验参数根据文献[17]中给出的方法进行设置.由于数据集规模较小, 可以直接对样本集合中全部形状进行距离学习.在两组形状距离学习实验中, 设置 $\alpha=0.38$ , $K_d=12$ , $K_s$ = $8$ . 表 1中列出了不同方法在Kimia-216数据集上得到的形状检索结果, 表 1中各列分别表示与查询样本近邻的检索结果所属类别正确与否, 其中包含了最接近的1~11组相关样本数目及合计相关样本数目.从表 1中的结果中可以看出, 与其他形状距离学习方法相比, 本文的方法在相同条件下能够达到最好的形状检索效果.

    表 1  Kimia-216数据集在不同方法下检索结果比较
    Table 1  Comparison of retrieval rates for different algorithms tested on Kimia-216 database
    方法 1st 2nd 3rd 4th 5th 6th 7th 8th 9th 10th 11th 全部
    SC 216 216 215 210 210 209 208 204 200 191 175 2 254
    IDSC 216 216 215 211 211 210 211 207 203 198 185 2 283
    SC + LP 216 216 214 212 211 211 215 209 209 206 197 2 316
    IDSC + LP 216 216 214 211 213 213 212 210 207 208 203 2 323
    SC + MD 215 215 215 213 212 212 214 211 211 209 208 2 335
    IDSC + MD 215 215 215 211 212 213 212 212 207 209 209 2 330
    SC + MFPT 216 216 216 212 212 212 212 212 212 211 212 2 343
    IDSC + MFPT 216 216 216 212 212 212 212 212 212 212 212 2 344
    SC + GMFPT 216 216 216 216 216 216 216 216 216 216 216 2 376
    IDSC + GMFPT 216 216 216 216 216 216 216 216 216 216 216 2 376
    下载: 导出CSV 
    | 显示表格

    为了进一步说明提出的形状距离学习方法在大数据集下的有效性, 本文分别选择了Tari-1000数据集[20]和MPEG-7数据集[21]进行实验. Tari-1000数据集中包含了1 000个目标剪影, 其对应50个类别, 每个类别各20个形状样本, 图 4列出了该数据集部分类别中一个剪影的示例. MPEG-7数据集中包含了1 400个目标剪影, 其对应70个形状类别, 每个类别各20个样本, 图 5列出了该数据集部分类别中一个剪影的示例.

    图 4  Tari-1000数据集中部分类别形状样本示例
    Fig. 4  Examples of shapes from different categories in Tari-1000 database
    图 5  MPEG-7数据集中部分类别形状样本示例
    Fig. 5  Examples of shapes from different categories in MPEG-7 database

    对Tari-1000数据集仿真过程中, 分别选择形状上下文 (SC) 和内距离形状上下文 (IDSC) 计算形状距离矩阵.查询样本与全部样本匹配后, 分析计算距离最近的前20组结果对应的检索精度.由于数据集包含样本数目较多, 因此设置参数 $N'=200$ .选择SC计算距离矩阵时, 设置 $\alpha=0.28$ , $K_d=22$ , $K_s$ = $30$ ; 选择IDSC计算距离矩阵时, 设置 $\alpha$ = $0.32$ , $K_d=24$ , $K_s=30$ .表 2中列出了不同方法在Tari-1000数据集上进行实验得到的形状检索精度.从表中的结果可以看出, 与其他形状距离学习方法相比, 本文提出的方法在相同条件下能够得到最好的形状检索精度.

    表 2  Tari-1000数据集在不同方法下的结果比较
    Table 2  Comparison of results for different algorithms tested on Tari-1000 database
    方法 检索精度 (%)
    SC 88.01
    IDSC 90.43
    SC + LP 94.22
    IDSC + LP 96.44
    SC + MD 94.98
    IDSC + MD 98.49
    SC + MFPT 97.02
    IDSC + MFPT 99.11
    SC + GMFPT 97.15
    IDSC + GMFPT 99.27
    下载: 导出CSV 
    | 显示表格

    对MPEG-7数据集进行实验过程中, 选择连接不变表示 (AIR)[18]计算样本间距离矩阵, 该逐对形状匹配方法在MPEG-7数据集上具有最高的匹形状配精度.在分析检索精度时, 各查询样本都与全部样本进行匹配, 统计距离最近的前40组结果中相关样本数目并计算查全率, 这种评价规则被称为Bullseye方法.由于MPEG-7数据集中同类目标间差异较大而不同类目标间差异较小, 形状匹配研究一直都将该数据集下的检索精度作为重点关注问题[21].由于包含样本数目较多, 检索过程中仅保留与查询形状临近的300个样本进行分析, 即 $N'=300$ .余下参数分别设置为 $\alpha=0.38$ , $K_d=18$ , $K_s=14$ . 表 3中列出了近年来文献中给出方法和本文方法在MPEG-7数据集下的形状检索精度.从表中可以看出, 与其他形状距离学习方法相比, 本文提出的方法能够有效地提升形状匹配结果, 并能够得到100 %的形状检索精度, 与文献中公布的最好结果相当.

    表 3  MPEG-7数据集在不同方法下的结果比较
    Table 3  Comparison of results for different algorithms tested on MPEG-7 database
    方法 检索精度 (Bullseye) (%)
    IDSC + LP[5] 91.61
    SC + GM + Meta Descriptor[10] 92.51
    IDSC + LCDP[6] 93.32
    IDSC + Mutual Graph[22] 93.40
    SC + MFPT[13] 94.04
    ASC + LCDP[8] 95.96
    ASC + TPG Diffusion[11] 96.47
    SC + IDSC + Co-transduction[23] 97.72
    IDSC + SSC+LCDP[9] 98.85
    AIR + TPG Diffusion[11] 99.99
    AIR + Generic Diffusion Framework[12] 100.00
    AIR + GMFPT 100.00
    下载: 导出CSV 
    | 显示表格

    为了对不同形状距离学习方法进行综合比较, 这里进一步分析探讨各方法对应的时间复杂度.已知求解广义期望首达时间的时间复杂度为 ${\rm O}\left(M^3\right)$ , 且 $M$ 与查询样本对应连通分量的样本数目 $N_C$ 较为接近.通过第3.3节的算法流程可知本文所提方法的时间复杂度为 ${\rm O}\left(I_eN_C^3\right)$ . 表 4中列出了本文方法与其他距离学习方法的时间复杂度, $I_t$ 表示矩阵运算迭代次数.从表中结果可以看出, 本文所提方法的时间复杂度高于LP和MFPT两种方法, 与文献[6]、文献[11]和文献[12]所提算法复杂度大致相当.但与上述方法相比, 本文方法能够得到更好的形状检索结果.

    表 4  不同方法下的时间复杂度比较
    Table 4  Comparison of the time complexities for different algorithms
    方法 时间复杂度
    LP[5] ${\rm O}\left(I_tN'^2\right)$
    LCDP[6] ${\rm O}\left(I_tN^3\right)$
    MFPT[13] ${\rm O}\left(N'^3\right)$
    TPG diffusion[11] ${\rm O}\left(I_tN^3\right)$
    Generic diffusion framework[12] ${\rm O}\left(I_tN^3\right)$
    GMFPT ${\rm O} \left(I_eN_C^3\right)$
    下载: 导出CSV 
    | 显示表格

    考虑到逐对形状匹配方法难以准确反映目标间相似程度, 本文提出了基于广义期望首达时间的形状距离学习方法以改善形状匹配结果.广义期望首达时间是在期望首达时间的基础上推广得到的, 其反映了质点由状态转移至状态集合所需的平均时间步长.借助广义期望首达时间能够更好地反映流形结构, 提出的方法可以显式地挖掘样本空间信息, 所得结果能够更加准确地反映样本间的距离关系.分别在不同的形状数据集下进行实验比较, 所提方法在相同条件下能够得到更好的形状检索结果.


  • 本文责任编委 李力
  • 图  1  本文算法流程图

    Fig.  1  The flow chart of our algorithm

    图  2  基于DCGAN的贝叶斯生成对抗网络

    Fig.  2  Bayesian generative adversarial networks based on the DCGAN

    图  3  本文算法工作示意图

    Fig.  3  The flow chart of our algorithm works

    图  4  贝叶斯卷积生成对抗网络结构

    Fig.  4  The structure of Bayesian convolutional generative adversarial network

    图  5  以office训练时的贝叶斯生成对抗网络损失函数图

    Fig.  5  The loss function of the Bayesian generative adversarial networks trained base on the office datasets

    图  6  背景重建与背景减除结果图

    Fig.  6  The results of the background reconstruction and background subtraction

    图  7  背景减法算法结果对比图

    Fig.  7  Background subtraction algorithm results in comparison

    表  1  不同检测算法的召回率对比

    Table  1  The recall rate of different detection algorithms are compared

    Method GMM-Stauffer GMM-Zivkovic LBSP IUTIS MBS FTSG LFGMM LFVBGM Arun Varghese BMOG DeepBS Share Model SSOBS WeSamBE Cascade CNN BSGAN
    database Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%)
    Baseline 81.8 80.9 89.6 97.1 91.6 95.1 94.1 95.2 94.1 85.5 94.2 95.4 49.1 94.5 99.9 99.1
    Dynamic background 83.8 80.2 76.7 87.8 76.4 86.9 77.7 88.7 88.7 90.1 85.4 75.9 52.3 67.9 84.8 98.8
    Camera jitter 73.3 69.0 67.4 79.2 83.2 77.2 82.4 80.4 78.4 83.6 87.9 79.6 58.1 77.8 91.4 99.1
    Shadow 79.6 77.7 87.8 94.8 79.2 92.1 94.2 92.7 74.8 50.9 57.4 71.8 21.6 74.7 96.6 91.4
    Inter.ob.motion 51.4 54.7 55.9 69.9 75.3 76.2 81.4 72.0 91.7 85.9 95.8 94.5 50.2 94.0 93.0 98.1
    Thermal 56.9 55.4 81.4 78.3 81.6 73.6 81.6 85.0 85.1 52.4 66.3 86.2 30.1 77.2 98.9 95.3
    Bad weather 71.8 68.6 70.4 74.8 83.4 74.6 82.1 78.8 71.8 76.4 75.2 84.3 58.2 81.7 97.9 93.4
    Low frame-rate 58.2 53.0 59.7 82.1 67.7 75.2 85.4 81.4 77.3 63.8 59.2 84.3 53.1 88.4 96.4 86.1
    Night videos 52.6 48.0 51.0 56.6 55.4 61.1 65.7 66.1 36.1 64.9 53.2 59.9 44.7 63.7 94.2 91.4
    PTZ 64.8 61.1 54.8 66.4 59.7 67.3 83.1 87.8 69.8 76.7 74.6 79.7 68.8 81.5 96.2 96.8
    Air turbulence 79.1 77.9 76.1 68.6 60.4 61.1 80.5 81.2 81.2 68.7 79.8 79.1 74.4 71.8 96.1 93.1
    Average 68.5 66.0 70.1 77.8 74.0 76.4 82.6 82.7 77.2 72.6 75.4 81.0 51.0 79.4 95.0 94.8
    下载: 导出CSV

    表  2  不同检测算法的精确率对比

    Table  2  The precision rate of different detection algorithms are compared

    Method GMM-Stauffer GMM-Zivkovic LBSP IUTIS MBS FTSG LFGMM LFVBGM Arun Varghese BMOG DeepBS Share Model SSOBS WeSamBE Cascade CNN BSGAN
    database Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%)
    Baseline 84.6 89.9 95.6 93.9 94.3 91.7 93.3 95.0 93.9 81.9 96.6 95.0 94.2 91.7 97.8 98.8
    Dynamic background 59.9 62.1 59.2 92.8 86.5 91.3 89.2 90.4 90.4 75.8 90.8 91.9 10.1 89.3 96.7 96.8
    Camera jitter 51.3 48.7 83.7 85.2 84.4 76.5 81.2 86.6 86.6 72.9 93.1 83.8 34.1 83.9 96.3 97.5
    Shadow 71.6 72.3 87.7 85.8 82.6 85.3 86.5 87.1 83.9 68.2 82.5 75.8 65.3 78.8 78.2 98.8
    Inter.ob.motion 66.9 64.4 71.0 81.5 74.2 78.1 65.8 74.9 48.2 53.7 47.4 59.3 36.9 55.3 94.4 90.4
    Thermal 86.5 87.1 75.8 89.2 82.7 90.9 83.3 82.8 82.8 90.1 92.6 80.7 72.8 85.6 85.7 87.2
    Bad weather 77.0 81.4 86.6 89.6 78.3 92.3 90.9 94.7 94.8 81.5 96.8 85.7 85.1 91.3 95.5 95.9
    Low frame-rate 68.9 66.9 65.8 70.0 60.0 65.5 67.4 69.7 64.1 69.5 70.1 68.4 64.4 91.3 82.8 83.8
    Night videos 41.3 42.3 44.9 51.3 49.0 49.0 53.4 55.4 65.4 46.1 83.7 58.5 51.5 58.3 88.1 88.0
    PTZ 11.9 68.3 20.4 34.7 54.0 28.6 28.4 30.3 47.2 20.9 28.5 31.2 10.2 31.2 87.3 88.6
    Air turbulence 42.9 34.9 59.7 92.6 62.0 90.4 78.1 78.4 68.1 76.8 90.8 75.6 9.8 83.7 89.3 89.5
    Average 60.3 65.3 68.2 78.8 73.5 76.3 74.3 76.8 75.0 67.0 79.4 73.3 48.6 76.4 90.2 92.3
    下载: 导出CSV

    表  3  不同检测算法的F-measure

    Table  3  F-measure of different detection algorithms

    Method GMM-1 GMM-2 LBSP IUTIS MBS FTSG LFGMM LFVBGM Arun Varghese BMOG DeepBS Share Model SSOBS WeSamBE Cascade CNN BSGAN
    database Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%) Re (%)
    Baseline 83.2 85.2 92.5 95.5 92.9 93.4 93.7 95.1 93.9 83.0 95.1 95.2 60.8 93.1 97.8 98.1
    Dynamic background 69.9 70.0 66.8 90.2 81.1 89.0 83.1 89.5 89.4 79.3 87.6 82.2 16.1 74.4 96.5 97.6
    Camera jitter 60.4 57.1 74.7 82.1 83.8 76.8 81.8 83.4 91.3 74.9 89.9 81.4 41.5 79.7 97.6 98.8
    Shadow 75.4 74.9 87.7 90.1 80.9 88.6 90.2 89.8 77.6 52.9 60.9 67.3 30.2 73.9 85.1 97.6
    Inter.ob.motion 58.1 59.2 62.6 75.3 74.7 77.1 72.8 73.4 87.1 83.9 89.9 84.6 75.2 86.9 94.1 95.6
    Thermal 68.6 67.7 78.5 83.4 82.1 81.3 82.4 83.9 83.3 63.4 75.8 83.1 40.9 79.6 90.7 90.6
    Bad weather 74.3 74.5 77.7 81.5 80.8 82.5 86.3 86.0 81.5 78.4 83.0 84.8 68.5 86.1 94.3 95.6
    Low frame-rate 63.1 59.1 62.6 75.6 63.6 70.0 75.3 75.1 65.8 61.0 60.1 72.9 46.4 66.0 83.7 85.7
    Night videos 46.3 45.0 47.8 53.8 52.0 54.4 58.9 60.3 41.5 49.8 58.4 54.2 44.6 59.3 89.6 90.6
    PTZ 20.1 64.5 29.7 45.6 56.7 40.1 42.3 45.1 46.1 23.5 31.3 38.6 13.8 38.4 91.6 93.6
    Air turbulence 55.6 48.2 66.9 78.8 61.2 72.9 79.3 79.8 64.5 69.3 84.6 73.4 15.2 75.4 91.8 91.7
    Average 61.4 64.1 68.0 77.4 73.6 75.1 76.9 78.3 74.7 65.4 74.2 74.3 41.2 73.9 92.1 93.4
    下载: 导出CSV
  • [1] Wang K F, Liu Y Q, Gou C, Wang F Y. A multi-view learning approach to foreground detection for traffic surveillance applications. IEEE Transactions on Vehicular Technology, 2016, 65(6):4144-4158 doi: 10.1109/TVT.2015.2509465
    [2] Liu Y Q, Wang K F, Shen D Y. Visual tracking based on dynamic coupled conditional random field model. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(3):822-833 doi: 10.1109/TITS.2015.2488287
    [3] 张慧, 王坤峰, 王飞跃.深度学习在目标视觉检测中的应用进展与展望.自动化学报, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtml

    Zhang Hui, Wang Kun-Feng, Wang Fei-Yue. Advances and perspectives on applications of deep learning in visual object detection. Acta Automatica Sinica, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtml
    [4] Stauffer C, Grimson W E L. Adaptive background mixture models for real-time tracking. In: Proceedings of the 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). Fort Collins, CO, USA: IEEE, 1999. 252
    [5] Zivkovic Z. Improved adaptive Gaussian mixture model for background subtraction. In: Proceedings of the 17th International Conference on Pattern Recognition (ICPR). Cambridge, UK: IEEE, 2004. 28-31
    [6] St-Charles P L, Bilodeau G A. Improving background subtraction using local binary similarity patterns. In: Proceedings of the 2014 IEEE Winter Conference on Applications of Computer Vision (WACV). Steamboat Springs, CO, USA: IEEE, 2014. 509-515
    [7] Fan J J, Xin Y Z, Dai F L, Hu B, Zhang J Q, Lu Q Y, et al. Distributed multi-camera object tracking with Bayesian Inference. In: Proceedings of the 2011 IEEE International Symposium on Circuits and Systems (ISCAS). Rio de Janeiro, Brazil: IEEE, 2011. 357-360
    [8] Yan J H, Wang S F, Xie T X, Yang Y, Wang J Y. Variational Bayesian learning for background subtraction based on local fusion feature. IET Computer Vision, 2016, 10(8):884-893 doi: 10.1049/iet-cvi.2016.0075
    [9] Wang Y, Jodoin P M, Porikli F, Konrad J, Benezeth Y, Ishwar P. CDnet 2014: an expanded change detection benchmark dataset. In: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Columbus, OH, USA: IEEE, 2014. 393-400
    [10] Martins I, Carvalho P, Corte-Real L, Alba-Castro J L. BMOG: boosted Gaussian mixture model with controlled complexity. In: Pattern Recognition and Image Analysis. Faro, Portugal: Springer, 2017. 50-57
    [11] Sehairi K, Chouireb F, Meunier J. Comparative study of motion detection methods for video surveillance systems. Journal of Electronic Imaging, 2017, 26(2):023025 doi: 10.1117/1.JEI.26.2.023025
    [12] Chen Y Y, Wang J Q, Lu H Q. Learning sharable models for robust background subtraction. In: Proceedings of the 2015 IEEE International Conference on Multimedia and Expo (ICME). Turin, Italy: IEEE, 2015. 1-6
    [13] Jiang S Q, Lu X B. WeSamBE: a weight-sample-based method for background subtraction. IEEE Transactions on Circuits and Systems for Video Technology, https://ieeexplore.ieee.org/document/7938679/
    [14] Babaee M, Dinh D T, Rigoll G. A deep convolutional neural network for video sequence background subtraction. Pattern Recognition, 2018, 76:635-649 doi: 10.1016/j.patcog.2017.09.040
    [15] Saatchi Y, Wilson A G. Bayesian GAN. arXiv: 1705.09558, 2017
    [16] 李力, 林懿伦, 曹东璞, 郑南宁, 王飞跃.平行学习——机器学习的一个新型理论框架.自动化学报, 2017, 43(1):1-8 http://www.aas.net.cn/CN/abstract/abstract18984.shtml

    Li Li, Lin Yi-Lun, Cao Dong-Pu, Zheng Nan-Ning, Wang Fei-Yue. Parallel learning——a new framework for machine learning. Acta Automatica Sinica, 2017, 43(1):1-8 http://www.aas.net.cn/CN/abstract/abstract18984.shtml
    [17] Wang F Y, Wang X, Li L X, Li L. Steps toward parallel intelligence. IEEE/CAA Journal of Automatica Sinica, 2016, 3(4):345-348 doi: 10.1109/JAS.2016.7510067
    [18] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml
    [19] Wang K F, Gou C, Duan Y J, Lin Y L, Zheng X H, Wang F Y. Generative adversarial networks:introduction and outlook. IEEE/CAA Journal of Automatica Sinica, 2017, 4(4):588-598 doi: 10.1109/JAS.2017.7510583
    [20] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial networks. arXiv:1406.2661, 2014
    [21] 王坤峰, 鲁越, 王雨桐, 熊子威, 王飞跃.平行图像:图像生成的一个新型理论框架.模式识别与人工智能, 2017, 30(7):577-587 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=mssb201707001&dbname=CJFD&dbcode=CJFQ

    Wang Kun-Feng, Lu Yue, Wang Yu-Tong, Xiong Zi-Wei, Wang Fei-Yue. Parallel imaging:a new theoretical framework for image generation. Pattern Recognition and Artificial Intelligence, 2017, 30(7):577-587 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=mssb201707001&dbname=CJFD&dbcode=CJFQ
    [22] 王坤峰, 苟超, 王飞跃.平行视觉:基于ACP的智能视觉计算方法.自动化学报, 2016, 42(10):1490-1500 http://www.aas.net.cn/CN/abstract/abstract18936.shtml

    Wang Kun-Feng, Gou Chao, Wang Fei-Yue. Parallel vision:an ACP-based approach to intelligent vision computing. Acta Automatica Sinica, 2016, 42(10):1490-1500 http://www.aas.net.cn/CN/abstract/abstract18936.shtml
    [23] Wang K F, Gou C, Zheng N N, Rehg J M, Wang F Y. Parallel vision for perception and understanding of complex scenes:methods, framework, and perspectives. Artificial Intelligence Review, 2017, 48(3):299-329 doi: 10.1007/s10462-017-9569-z
    [24] Laugraud B, Piérard S, Braham M, Van Droogenbroeck M. Simple median-based method for stationary background generation using background subtraction algorithms. In: New Trends in Image Analysis and Processing. Italy: Springer, 2015. 477-484
    [25] Braham M, van Droogenbroeck M. Deep background subtraction with scene-specific convolutional neural networks. In: Proceedings of the 2016 International Conference on Systems, Signals and Image Processing. Bratislava, Slovakia: IEEE, 2016. 1-4
    [26] Zhao J, Meng D Y. FastMMD:ensemble of circular discrepancy for efficient two-sample test. Neural Computation, 2015, 27(6):1345-1372 doi: 10.1162/NECO_a_00732
    [27] Gangeh M J, Sadeghi-Naini A, Diu M, Tadayyon H, Kamel M S, Czarnota G J. Categorizing extent of tumor cell death response to cancer therapy using quantitative ultrasound spectroscopy and maximum mean discrepancy. IEEE Transactions on Medical Imaging, 2014, 33(6):1390-1400 doi: 10.1109/TMI.2014.2312254
    [28] He K M, Sun J. Convolutional neural networks at constrained time cost. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, USA: IEEE, 2015. 5353-5360
    [29] Salimans T, Goodfellow I, Zaremba W, Cheung V, Radford A, Chen X. Improved techniques for training GANs. arXiv: 1606.03498, 2016
    [30] Gulrajani I, Ahmed F, Arjovsky M, Dumoulin V, Courville A. Improved training of Wasserstein GANs. arXiv: 1704.00028, 2017
    [31] Varghese A, Sreelekha G. Sample-based integrated background subtraction and shadow detection. IPSJ Transactions on Computer Vision and Applications, 2017, 9:25 doi: 10.1186/s41074-017-0036-1
    [32] Wang Y, Luo Z M, Jodoin P M. Interactive deep learning method for segmenting moving objects. Pattern Recognition Letters, 2017, 96:66-75 doi: 10.1016/j.patrec.2016.09.014
    [33] 白天翔, 王帅, 沈震, 曹东璞, 郑南宁, 王飞跃.平行机器人与平行无人系统:框架、结构、过程、平台及其应用.自动化学报, 2017, 43(2):161-175 http://www.aas.net.cn/CN/abstract/abstract18998.shtml

    Bai Tian-Xiang, Wang Shuai, Shen Zhen, Cao Dong-Pu, Zheng Nan-Ning, Wang Fei-Yue. Parallel robotics and parallel unmanned systems:framework, structure, process, platform and applications. Acta Automatica Sinica, 2017, 43(2):161-175 http://www.aas.net.cn/CN/abstract/abstract18998.shtml
  • 期刊类型引用(12)

    1. Lan Yan,Qiang Li,Kenli Li. Object Helps U-Net Based Change Detectors. IEEE/CAA Journal of Automatica Sinica. 2024(02): 548-550 . 必应学术
    2. 陈文帅,任志刚,吴宗泽,付敏跃. 基于深度学习的极性电子元器件目标检测与方向识别方法. 自动化学报. 2021(07): 1701-1709 . 本站查看
    3. 章悦,张亮,谢非,杨嘉乐,张瑞,刘益剑. 基于实例分割模型优化的道路抛洒物检测算法. 计算机应用. 2021(11): 3228-3233 . 百度学术
    4. 陈莹,陈湟康. 基于多模态生成对抗网络和三元组损失的说话人识别. 电子与信息学报. 2020(02): 379-385 . 百度学术
    5. 王春丹,谢红薇,李亚旋,张昊. 融合改进的三帧差分和ViBe算法的运动目标检测. 计算机工程与应用. 2020(13): 199-203 . 百度学术
    6. 高晓光,王晨凤,邸若海. 一种学习稀疏BN最优结构的改进K均值分块学习算法. 自动化学报. 2020(05): 923-933 . 本站查看
    7. 李荟,王福利,李鸿儒. 电熔镁炉熔炼过程异常工况识别及自愈控制方法. 自动化学报. 2020(07): 1411-1419 . 本站查看
    8. 陆凌云,李伟,杨明,马萍. 基于混合推理的仿真实验设计方法智能选择. 自动化学报. 2019(06): 1055-1064 . 本站查看
    9. 陈建平,邹锋,刘全,吴宏杰,胡伏原,傅启明. 一种基于生成对抗网络的强化学习算法. 计算机科学. 2019(10): 265-272 . 百度学术
    10. 金侠挺,王耀南,张辉,刘理,钟杭,贺振东. 基于贝叶斯CNN和注意力网络的钢轨表面缺陷检测系统. 自动化学报. 2019(12): 2312-2327 . 本站查看
    11. 杨林瑶,陈思远,王晓,张俊,王成红. 数字孪生与平行系统:发展现状、对比及展望. 自动化学报. 2019(11): 2001-2031 . 本站查看
    12. 马春光,郭瑶瑶,武朋,刘海波. 生成式对抗网络图像增强研究综述. 信息网络安全. 2019(05): 10-21 . 百度学术

    其他类型引用(17)

  • 加载中
  • 图(7) / 表(3)
    计量
    • 文章访问数:  3410
    • HTML全文浏览量:  679
    • PDF下载量:  1694
    • 被引次数: 29
    出版历程
    • 收稿日期:  2017-09-30
    • 录用日期:  2018-02-26
    • 刊出日期:  2018-05-20

    目录

    /

    返回文章
    返回