2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于误差补偿的复杂场景下背景建模方法

秦明 陆耀 邸慧军 吕峰

黄立威, 李彩萍, 张海粟, 刘玉超, 李德毅, 刘艳博. 一种基于因子图模型的半监督社区发现方法. 自动化学报, 2016, 42(10): 1520-1531. doi: 10.16383/j.aas.2016.c150261
引用本文: 秦明, 陆耀, 邸慧军, 吕峰. 基于误差补偿的复杂场景下背景建模方法. 自动化学报, 2016, 42(9): 1356-1366. doi: 10.16383/j.aas.2016.c150857
HUANG Li-Wei, LI Cai-Ping, ZHANG Hai-Su, LIU Yu-Chao, LI De-Yi, LIU Yan-Bo. A Semi-supervised Community Detection Method Based on Factor Graph Model. ACTA AUTOMATICA SINICA, 2016, 42(10): 1520-1531. doi: 10.16383/j.aas.2016.c150261
Citation: QIN Ming, LU Yao, DI Hui-Jun, LV Feng. An Error Compensation Based Background Modeling Method for Complex Scenarios. ACTA AUTOMATICA SINICA, 2016, 42(9): 1356-1366. doi: 10.16383/j.aas.2016.c150857

基于误差补偿的复杂场景下背景建模方法

doi: 10.16383/j.aas.2016.c150857
基金项目: 

国家自然科学基金 61175096

国家自然科学基金 61271374

高等学校博士学科点专项科研基金 2012110110034

国家自然科学基金 61273273

详细信息
    作者简介:

    秦明北京理工大学计算机学院博士研究生.主要研究方向为前景检测与动作识别.E-mail:050689@bit.edu.cn

    邸慧军北京理工大学计算机学院讲师.主要研究方向为计算机视觉, 模式识别, 机器学习.E-mail:ajon@bit.edu.cn

    吕峰北京理工大学计算机学院博士研究生.主要研究方向为目标跟踪与动作识别.E-mail:lvfeng@bit.edu.cn

    通讯作者:

    陆耀北京理工大学计算机学院教授.主要研究方向为神经网络, 图像和信号处理, 模式识别.本文通信作者.E-mail:vis_yl@bit.edu.cn

An Error Compensation Based Background Modeling Method for Complex Scenarios

Funds: 

National Natural Science Foundation of China 61175096

National Natural Science Foundation of China 61271374

Research Fund for the Doctoral Program of Higher Education of China 2012110110034

National Natural Science Foundation of China 61273273

More Information
    Author Bio:

    Ph. D. candidate at the School of Computer Science, Beijing Institute of Technology. His research interest covers foreground detection and action recognition

    Lecturer at the School of Computer Science, Beijing Institute of Technology. His research interest covers computer vision, pattern recognition and machine learning

    Ph. D. candidate at the School of Computer Science, Beijing Institute of Technology. His research interest covers object tracking and action recognition

    Corresponding author: Professor at the School of Computer Science, Beijing Institute of Technology. His research interest covers neural network, image and signal processing and pattern recognition. Corresponding author of this paper
  • 摘要: 在基于子空间学习的背景建模方法中,利用背景信息对前景误差进行补偿有助于建立准确的背景模型.然而,当动态背景(摇曳的树枝、波动的水面等)和复杂前景等干扰因素存在时,补偿过程的准确性和稳定性会受到一定的影响.针对这些问题,本文提出了一种基于误差补偿的增量子空间背景建模方法.该方法可以实现复杂场景下的背景建模.首先,本文在误差补偿的过程中考虑了前景的空间连续性约束,在补偿前景信息的同时减少了动态背景的干扰,提高了背景建模的准确性.其次,本文将误差估计过程归结为一个凸优化问题,并根据不同的应用场合设计了相应的精确求解算法和快速求解方法.再次,本文设计了一种基于Alpha通道的误差补偿策略,提高了算法对复杂前景的抗干扰能力.最后,本文构建了不依赖于子空间模型的背景模板,减少了由前景信息反馈引起的背景更新失效,提高了算法的鲁棒性.多项对比实验表明,本文算法在干扰因素存在的情况下仍然可以实现对背景的准确建模,表现出较强的抗扰性和鲁棒性.
  • 图像分割是计算机视觉领域的一个基本问题.传统图像分割只是从单一视角对图像进行块划分, 其分割的有意义性不强, 分割效果也很难评判.而同时考虑成对或多幅图像, 利用不同图像间的互补信息进行协同分割已引起了相关学者的广泛兴趣[1-4], 例如Rother等[1]首先将协同分割思想引入到图像分割领域; 文献[2]进一步研究了基于图像对象的协同分割, 该方法目的是提取成对图像中相似的对象; 文献[3-4]将成对图像分析扩展到多幅图像处理, Cao等[3]应用低秩分解去探索多个显著性映射之间的关系以获得自适应权重, 基于这些权重提出了显著性映射融合框架, 在多幅图像中探测共显著性区域以实现相似对象的最终分割; 针对低水平图像特征表达不同状态下对象能力的不足, 以及相似背景与对象均出现在同组的多幅图像中, 于是卷积神经网络学习方法被提出去抓取图像分类与分割概念的深度信息, 以及利用不同组视觉相似图像(具有相似背景)间的宽度信息以促进共显著性映射[4].这些方法的结果普遍优于基于单幅图像分割方法, 从而证明了协同分割思想的优越性.

    视频分割作为后续视频处理的一个关键步骤, 已被进行了广泛研究, 然而已有的许多工作[5-7]都是基于单视频分割, 常需要用户提供前景和背景抽样, 或者纠正分割错误, 同时也有其内在局限性, 例如单个视频仅反映出部分视角, 无法预测分割的意义, 外观或运动模式的偶然相似可能导致一个模糊甚至错误的划分; 另外, 单视频的分割不能有效反映分割区域间的结构信息.针对上述不足及受到图像协同分割思想的启发, 类似地利用多个相关视频信息进行相互补充来进行分割, 使之能够提供一个更好的、更有意义的划分.但是到目前为止, 基于多视频协同分割的相关工作并不多见[8-16], 且绝大部分工作集中在相同或相似对象的定位与分割, 对于对象的协同定位[8-9], Prest等[9]考虑了一组图像或视频信息, 结合时间项与相关约束条件进入一个二次规划框架, 通过引入Frank-Wolfe算法, 最终将对象的协同定位问题转化为求解一个简单的整数规划问题; 这两种方法均利用了边界框来定位对象将可能导致定位的不够精确, 于是文献[10]提出了一种基于运动信息的视频分割方法在成对视频中寻找共同的前景区域; 基于相似视频间的互补信息, Rubio等[11]从多个视频中分割出相同或同类对象, 然而这两种方法对分割对象都提出了很强假设, 从而限制了它们的应用.针对二元与相似对象协同分割难以满足现实需求, 文献[12]提出了基于视频分割先验的非参数贝叶斯模型, 实现了多类对象的视频协同分割; 近来, 有些方法[13-14]提出了高水平特征——Object proposal, 直接处理这些可能的对象区域实现协同分割, 从而避免了在复杂背景下低水平特征(颜色、纹理等)的局限性; 通过结合帧内显著性、帧间一致性和视频间的相似性信息来构建一个能量优化框架, 这种方法[15]不用对前景外观和运动模式做出严格前期假设.相对于相似对象或前景/背景的视频协同分割, 针对有意义的共同运动模式的提取研究极少, 文献[16]对每个视频采用稠密轨迹进行运动跟踪, 通过成对视频轨迹聚类间的运动轨迹匹配记分来度量视频中共同运动模式的显著性水平以实现视频共同运动模式的分割.由于共同运动模式协同分割对促进视频检索、行为识别等相关方面的研究有积极作用, 基于文献[16]的工作, 本文提出了一种新的成对视频共同运动模式提取方法.

    本文首先利用高效的基于光流场的稠密轨迹方法对视频进行运动跟踪, 稠密轨迹对视频信息的有效覆盖与产生的数据规模进行了有效折中, 相对于稀疏兴趣点轨迹法有明显的优势[17]; 接着引入子模函数优化方法来实现视频内运动轨迹的聚类分析, 子模函数优化类似于连续凸优化的离散化形式, 已应用于文本摘要、图像检索、视频摘要等多个领域[18-21], 其解能够以一个常数因子逼近最优解; 然后针对传统图匹配[22]对噪声、出格点和变形敏感, 本文运用RRWM方法[23]实现成对视频轨迹簇间运动轨迹的图匹配, 获取不同视频轨迹簇间的匹配计分, 进而计算出视频运动轨迹的共显著性表达水平; 最后将成对视频中共同运动模式的协同分割看成是基于马尔科夫随机场的一个二值标签问题, 即将两视频所有运动轨迹分类成共同运动模式和异常运动模式, 其中数据项惩罚具有低的共显著性表达水平的运动轨迹, 平滑项惩罚单个视频内具有不同标签的相邻运动轨迹.本文主要贡献有: 1)提出了新的子模函数优化方法聚类视频运动轨迹, 并给出求解的贪婪算法流程, 其聚类结果能够在多项式时间内完成且以常数因子 $(1-1/{\rm e})$ 逼近最优解, 而时间复杂度相对于谱聚类有显著降低. 2)将RRWM算法应用于不同视频中轨迹聚类簇间的匹配, 该算法能够有效抑制噪声、出格点和变形对图匹配的影响, 同样在时间复杂度上相对于传统图匹配也有显著改善. 3)对于单个视频内轨迹间的亲近度度量和不同视频的轨迹聚类簇间的图匹配, 相对于文献[16], 分别提出了不同的改进方法, 引入权重因子反映轨迹间空间距离和速率估计对轨迹间的近亲关系的影响(详见后文式(4)); 同时融入了轨迹本身信息、轨迹对信息以及时间信息, 通过计算轨迹对在共存时间内相对变化幅度和相对变化方向的均值与方差来衡量待匹配轨迹间的一致性(详见后文式(7)).

    为了获取视频中的运动信息, 特征轨迹已经被证明可以作为一种有效的视频表达方式, 相对于KLT追踪方法或特征点匹配方法, 稠密轨迹追踪方法在轨迹质量和量化方面更有优势[17], 本文依据文献[17]对相关参数的对比分析结果, 采用类似参数设置, 即对视频中的每帧, 以 $1/2$ 为尺度因子, 采样间隔为4个像素, 即 $d=4$ , 轨迹长度为 $L=15$ , 分别在 $8$ 个尺度上进行轨迹追踪以获得运动轨迹数据, 这些轨迹包含: 1)异常运动轨迹; 2)背景运动轨迹; 3)共同运动轨迹.在此将异常运动轨迹和背景运动轨迹统称为异常运动轨迹, 而本文主要研究内容为提取成对视频中共同运动轨迹.

    利用局部描述子表达视频中的兴趣点或时空体已经变得越来越流行, 而视频中不可避免地融入了摄像机运动.因此本文对于给定的轨迹将采用运动边界直方图(Motion boundary histogram, MBH)[24]来构建轨迹的特征表示, 该特征是基于光流场水平分量与竖直分量的导数计算得到, 能够有效消除摄像机运动影响.首先给定轨迹 $traj^{i}$ , 其长度为 $L=15$ , 以轨迹 $traj^{i}$ 为中心, 形成 $C\times C\times L$ 的空间立方体, 其中 $C=32$ 个像素, 对每帧 $C\times C$ 的局部区域进行 $2\times 2$ 网格划分, 在每个单元里根据像素空间导数模值与方向得到 $8$ 维直方图特征并进行 $L_2$ 模归一化, 接着对水平分量与竖直分量上共 $8$ 个单元的特征进行级联得到MBH描述子, 维数为 $64$ , 则轨迹 $traj^i$ 在长度 $L$ 上的MBH特征表示为 ${\pmb H}^i$ $=$ $[h^i_1$ $h^i_2$ $\cdots$ $h^i_L]$ , 直观表示如图 1.

    图 1  轨迹特征MBH表示
    Fig. 1  Feature representation of trajectory with MBH

    在这里, 视频协同分割的目的是萃取成对视频中共有的运动模式, 利用稠密的视频轨迹表达视频, 不仅有效保留了视频内容信息, 而且也极大降低了基于像素级处理的规模, 图 2给出了本文算法的流程图.

    图 2  算法流程图
    Fig. 2  The working flow of this proposed algorithm

    首先, 对于输入的成对视频 $A$ 与 $B$ , 运用稠密轨迹追踪方法提取稠密特征轨迹( $TrA$ 和 $TrB$ ); 接着引入子模优化方法实现稠密轨迹的聚类以便于后续图匹配的处理, 获得视频 $A$ 和 $B$ 的轨迹聚类表示为 $\{ C^1_A, C^2_A, \cdots, C^{K_A}_A \}$ 和 $\{ C^1_B, C^2_B, \cdots, C^{K_B}_B \}$ ; 为了得到 $C^i_A$ 和 $ C_B^j$ 的对应性, 我们采用RRWM算法给不同视频中轨迹聚类子集进行匹配打分; 最后基于马尔科夫随机场的能量最小化获取共同运动模式的协同分割, 图 2中两视频共有运动模式为一个人打高尔夫球(以较深的灰度点标记).以下将对轨迹聚类、图匹配、能量最小化协同分割部分进行介绍.

    相对于传统聚类方法 $K$ -means、GMM等表现出的不足, 例如计算量大、陷入局部最优解等, 一些新的聚类算法已经被提出, 例如谱聚类、子模聚类; 谱聚类利用了图谱理论, 虽然谱聚类能够获取样本的主要特征, 对噪声具有一定的鲁棒性, 然而对于大规模数据, 高复杂度将使谱聚类变得不可行, 因此本文选用近来提出的子模优化方法进行聚类, 在聚类效果、时间和空间复杂度方面, 都有很好的表现, 如图 3所示, 通过谱聚类与子模聚类算法分别对模拟数据( $3\, 100$ 点)聚类, 可以发现子模聚类效果最好且完成聚类时间仅为 $0.842778\, {\rm s}$ , 而相同条件下, 谱聚类耗时 $23.208819\, {\rm s}$ .

    图 3  模拟数据聚类结果
    Fig. 3  The clustering results of the toy data

    下面给出子模函数定义:设 $V$ 为有限数据集, $2^V$ 表示由 $V$ 中的元素组成的子集的集合, 记集合函数 $f:2^V\rightarrow R$ , 使得任意 $S\subseteq V$ 对应一个实数, 同时对任意 $S\subseteq R\subseteq V$ 且 $s\in V\backslash R$ , 式(1)都成立, 则称集合函数 $f(\cdot)$ 为子模函数[25].

    $ f\left(R\cup \{s\}\right)-f(R) \leq f(S\cup \{s\})-f(S) $

    (1)

    式(1)即为子模函数的效益递减属性, 即增加一个元素到一个小集合产生的效益不小于将其加入到一个大集合所产生的效益.本文采用了设施选址问题中的子模函数模型并加入了惩罚项, 如式(2)所示:

    $ \begin{align} &f_{p{\text{-}}{\rm facility}}(S)=\sum_{i \in V}\max\limits_{j\in S}(w_{i,j})-\lambda \times \sum_{i,j \in S}w_{i,j} \notag \\ &\,{\rm s.t.}\quad S \subseteq V, ~~ |S|=K \end{align} $

    (2)

    由于设施选址作为经典的子模函数优化问题, 惩罚项 $-\lambda \times \sum_{i, j \in S}W_{i, j}$ 的子模性证明较简单, 见文献[18], 在本文中 $\lambda$ 设置为 $30$ .由于子模满足可加性, 因此 $f_{p{\text{-}}{\rm facility}}$ 也为子模函数.一般情况下, 通过最大化子模函数获得最优解是一个NP难问题, 但是当 $f(\cdot)$ 满足: 1)非降性, 对 $S_1 \subseteq S_2 \subseteq V$ , $f(s_1)$ $\leq$ $f(s_2)$ ; 2)正则性, $f(\emptyset)=0$ ; 3)子模性.则存在一个简单的贪婪算法能在一个多项式时间内以常数因子 $( 1-{1}/{\rm e} )$ 逼近问题的最优解[26].

    给定一个视频 $V$ , 轨迹 $traj^i=\{ (x_l^i, y_l^i) | l=1$ , $2, \cdots, L \}$ 为一个有序数对集合, $(x_l^i, y_l^i)$ 为第 $i$ 条轨迹在 $l$ 帧上的坐标位置.记轨迹集合 $Tr=\{ traj^1$ , $traj^2$ , $\cdots, traj^M \}$ , $M$ 为轨迹数, 为了将 $V$ 中轨迹划分成 $K$ 个子集, 本文采用基于最大化子模函数的方法进行轨迹聚类, 该方法能够获得一个常数因子逼近的最优解, 聚类及优化过程如下:

    步骤1.  初始化轨迹聚类中心集合 $S$ , $\lambda$ , 其中 $S$ 设置为空集 $\emptyset$ ;

    步骤2.  遍历所有轨迹, 根据式(3)获得使目标函数最大化的轨迹 $s^*$

    $ s^* \in \arg\max\limits_{s \in V \setminus S } f(S \cup \{ s\})-f(S) $

    (3)

    步骤3.  将 $s^*$ 添加元素到 $S$ 中, 并重复步骤2直到 $|S|=K$ , 即为 $K$ 个聚类中心;

    步骤4.  计算所有轨迹到 $S$ 中 $K$ 个中心的距离, 如果 $traj^i$ $(i=1, 2, \cdots, M)$ 轨迹离中心 $s_k$ $(k$ $=$ $1$ , $2$ , $\cdots, |S|)$ 越近, 则 $traj^i$ 和 $s_k$ 属于同一类.

    下面就复杂度展开分析, 对于视频轨迹数据, 其规模通常成千上万, 因此在考虑聚类效果的同时, 复杂度的考虑也非常重要.以下从子模聚类和谱聚类的理论算法上简单分析各自的复杂度:假设有 $M$ 条轨迹需要聚类, 每个样本点 $P$ 维, 聚类数为 $K$ , 由于两者都需要先构建邻接关系矩阵, 所以这部分复杂度不予考虑.

    时间复杂度: 1)谱聚类, 当 $M$ 维关系矩阵构建完成后, 需要对该矩阵进行特征值分解, 这一个过程的时间复杂度为O $(M^3)$ , 通过提取前 $p'$ $(p'<M)$ 个最小特征向量, 利用 $K$ -means对特征向量数据进行聚类, 由于特征向量数据与样本数据对应, 最终完成 $K$ 类样本数据的划分, $K$ -means聚类过程时间复杂度为O $(T\times K\times M)$ ( $T$ 为迭代次数), 总的时间复杂度为O $(M^3)$ + O $(T\times K\times M)$ ; 2)子模聚类, 同样先构建 $M$ 维的邻接关系矩阵, 设置初始集合 $S=\emptyset$ (用来保存 $K$ 个聚类中心), 对矩阵进行行扫描(第 $i$ 行数据代表 $i$ 样本与所有样本之间的亲近关系), 计算该行元素之和, 共进行了 $M-1$ 次加法运算, 选取收益最大的行, 于是将对应行号的样本加入到 $S$ 中, 其时间复杂度为O $(M^2)$ , 接着重复进行行扫描, 寻找次小收益的样本加入 $S$ , 依次类推, 直到 $|S|= K$ 时结束, 共循环 $K$ 次得到 $K$ 个聚类中心, 最后通过度量各个样本与 $K$ 个中心的距离实现所有样本的划分, 其时间复杂度为O $(K\times M)$ , 则总的时间复杂度为O $(kM^2)$ + O $(K\times M)$ .此外, 当邻接关系矩阵构建完成后, 子模聚类过程涉及到的主要是加法运算, 相对于谱聚类, 子模聚类更有效率.

    空间复杂度:通过时间复杂度分析, 子模聚类需要的存储空间主要用于保存邻接关系矩阵, 而谱聚类在特征值分解过程中需要的存储空间远大于子模聚类.

    最后给出式(2)中轨迹关系矩阵 $W=(w_{i, j})_{M \times M}$ , 通过考虑两因素——特征点在轨迹上的速率差异及特征点轨迹间的最大空间距离来度量其运动模式的相似性, 即速率差异和空间距离越小越相似, 对于将两种因素直接相乘的结合方式, 虽然能够反映轨迹间的相似性, 但是这种无差别对待将无法有效地评价两种因素对关系度量的贡献[19], 而经本文发现, 速率的影响通常比空间距离的影响大, 这也正好符合了本文针对的数据特点——运动轨迹数据.因此, 本文引入了权重因子 $\theta$ 来反映两种因素的影响, 对于视频 $V$ 中的任意两条轨迹 $traj^i$ 和 $traj^j$ , 共存时间为 $[\tau_1, \tau_2]$ , 则轨迹间的距离度量如下:

    $ \begin{align} &d^{ij}_{\rm intra}= \theta\times \max\limits_{t\in [\tau_1~\tau_2]}d^{ij}_{\rm spatial}[t]\,+\notag\\ &\qquad\quad (1-\theta)\times \frac{1}{\tau_2-\tau_1}\sum_{k=\tau_1}^{\tau_2}d^{ij}_{\rm velocity}[k]\notag\\[2mm] & d^{ij}_{\rm velocity}[t]=\left|v^i[t]-v^j[t]\right|_2\notag\\[2mm] & v^i[t]= traj^i[t]-traj^i[t-1]\notag\\[2mm] & d^{ij}_{\rm spatial}[t]=\left| traj^i[t]-traj^j[t] \right|_2 \end{align} $

    (4)

    其中, $d^{ij}_{\rm spatial}[t]$ , $d^{ij}_{\rm velocity}[t]$ 和 $v^i[t]$ 分别表示轨迹 $traj^i$ 和 $traj^j$ 在 $t$ 时刻的空间欧氏距离、速率差异和速度, 经实验验证 $\theta=0.1$ 时能够有效反映轨迹间的相似度.接着, 利用高斯函数对轨迹间的距离进行变换以反映轨迹对的亲近性 $w(i, j)$ .

    $ \begin{align} w(i,j)= \begin{cases} \exp(-d^{ij}_{\rm intra}),& \max\limits_{t \in [\tau_1~\tau_2]}d^{ij}_{\rm spatial}[t] \geq 30\\[2mm] 0,&\mbox{否则} \end{cases} \end{align} $

    (5)

    子模聚类算法的详细流程见算法1.

    算法1.子模聚类算法

    1. Input:对应轨迹集合 $Tr$ 的序号集合 $Index_{Tr}=$ $[1$ , $2$ , $\cdots, M]$ , $M$ 为轨迹数, 轨迹间边集 $E$ 及对应边权矩阵 $W$ , 聚类数 $K$ , 参数 $\lambda$ .

    2. Initialization: $S=\emptyset$ , $Q=[q_1, q_2, \cdots, q_M]$ , $q_i=$ $0$ , $i=1, 2, \cdots, M$ }.

    3. while { $|S| \leq K$ } do

    4.

    5.{ $S\leftarrow S\cup \{s^*\}$ }

    6. for all { $i\in Index_{Tr}$ } do

    7. $q_i=\max\{q_i, w_{i, s^*}\}$

    8. end for

    9. end while

    10. for all { $traj^j \in Tr$ } do

    11. $CLASSLabel_{traj^j}=\arg\max\limits_{s\in S}w_{s, j}$

    12. end for.

    对于聚类后的 $Tr_A$ 和 $Tr_B$ 分别记为 $C_A=$ $\{ C^1_A$ , $C_A^2$ , $\cdots, C^{K_A}_A\}$ 和 $C_B=\{ C^1_B, C_B^2, \cdots, C^{K_B}_B\}$ , $C_A^h$ , $C^h_B$ 分别表示视频 $V_A$ 第 $h$ 个和 $V_B$ 第 $k$ 个轨迹聚类, $K_A$ 为聚类数; 接着本文采用一种新的、有别于传统谱匹配的方法[22]——基于重加权随机游走的图匹配方法RRWM[23]实现 $C_A^h$ 和 $C^h_B$ 内轨迹间的匹配.

    首先, 按式(6)计算 $Tr_A$ 与 $Tr_B$ 中轨迹间的距离并排序选取距离最小的前 $0.01\, \%$ 个轨迹对, 分别统计落入 $C_A$ 和 $C_B$ 不同聚类中的轨迹数目并将这些轨迹作为后续该聚类的有效数据进行匹配计算, 如果数目大于等于2, 则可以进行后续计算; 对于数目小于2的, 则匹配计分记为 $0$ .

    $ d_{\rm inter}(traj^i_A, traj^j_B)=\| \pmb F_A^i-{\pmb F}^j_B \| $

    (6)

    其中, $\tilde{F}^i=\frac{1}{L}{\pmb H}^i({\pmb H}^i)^{\rm T}$ , ${\pmb H}^i$ 为轨迹 $i$ 的MBH描述子, 于是取矩阵 $\tilde{F}^i$ 的上三角元素依次排列形成向量 ${\pmb F}^i$ $=$ $[\tilde{F}^i_{11}, \tilde{F}^i_{12}, \cdots, \tilde{F}^i_{1d}, \tilde{F}^i_{22}, \tilde{F}^i_{23}, \cdots, \tilde{F}^i_{dd}]$ , 作为轨迹 $i$ 的特征表示, 该特征不仅包含了单个时间帧的特征信息, 还包括了 $L$ 长度内不同帧之间的互信息.

    接着, 为了匹配 $C_A^h$ 和 $C^h_B$ 中的轨迹, 本文提出了一种新的基于视频轨迹的成对亲和矩阵 $M$ 构建方法, 该矩阵融入了一元特征信息和二元成对特征互信息, 其中 $m_{ab, a'b'}$ 表示对应轨迹 $a\rightarrow b$ 与 $a'$ $\rightarrow$ $b'$ 的亲和度, 计算方式见式(7), 其中 $a, a'\in Tr_A$ , $b$ , $b'$ $\in$ $Tr_B$ , $a\rightarrow b$ 表示轨迹 $a$ 与轨迹 $b$ 匹配.

    $ \begin{align} &m_{ab,a'b'}=\exp\left(-( |\mu_{D_{a,a'}}-\mu_{D_{b,b'}}|~+ \right.\notag\\ &\qquad\ |s_{D_{a,a'}}-s_{D_{b,b'}}|+|\mu_{R_{a,a'}}-\mu_{R_{b,b'}}|~+\notag\\ &\qquad \left. |s_{R_{a,a'}}-s_{R_{b,b'}}|)\right)\notag\\[1mm] &\mu_{D_{a,a'}}=\frac{1}{T}\sum_{t=1}^{T}\frac{d^t_{a,a'}}{d^{\rm max}_{a,a'}}\notag\\ &s_{D_{a,a'}}=\sqrt{\frac{1}{T-1}\sum_{t=1}^{T}\left(d^t_{a,a'}-\mu_{D_{a,a'}}\right)}\notag\\ &\mu_{R_{a,a'}}=\frac{1}{T}\sum_{t=1}^{T}\frac{r^t_{a,a'}}{r^{\rm max}_{a,a'}}\notag\\ &s_{R_{a,a'}}=\sqrt{\frac{1}{T-1}\sum_{t=1}^{T}\left(r^t_{a,a'}-\mu_{R_{a,a'}}\right)} \end{align} $

    (7)

    式中 $\mu_{D_{b, b'}}$ , $s_{D_{b, b'}}$ , $\mu_{R_{b, b'}}$ , $s_{R_{b, b'}}$ 同理可求.其中, $D_{a, a'}$ $=$ $[d^1_{a, a'}\ d^2_{a, a'}\ \cdots\ d^T_{a, a'}]$ 表示轨迹 $a$ 与 $a'$ 在共存时间 $T=\tau_1-\tau_2$ 内在各帧上的欧氏距离集合, $R_{a, a'}$ $=$ $[r^1_{a, a'}\ r^2_{a, a'}\ \cdots\ r^T_{a, a'}]$ 为共存时间内各帧上以 $a$ 和 $a'$ 形成的向量与水平方向形成的夹角, $d^{\rm max}_{a, a'}=\max\nolimits_{t\in[\tau_1 \tau_2]} \{ d^t_{a, a'} \}$ , $r^{\rm max}_{a, a'}=\max\nolimits_{t\in [\tau_1 \tau_2]}\{ r^t_{a, a'} \}$ .然后, 通过RRWM方法求匹配指示向量, 主要包括膨胀和双随机正规化的迭代过程, 迭代方程如下:

    $ \begin{align} &\left({\pmb X}^{(n+1)T}, x^{(n+1)T}_{abs}\right) =\notag\\ &\qquad\rho\left({\pmb X}^{(n)T},x^n_{abs}\right)\left( \begin{array}{cc} \frac{M}{D_{\max}} & \frac{1-{\pmb d}}{D_{\max}} \\ 0 & 1 \\ \end{array} \right)\,+\notag\\ &\qquad(1-\rho)\left(f_c\left({{\pmb X}^{(n)T}M}\right),0\right),\notag\\[1mm] &\qquad\qquad\qquad\quad\ \ \ \ D_{\max}=\max\limits_{d_i\in\pmb d}d_i,~~ d_i=\sum_j{m_{i,j}} \end{align} $

    (8)

    其中, $x_{abs}$ 为吸收节点, $\rho$ 是重加权因子(本文设定为0.2), 上标 $n$ 表示迭代次数, $f_c(\cdot)$ 为融入了双向约束的重加权函数, ${\pmb X}$ 即为所要求的匹配指示向量, 初始值为等概率分布, 最后通过贪婪算法离散化 ${\pmb X}$ 并满足 ${\pmb X}\in{\{0, 1\}}^{|C^h_A||C^k_B|}$ , $|C^h_A|$ 和 $|C^k_B|$ 分别为元素基数.由于求解过程中融入了双向约束条件: $\forall\, b$ , $\sum\nolimits^{|C^h_A|}_{a=1}X_{ab}$ $\leq$ $1$ , $\forall\, a$ , $\sum\nolimits^{|C^k_B|}_{b=1}X_{ab}\leq 1$ , 避免了谱匹配方法容易产生一个局部最优解的情形, 具体细节见文献[11].于是可以得到 $C^h_A$ 和 $C^k_B$ 的匹配计分:

    $ Score{\left(C^h_A, C^k_B\right)}=\frac{1}{|C^h_A|+|C^k_B|}\times {{\pmb X}^{\rm T}M{\pmb X}} $

    (9)

    RRWM获取匹配解为一个迭代过程, 其时间复杂度为O $(|E^{C^h_A}|\times{|E^{C^k_B}|})$ , $|E^{C^h_A}|$ , $|E^{C^k_B}|$ 分别为聚类 $C^h_A$ 和 $C^k_B$ 中以轨迹为顶点形成完全图的边的数目, 远低于基于特征值分解的传统图匹配过程.

    为了方便比较, 采取了与文献[16]类似方法, 算法描述如下:

    共显著性度量:通过RRWM方法实现了视频 $V_A$ 与 $V_B$ 中轨迹匹配, 于是按下式计算运动轨迹的共显著性并归一化到[0, 1].

    $ \begin{align} &CS\left(traj^i_A\right)=\notag\\ &\qquad \max\limits_{C^k_B\in{C_B}}Score\left(C^h_A,C^k_B\right), \ \ traj^i_A\in{C^h_A} \end{align} $

    (10)

    协同分割:将成对视频中的轨迹分类为共同运动模式和异常运动模式两部分, 该问题可以转化为基于马尔科夫随机场的二值标签问题.本文通过构造包含数据项与平滑项的能量函数, 借助图割算法[27]使得能量最小化以达到视频协同分割的目的.

    $ \begin{align} &\min\limits_fE_{AB}(f)=E_A(f)+E_B(f),\notag \\[1mm] &\ \ E_A(f)=\sum\limits_{traj^i_A,traj^j_A\in{Tr_A},traj^i_A,traj^j_A\in{NS}}S\left(f_i,f_j\right)+\notag\\ &\ \ \qquad \eta\times\sum\limits_{traj^i_A\in{Tr_A}}D\left(f_i\right),\notag\\ &\ \ E_B(f) ~~ {\rm similar\ to}~~ E_A(f) \end{align} $

    (11)

    其中, $f:traj^i_A\rightarrow\sigma\in\{0, 1\}$ 为贴标签函数, $\eta$ 为数据项权重因子, $\eta=50$ , $NS$ 为邻域系统, 利用狄洛尼三角剖分确定轨迹 $traj^i_A$ 和 $traj^j_A$ 是否是邻接对, 即是否属于 $NS$ ; 平滑项 $S\left(f_i, f_j\right)$ 用于约束邻近轨迹的标签应具有一致性, 体现了分割区域内部的连续性与边界的不连续性.

    $ S\left(f_i, f_j\right)=\left(1-\delta_{\sigma^i, \sigma^j}\right){\rm exp}\left({-d^{i, j}_{\rm intra}}\right) $

    (12)

    数据项 $D(f_i)$ 表示轨迹贴标签代价, 惩罚标记低共显著性的轨迹为共同运动模式:

    $ \begin{align} D(f_i)=&\ \delta_{\sigma,1}(1-\max(0,flag_i))\,+\notag\\ &\ \delta_{\sigma,0}\max(0,flag_i),\nonumber\\[1mm] &\qquad flag_i={\rm sgn}(CS(traj^i)-\gamma) \end{align} $

    (13)

    其中, $\delta_{\cdot, \cdot}$ 为克罗内克尔符号, 即如果 $\sigma_1=\sigma_2$ , 则 $\delta_{\sigma_1, \sigma_2}$ $=$ $1$ ; 反之, 如果 $\delta_{\sigma_1, \sigma_2}=0$ , 则 $\gamma$ 为共显著性阈值, 其取值在后文讨论.

    本文将采用类似于文献[16]的方法, 分别从UCF50数据集和HMDB51数据集1中选取42个视频对和20个视频对, 两个数据集均为公开数据集, 包含了多种运动模式的视频, 本文所选视频对中既有共有运动模式, 也有异常运动部分. 表 1给出了运动类别与数量, 同时本文对所选视频中的运动对象进行了边界框标定(见图 4).

    1http://www.bookmetrix.com/detail/chapter/1c0723ad-9aaf-4374-880a-5335802e1e27#downloads

    图 4  Bench press类中视频轨迹聚类与匹配结果
    Fig. 4  The clustering and matching results of video trajectories
    表 1  运动标签与其对应的视频对的数量
    Table 1  Action tags and the corresponding number of pairs of sequences
    运动类型数量
    Basketball shooting6
    Bench press8
    Clean and jerk5
    Jumping rope8
    Lunges6
    Rope climbing5
    Pommel horse4
    Golf6
    Pullup4
    Pushup3
    Ride bike7
    下载: 导出CSV 
    | 显示表格

    首先, 本文选取Bench press类中的一个视频对为例, 通过聚类稠密轨迹后对两视频间的聚类簇中的轨迹进行图匹配, 图 5给出了本文方法(Submodular + RRWM)与文献[16]方法(Spectral clustering + graph matching, SC + GM)的聚类和匹配结果.

    图 5  Bench press类中视频轨迹聚类与匹配结果
    Fig. 5  The clustering and matching results of video trajectories

    图 5中第1列和第2列为Submodular + RRWM方法结果, 每帧图像中的深灰色点为轨迹聚类簇之一; 浅灰色点为其他聚类簇, 不同视频中聚类簇间轨迹的匹配点由直线连接, 同时附上匹配计分(Score); 同理, 第3列和第4列为SC + GM方法得到的结果, 解释同前两列一样.其中第1行4幅图中的深灰色点显示了不同视频中相似对象聚类情况, 从聚类效果上看, 子模函数聚类覆盖准确度和区域纯度更高, 匹配点更多, 且有更高的匹配计分; 而谱聚类效果较差, 匹配点数和匹配计分均不理想.第2行的4幅图, 显示了成对视频中不相似的运动对象或运动模式的匹配情况, 可以发现本文方法能够有效避免误匹配, 使得匹配计分更低, 甚至匹配不发生(即匹配计分为0);反观SC + GM方法, 虽然视觉上极不相似的运动模式, 但仍有匹配可能而导致误匹配.因此, 本文方法不仅可以显著提高共同运动模式的发现, 同时也能够有效抑制异常运动模式的影响.

    下面对参数共显著性 $\gamma$ 和最小覆盖阈值 $\alpha$ 进行分析, 图 6给出了6个评价指标随参数变化情况.

    图 6  Bench press类中视频轨迹聚类与匹配结果
    Fig. 6  The clustering and matching results of video trajectories

    直观上, 共显著性 $\gamma$ 越高, 表明成对视频中共有运动模式相似度要求越高, 导致各自视频中共有运动模式的轨迹覆盖率降低, 故COV指标具有下降趋势; 同时出格点落在边界框外的概率变少, 使得AODE指标越来越低, 即越来越好; 由于出格点的减少导致全部共同运动模式轨迹数的减少, 进而使边界框内共同运动模式的轨迹数与全部共同运动模式轨迹数的比值增加, 从而使LOC指标受 $\gamma$ 影响较小.

    图 6(a)可以看出, 在选取 $\gamma=0.2$ 时, 各指标能够较好地反映了本文方法的性能, 此时具有较高的LOC和COV指标, 同时AODE也降低到 $20\, \%$ 左右; 从图 6(b)可以看出, 当 $\alpha<0.7$ 时, 本文方法与对比方法的LOC指标变化均较缓慢, 而 $\alpha>0.7$ 时, 则都剧烈下降.因此在本文后续实验中, 如无特殊说明, 则设定 $\gamma=0.2$ , $\alpha>0.7$ .

    为了验证本文算法的有效性, 我们将与其他两种方法进行比较, 与SC + GM方法[19]比较中, 采用其相同的评价策略, 即行为出格探测错误(Action outlier detection err, AODE), $AODE=$ ${n_{\rm badOuter}}/$ ${N_{\rm totalOuter}}$ , $n_{\rm badOuter}$ 表示边界框外的、被误认为是共同行为的轨迹数, $N_{\rm totalOuter}$ 表示边界框外的轨迹数, 即行为出格轨迹数, AODE主要用来评价行为出格点探测的表现; 空间定位计分(Localization score, LOC)是评价空间定位共同运动模式的表现, $LOC= =\frac{1}{T}\sum^T_{t=1}[\frac{\Lambda_t\cap\Omega_t}{\Lambda_t}\geq\alpha]$ , $\Lambda_t$ 和 $\Omega_t$ 分别表示在时刻 $t$ 属于共同运动模式的轨迹点集合和边界框内的轨迹点集合, $T$ 为共同行为持续时间长度, 即持续视频帧数, $[\cdot]$ 为一个0-1指标函数, $\alpha$ 为最小覆盖阈值; 空间覆盖计分(Coverage score, COV)定义了共同运动轨迹形成的最小矩形面积的覆盖程度, 公式为 $COV=\frac{1}{T}\sum^T_{t=1}\frac{Ar(\Lambda_t\cap\Omega_t)}{Ar_g}$ , 其中, $Ar(\cdot)$ 表示 $\Lambda_t$ $\cap$ $\Omega_t$ 形成的最小矩形面积, $Ar_g$ 为边界框的面积.

    表 2中每类第1行为本文方法结果, 第2行为SC + GM结果, 指标AODE (mean)表示在共有时间帧上AODE的均值, AODE (median)为中值, 其他指标类似, 在6类运动数据集上, 本文算法在6项指标上比SC + GM方法均有提高, 对于Kayaking类, 由于划船形成水的波动在成对视频中具有相似的运动模式, 所以在度量共显著性时, 水面波动具有很高的共显著性导致与划船的运动模式一起作为共同运动模式被分割出来. 图 4给出了来自两个数据集8个类的成对视频协同分割结果, 每个类给出了一个实例, 每类中第1列为两个视频帧, 并给出了运动对象边界框(浅白色框), 第2列为第一例对应的协同分割结果, 深灰色点为共同运动模式, 浅灰色点为异常运动模式.可以看出, 本文方法对处于不同背景中的成对视频中共同运动模式进行了有效分割, 甚至具有复杂背景, 如Bench press类, 都得到很好的结果.

    表 2  本文方法与SC + GM方法的实验结果对比
    Table 2  The experimental results of the proposed method and SC + GM
    类名AODE (%, mean)AODE (%, median)LOC (%, mean)LOC (%, median)COV (%, mean)COV (%, median)
    Basketball36.7634.3896.3510086.0587.81
    47.6647.8464.425073.9081.03
    Bench press24.1027.4710010086.5788.49
    27.3426.5684.0910075.5281.86
    Clean and jerk31.0530.9410010073.8182.22
    30.7933.3494.5010070.4076.31
    Jumping rope5.4538.6010010084.2383.58
    20.1823.6965.8910077.3086.15
    Lunges28.2831.9189.6210052.7857.58
    29.3128.4837.655065.0583.76
    Kayaking51.6253.6841.505064.9669.39
    42.5143.6742.135065.4862.60
    Rope climbing20.6022.0074.1710063.0882.16
    33.8119.4164.7572.1456.4371.33
    下载: 导出CSV 
    | 显示表格

    最后, 我们在HMDB51数据集也给出了与VCS方法[12]的比较结果, VCS方法首先对视频帧进行超像素分割, 同时对每个超像素提取外观特征、时空位置和运动信息, 用一组超像素表达视频.虽然该方法的目的与本文不一致, 但是同样也利用了运动信息.由于AODE与LOCS不适合评价VCS结果, 因此采用COV指标和互识别率(Mutual recognition, MR)对不同方法进行评价, 即方框内的共有部分(像素/轨迹)比全部协同分割出的部分(像素/轨迹).结果如表 3所示, 对于成对视频中简单的动作模式, 本文方法与SC + GM方法均能给出较好的分割结果, 像Pullup类视频.由于本文与SC + GM方法主要基于运动信息, 当观察运动的视角发生剧烈变化时(Golf类和Pushup类), 相同动作的运动模式将产生较大差异, 因此性能有所下降, 反观VCS方法, 由于融入了空间位置和外观特征信息, 所以其表现优于本文方法; 对于Ride-bike类, 目标的运动速率、位置、视角、光照条件、外观形状及大小等因素都有很大变化, 因此导致三种方法的性能均有所下降.

    表 3  本文方法与其他方法的实验结果对比
    Table 3  The experimental results of the proposed method and other methods
    类名方法MR (%, mean)COV (%, mean)
    本文方法51.3760.12
    GolfSC + GM50.6458.90
    VCS48.8254.17
    本文方法82.2080.35
    PullupSC + GM79.5878.78
    VCS70.2272.41
    本文方法47.5452.81
    PushupSC + GM45.6152.97
    VCS55.3460.15
    本文方法35.3035.78
    Ride bikeSC + GM34.6236.35
    VCS38.4534.56
    下载: 导出CSV 
    | 显示表格

    从上述结果与对比分析可得, 在静态背景和观察视角变化不大的背景下, 利用本文方法提取成对视频中共同的运动模式是基本可行的、有效的.

    本文提出了一种新的基于稠密轨迹的视频协同分割算法, 通过引入子模函数优化和RRWM算法, 使得相对于谱聚类与传统图匹配的结合, 无论是在空间定位精度上, 还是在时间复杂度上都有显著的提高, 同时也提出了改进的视频内轨迹亲进度度量方法和不同视频内轨迹簇间亲和矩阵构建方法, 在运动数据集上的实验结果表明了本文方法是有效的、可行的.

    本文算法很容易推广到基于运动模式的不同类型视频数据和应用领域, 像动物视频、交通车辆视频以及基于这些视频的检索和分类等, 进一步的工作包括对视频检索的时域定位、具有相似运动背景的共同运动对象协同分割以及多个视频的协同分割.

  • 图  1  基于抗干扰误差补偿的背景建模算法流程示意图

    Fig.  1  The flow chart of the proposed robust error compensation based background modeling method

    图  2  前景的空间连续性约束

    Fig.  2  The spatial continuity constraint on foreground

    图  3  前景信息的正反馈问题

    Fig.  3  The positive feedback of foreground information

    图  4  二值分类函数与保留距离信息的分类策略

    Fig.  4  Comparison between binary classification function and distance information preservation based classification strategy

    图  5  前景信息的正反馈回路

    Fig.  5  The positive feedback loop of foreground information

    图  6  背景模板更新间隔p对算法平均性能的影响

    Fig.  6  The average F-score performance with respect to different parameter p

    图  7  本文算法的三个主要组成部分的有效性展示

    Fig.  7  The effectiveness of the main three components in the proposed algorithm

    图  8  不同前景检测算法的前景掩膜结果

    Fig.  8  The foreground masks obtained from different foreground detection algorithms

    表  1  本文算法与其他算法的F-score得分(%)

    Table  1  The F-score results (%) of the proposed method and the other methods

    DPGMM RPCA GoDec GRASTA LRFSO RFDSA DECOLOR Ours(fast) Ours(accurate)
    Bootstrap 60.24 61.19 60.91 59.45 56.68 68.41 69.74 62.54 69.68
    Campus 75.67 29.19 24.26 18.38 36.08 67.79 74.59 42.59 69.47
    Curtain 82.03 54.97 63.03 78.91 79.35 89.76 87.35 87.00 90.34
    Escalator 50.55 56.77 47.33 38.24 48.01 63.53 75.00 49.18 76.61
    Fountain 70.49 68.81 70.31 63.86 70.58 75.44 87.87 78.74 80.15
    ShoppingMall 65.22 70.03 66.53 68.96 54.46 74.07 65.58 71.78 75.40
    WaterSurface 90.90 48.48 66.56 78.34 76.69 87.96 54.27 89.21 89.43
    Hall 54.84 51.75 51.15 53.49 49.08 66.73 55.88 68.16 68.85
    Average 68.74 55.14 56.26 57.45 58.8 74.21 71.29 68.65 77.50
    FPS N/A 9.97 20.28 62.90 0.02 2.66 1.88 35.34 3.12
    下载: 导出CSV
  • [1] 霍东海, 杨丹, 张小洪, 洪明坚.一种基于主成分分析的Codebook背景建模算法.自动化学报, 2012, 38(4): 591-600 doi: 10.3724/SP.J.1004.2012.00591

    Huo Dong-Hai, Yang Dan, Zhang Xiao-Hong, Hong Ming-Jian. Principal component analysis based codebook background modeling algorithm. Acta Automatica Sinica, 2012, 38(4): 591-600 doi: 10.3724/SP.J.1004.2012.00591
    [2] 储珺, 杨樊, 张桂梅, 汪凌峰.一种分步的融合时空信息的背景建模.自动化学报, 2014, 40(4): 731-743 http://www.aas.net.cn/CN/abstract/abstract18339.shtml

    Chu Jun, Yang Fan, Zhang Gui-Mei, Wang Ling-Feng. A stepwise background subtraction by fusion spatio-temporal information. Acta Automatica Sinica, 2014, 40(4): 731-743 http://www.aas.net.cn/CN/abstract/abstract18339.shtml
    [3] 王永忠, 梁彦, 潘泉, 程咏梅, 赵春晖.基于自适应混合高斯模型的时空背景建模.自动化学报, 2009, 35(4): 371-378 http://www.aas.net.cn/CN/abstract/abstract15852.shtml

    Wang Yong-Zhong, Liang Yan, Pan Quan, Cheng Yong-Mei, Zhao Chun-Hui. Spatiotemporal background modeling based on adaptive mixture of Gaussians. Acta Automatica Sinica, 2009, 35(4): 371-378 http://www.aas.net.cn/CN/abstract/abstract15852.shtml
    [4] Stauffer C, Grimson W E L. Adaptive background mixture models for real-time tracking. In: Proceedings of the 14th IEEE Conference on Computer Vision and Pattern Recognition. Fort Collins, USA: IEEE, 1999. 246-252
    [5] Elgammal A M, Harwood D, Davis L S. Non-parametric model for background subtraction. In: Proceedings of the 6th European Conference on Computer Vision. Dublin, Ireland: Springer-Verlag, 2000. 751-767
    [6] Candés E, Li X D, Ma Y, Wright J. Robust principal component analysis? Journal of the ACM, 2011, 58(3): Article No. 11 http://cn.bing.com/academic/profile?id=2145962650&encoded=0&v=paper_preview&mkt=zh-cn
    [7] Zhou T Y, Tao D C. GoDec: randomized low-rank & sparse matrix decomposition in noisy case. In: Proceedings of the 28th International Conference on Machine Learning. Bellevue, USA: ACM, 2011. 33-40
    [8] Dikmen M, Huang T S. Robust estimation of foreground in surveillance videos by sparse error estimation. In: Proceedings of the 19th International Conference on Pattern Recognition. Tampa, USA: IEEE, 2008. 1-4
    [9] Xue G J, Song L, Sun J, Wu M. Foreground estimation based on robust linear regression model. In: Proceedings of the 18th International Conference on Image Processing. Brussels, Belgium: IEEE, 2011. 3269-3272
    [10] Xue G J, Song L, Sun J. Foreground estimation based on linear regression model with fused sparsity on outliers. IEEE Transactions on Circuits and Systems for Video Technology, 2013, 23(8): 1346-1357 doi: 10.1109/TCSVT.2013.2243053
    [11] Qin M, Lu Y, Di H J, Huang W. Background basis selection from multiple clustering on local neighborhood structure. In: Proceedings of the 2015 IEEE International Conference on Multimedia and Expo. Torino, Italy: IEEE, 2015. 1-6 http://cn.bing.com/academic/profile?id=2096642693&encoded=0&v=paper_preview&mkt=zh-cn
    [12] Seo J W, Kim S D. Recursive on-line (2D)2PCA and its application to long-term background subtraction. IEEE Transactions on Multimedia, 2014, 16(8): 2333-2344 doi: 10.1109/TMM.2014.2353772
    [13] He J, Balzano L, Szlam A. Incremental gradient on the Grassmannian for online foreground and background separation in subsampled video. In: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012. 1568-1575
    [14] Wang L, Wang M, Wen M, Zhuo Q, Wang W Y. Background subtraction using incremental subspace learning. In: Proceedings of the 2007 IEEE International Conference on Image Processing. San Antonio, USA: IEEE, 2007. V-45-V-48 http://cn.bing.com/academic/profile?id=2096642693&encoded=0&v=paper_preview&mkt=zh-cn
    [15] 蒋建国, 金玉龙, 齐美彬, 詹曙.基于稀疏表达残差的自然场景运动目标检测.电子学报, 2015, 43(9): 1738-1744 http://www.cnki.com.cn/Article/CJFDTOTAL-DZXU201509009.htm

    Jiang Jian-Guo, Jin Yu-Long, Qi Mei-Bin, Zhan Shu. Moving target detection in natural scene based on sparse representation of residuals. Acta Electronica Sinica, 2015, 43(9): 1738-1744 http://www.cnki.com.cn/Article/CJFDTOTAL-DZXU201509009.htm
    [16] Xu Z F, Gu I Y H, Shi P F. Recursive error-compensated dynamic eigenbackground learning and adaptive background subtraction in video. Optical Engineering, 2008, 47(5): 525-534 http://cn.bing.com/academic/profile?id=2055138117&encoded=0&v=paper_preview&mkt=zh-cn
    [17] Boyd S, Parikh N, Chu E, Peleato B, Eckstein J. Distributed optimization and statistical learning via the alternating direction method of multipliers. Foundations and TrendsoledR in Machine Learning, 2011, 3(1): 1-122 http://cn.bing.com/academic/profile?id=2164278908&encoded=0&v=paper_preview&mkt=zh-cn
    [18] Donoho D L. De-noising by soft-thresholding. IEEE Transactions on Information Theory, 1995, 41(3): 613-627 doi: 10.1109/18.382009
    [19] Ross D A, Lim J, Lin R-S, Yang M H. Incremental learning for robust visual tracking. International Journal of Computer Vision, 2008, 77(1-3): 125-141 doi: 10.1007/s11263-007-0075-7
    [20] Guo X J, Wang X G, Yang L, Cao X C, Ma Y. Robust foreground detection using smoothness and arbitrariness constraints. In: Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014. 535-550 http://cn.bing.com/academic/profile?id=242805321&encoded=0&v=paper_preview&mkt=zh-cn
    [21] Wang L C, You Y, Lian H. A simple and efficient algorithm for fused LASSO signal approximator with convex loss function. Computational Statistics, 2013, 28(4): 1699-1714 doi: 10.1007/s00180-012-0373-6
    [22] Sun D Q, Roth S, Black M J. A quantitative analysis of current practices in optical flow estimation and the principles behind them. International Journal of Computer Vision, 2014, 106(2): 115-137 doi: 10.1007/s11263-013-0644-x
    [23] Porter T, Duff T. Compositing digital images. In: Proceedings of the 11th Annual Conference on Computer Graphics and Interactive Techniques. Minneapolis, USA: ACM, 1984. 253-259 http://www.oalib.com/references/17182941
    [24] Li L Y, Huang W M, Gu I Y H, Tian Q. Statistical modeling of complex backgrounds for foreground object detection. IEEE Transactions on Image Processing, 2004, 13(11): 1459-1472 doi: 10.1109/TIP.2004.836169
    [25] Haines T S F, Tao X. Background subtraction with Dirichlet process mixture models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(4): 670-683 doi: 10.1109/TPAMI.2013.239
    [26] Zhou X W, Yang C, Yu W C. Moving object detection by detecting contiguous outliers in the low-rank representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(3): 597-610 doi: 10.1109/TPAMI.2012.132
  • 期刊类型引用(1)

    1. 王传云, 秦世引. 动态场景红外图像的压缩感知域高斯混合背景建模. 自动化学报. 2018(07): 1212-1226 . 本站查看

    其他类型引用(5)

  • 加载中
图(8) / 表(1)
计量
  • 文章访问数:  1639
  • HTML全文浏览量:  291
  • PDF下载量:  1129
  • 被引次数: 6
出版历程
  • 收稿日期:  2015-12-18
  • 录用日期:  2016-04-20
  • 刊出日期:  2016-09-01

目录

/

返回文章
返回