-
摘要: 行人再识别指的是在无重叠视域多摄像机监控系统中, 匹配不同摄像机视域中的行人目标.针对当前基于距离测度学习的行人再识别算法中存在着特征提取复杂、训练过程复杂和识别效果差的问题, 我们提出一种基于多特征子空间与核学习的行人再识别算法.该算法首先在不同特征子空间中基于核学习的方法得到不同特征子空间中的测度矩阵以及相应的相似度函数, 然后通过比较不同特征子空间中的相似度之和来对行人进行识别.实验结果表明, 本文提出的算法具有较高的识别率, 其中在VIPeR数据集上, RANK1达到了40.7%, 且对光照变化、行人姿态变化、视角变化和遮挡都具有很好的鲁棒性.Abstract: Person re-identification is to match pedestrian images observed from different camera views of non-overlapping multi-camera surveillance systems. The current person re-identification based on metric learning is complicated for feature extraction and training process, and has low performance. Therefore, we propose a multi-feature subspace and kernel learning based method for person re-identification. The distance metric and similarity functions can be achieved firstly in different feature subspaces by kernel learning. Then, the object can be recognized by comparing the sum of similarity of different feature subspaces. Experimental results show that the proposed method has a higher accuracy rate, achieving a 40.7% rank-1 recognition rate on the VIPeR benchmark and that it is robust to different viewpoints, illumination changes, varying poses and the effects of occlusion.
-
Key words:
- Person re-identification /
- feature space /
- metric learning /
- kernel learning
-
行人再识别指的是在非重叠监控视频中, 检索某个监控视频中出现的目标是否出现在其他的监控视频中.最近几年, 行人再识别问题引起了广大科研人员的兴趣与研究.监控视频中的目标图像分辨率低、场景中存在着光照变化、视角变化、行人姿态变化以及摄像机自身属性的问题, 导致同一目标在不同的监控视频中外观区别很大, 使得行人再识别问题遇到了很大的挑战.为了有效地解决这些挑战, 广大的研究者提出了很多解决方法.目前的行人再识别算法可以简单概括为4种:直接法[1-7]、基于深度学习的方法[8-9]、显著性学习的方法[10]和间接法[11-19].
直接法利用视觉特征对行人建立一个鲁棒性和区分性的表示, 不需要通过学习直接利用行人特征, 然后根据传统的相似性度量算法 (欧氏距离、巴氏距离等) 来度量行人之间的相似度.文献[1]首次提出了利用直方图特征来表征目标并通过度量直方图的相似度来识别不同的目标.文献[2]将行人图像粗略分为头部、上半身和下半身3部分, 然后串联每一部分的颜色直方图对行人描述.文献[3]采用分割的技术提取人的前景, 并利用行人区域的对称性和非对称性将人的前景划分成不同的区域.对于每个区域, 提取带权重的颜色直方图特征、极大稳定颜色区域 (Maximally stable color regions) 特征和重复度高的结构区域 (Recurrent highly structured patches) 特征描述它们.文献[4]提出了一种结合Gabor特征和协方差矩阵描述的BiCov描述子来对行人描述.文献[5]采用图案结构 (Pictorial structure) 算法定位图像中人的各个部件所在的区域.对于每个部件的区域,提取与文献[3]类似的颜色直方图特征、极大稳定颜色区域特征来描述它们.文献[6]利用LBP (Local binary pattern) 特征和21个滤波器特征 (8个Gabor滤波器和13个Schmid滤波器) 来描述图像中的行人.文献[7]通过共生矩阵对行人的形状和外形特征进行描述.虽然直接法的算法模型简单, 但由于在光照变化、视角变化以及姿态变化等情况下, 同一个人的外观变化往往很大, 很难提取出鲁棒性和区分性的特征描述.因此在光照变化、视角变化以及姿态变化等情况下, 直接法的效果很差.
深度学习近年来在计算机视觉中得到了广泛的应用, 因此不少学者研究并提出了基于深度学习的行人再识别算法. Li等[8]提出了一种6层的FPNN (Filter pairing neural network) 神经网络, 它能有效解决行人再识别中出现的光照变化、姿态变化、遮挡和背景粘连等问题, 从而提高了识别率. Ahmed等[9]提出了一种深层卷积结构能够同时自动学习特征和相应的相似性测度函数.但基于深度学习的行人再识别算法需要非常大的训练数据库, 导致训练时间长, 此外还需要针对特定问题搭建相应的模型, 因此不利于该方法的推广.同时, 深度学习方法中还存在调置参数缺乏理论性指导, 具有较大主观性的问题.
基于显著性学习的行人再识别方法近年来也受到研究者的广泛兴趣.人们可以通过行人的一些显著信息来识别行人, 但传统的方法在比较两张图片的相似性的时候, 往往忽略了行人身上的显著性特征.对此, Zhao等[10]提出了一种通过学习行人图像的显著性信息来度量两张行人图像的相似性的方法.但显著性学习的行人再识别算法在行人姿态变化的情况下, 显著性区域会出现偏移或者消失, 导致识别效果较差.
间接法主要是学习得到一个分类器或一个排序模型.间接法代表性的算法有距离测度学习[11-16]、支持向量机[17]、迁移学习[18]和流形排序算法[19].距离测度学习算法作为间接法中的一种, 最近几年在行人再识别中得到了广泛的应用.本文提出的算法也是基于距离测度学习, 所以下面着重介绍基于距离测度学习的行人再识别算法.
与手动设计特征的直接法不同, 距离测度学习方法是一种利用机器学习的算法得出两张行人图像的相似度度量函数, 使相关的行人图像对的相似度尽可能高, 不相关的行人图像对的相似度尽可能低的方法.代表性的测度学习算法有Zheng等[11]把行人再识别问题当成距离学习问题, 提出了一种基于概率相对距离的行人匹配模型, 文献[12]提出了一种基于统计推断的方法学习测度矩阵来度量两张行人图像的相似度, 以及文献[13-16]中提出的相应测度学习算法.
距离测度算法是将原始特征空间投影到另一个更具区分性的特征空间.与其他算法相比, 距离测度学习算法具有更好的效果.距离测度学习算法即使只使用简单的颜色直方图作为特征, 算法的性能往往优于其他算法.文献[12]提出了一种基于统计推断的方法学习测度矩阵来度量行人对的相似度, 但作者直接在原始特征空间训练得到测度矩阵, 进而得到样本之间的相似性函数.原始特征空间的线性不可分性导致通过原始特征空间直接训练得到的测度矩阵不能很好地表征样本之间的相似性和差异性.本文提出基于核学习的方法, 首先, 通过相应的核函数将原始特征空间投影到非线性空间; 然后, 在非线性空间中学习得到相应的测度矩阵.投影后的非线性特征空间具有很好的可分性, 这样学习得到的测度矩阵能准确地表征样本之间的相似性和差异性.另外, 基于测度学习的行人再识别算法一般是把多特征融合并建立特征模型, 然后基于相应的测度学习算法, 学习得到一个测度矩阵.然而这种特征融合往往忽略了不同属性特征之间的差别, 这样学习得到的测度矩阵不能准确地表征样本之间的相似性与差异性.对此, 本文提出在不同的特征空间中学习相应的测度矩阵, 进而得到表示不同特征空间的相似性函数, 最后根据不同的权重结合这些相似性函数来表征样本之间的相似性.本文算法在公共实验数据集上的实验效果优于目前主流的行人再识别算法, 尤其是第一匹配率 (Rank1).
本文其余章节的组织安排如下.第1节介绍本文提出的行人再识别算法; 第2节介绍本文算法在公共数据集上的实验; 第3节总结全文以及展望.
1. 基于多特征子空间与核学习的行人再识别算法
1.1 基于核学习的相似度量函数的学习
文献[13]中提出了一种KISSME的算法, 文中指出, 从统计学角度考虑, 一对有序行人对 $(i, j)$ 的相似度可以表示为式 (1).
$ \begin{align} S\left ( i, j \right )= \log \left ( \frac{P_{0} ( i, j )}{P_{1}( i, j )}\right) \end{align} $
(1) 其中, $P_{0}(i, j)$ 表示一对有序行人对 $(i, j)$ 属于相关行人对的概率, $P_{1}(i, j)$ 表示一对有序行人对 $(i, j)$ 属于不相关行人对的概率. $S$ 的值越大, 表示有序行人对 $(i, j)$ 属于相关行人对的概率更大.
设行人 $i$ 是用特征 ${\boldsymbol x_{i}}$ 表示, 行人 $j$ 同样用特征 $\boldsymbol x_{j}$ 表示, 则式 (1) 投影到特征空间表示为式 (2).
$ \begin{align} S\left ( {\boldsymbol x}_{i}, {\boldsymbol x}_{j} \right )= \log \left ( \frac{P_{0} ({\boldsymbol x}_{i}, {\boldsymbol x}_{j} )}{P_{1}( {\boldsymbol x}_{i}, {\boldsymbol x}_{j} )}\right ) \end{align} $
(2) 根据文献[13]可知, 相关的行人对和不相关的行人对在特征空间中分别服从均值为0, 协方差矩阵 $\sum_{S}$ 和 $\sum_{D}$ 的多维正态分布.它们分别表示为式 (3) 和式 (4).
$ \begin{align} &P_{0}({\boldsymbol x}_i, {\boldsymbol x}_j)=\frac{1}{\sqrt{2\Pi\left|\Sigma_{S}\ \right |}}\exp\Big(-\frac{1}{2}({\boldsymbol x}_{i}- \\ &\quad {\boldsymbol x}_{j})^{\rm T}\Sigma_{S}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})\Big) \end{align} $
(3) $ \begin{align} &P_{1}({\boldsymbol x}_i, {\boldsymbol x}_j)=\frac{1}{\sqrt{2\Pi\left|\Sigma_{D}\ \right |}}\exp\Big(-\frac{1}{2}({\boldsymbol x}_{i}- \\ &\quad {\boldsymbol x}_{j})^{\rm T}\Sigma_{D}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})\Big) \end{align} $
(4) 其中
$ \begin{align*} &\Sigma _{S}=\frac{1}{N_{S}}\sum_{(i, j)\in S}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T} \\ &\Sigma _{D}=\frac{1}{N_{D}}\sum_{(i, j)\in D}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T} \end{align*} $
将式 (3) 和式 (4) 代入到式 (2), 得到式 (5).
$ \begin{align} &S({\boldsymbol x}_i, {\boldsymbol x}_j)=\log\left(\frac{1}{\sqrt{2\pi \left | \Sigma _{S} \right |}}\right)- \\ &\quad \log\left(\frac{1}{\sqrt{2\pi \left | \Sigma _{D} \right |}}\right)+\frac{1}{2}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T}\Sigma _{D}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})- \\ &\quad \frac{1}{2}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T}\Sigma_{S}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j}) \end{align} $
(5) 相似度函数 $S({\boldsymbol x}_i, {\boldsymbol x}_j)$ 中常数不影响相似度的度量, 则省略相似度函数中的常数和常数系数, 将式 (5) 化简得到式 (6).
$ \begin{align} &S({\boldsymbol x}_i, {\boldsymbol x}_j)=({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T}\Sigma _{D}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})-({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T}\times \\ & \Sigma_{S}^{-1}({\boldsymbol x}_{i}-{\boldsymbol x}_{j})=({\boldsymbol x}_{i}-{\boldsymbol x}_{j})^{\rm T}\left(\Sigma _{D}^{-1}-\Sigma _{S}^{-1}\right)({\boldsymbol x}_{i}-{\boldsymbol x}_{j}) \end{align} $
(6) 其中, 令 $M = \Sigma _{D}^{-1}-\Sigma _{S}^{-1}$ .
文献[13]中提出的算法是直接在原始线性特征空间中训练得到测度矩阵, 进而得到表示样本之间相似性的相似度函数.由于原始特征空间的线性不可分, 上述方法得到的测度矩阵不能准确表达样本之间的相似性和差异性, 导致识别效果差.本文提出基于核学习的算法首先通过相应的核函数将原始特征空间投影到更易区分的非线性空间, 然后在非线性空间中训练得到测度矩阵 $M$ .这样得到的测度矩阵 $M$ 具有很好的区分性, 能使同类样本之间的距离尽可能小, 异类样本之间的距离尽可能大.
核学习的主要思想是将原始线性特征空间投影到区分性好的非线性空间.原始特征空间中的特征 ${\boldsymbol x_{i}}$ 通过函数 $\Phi$ 投影到非线性空间, 则非线性空间的特征表示为 $\Phi ({\boldsymbol x_{i}})$ .非线性映射函数一般是隐性函数, 则很难得到显式表达式, 可以利用核函数求解特征空间中样本点的内积来解决, 如式 (7) 所示.
$ \begin{align} k({\boldsymbol x}, {\boldsymbol z})=\langle\Phi({\boldsymbol x}), \Phi({\boldsymbol z})\rangle \end{align} $
(7) 其中, ${\boldsymbol x}, {\boldsymbol z}\in {\bf R}^{d}$ ( $d$ 表示原始特征空间特征的维度).通过式 (7) 得式 (8), 式 (8) 把原始特征空间中任一特征 ${\boldsymbol x_{q}}$ 投影到易区分的非线性特征空间中得到非线性特征 ${\boldsymbol k_{q}}$ .
$ \begin{align} {\boldsymbol k}_{q}=[k({\boldsymbol x}_{1}, {\boldsymbol x}_{q}), k({\boldsymbol x}_{2}, {\boldsymbol x}_{q}), \cdots, k({\boldsymbol x}_{n}, {\boldsymbol x}_{q})] \end{align} $
(8) 式中, ${\boldsymbol x}_{1}, {\boldsymbol x}_{2}, \cdots, {\boldsymbol x}_{n}$ 表示原特征空间中的 $n$ 个样本特征.式 (6) 通过核函数变换得到式 (9).
$ \begin{align} &S({\boldsymbol k}_{i}, {\boldsymbol k}_{j})=({\boldsymbol k}_{i}-{\boldsymbol k}_{j})^{\rm T}\Sigma _{D}^{-1}({\boldsymbol k}_{i}-{\boldsymbol k}_{j})-({\boldsymbol k}_{i}-{\boldsymbol k}_{j})^{\rm T}\times \\ &\quad \Sigma_{S}^{-1}({\boldsymbol k}_{i}-{\boldsymbol k}_{j})=({\boldsymbol k}_{i}-{\boldsymbol k}_{j})^{\rm T}M({\boldsymbol k}_{i}-{\boldsymbol k}_{j}) \end{align} $
(9) 此时
$ \Sigma_{S}=\frac{1}{N_{S}}\sum_{(i, j)\in S}({\boldsymbol k}_{i}-{\boldsymbol k}_{j})({\boldsymbol k}_{i}-{\boldsymbol k}_{j})^{\rm T} $
(10) $ \Sigma _{D}=\frac{1}{N_{D}}\sum_{(i, j)\in D}({\boldsymbol k}_{i}-{\boldsymbol k}_{j})({\boldsymbol k}_{i}-{\boldsymbol k}_{j})^{\rm T} $
(11) $ M = \Sigma _{D}^{-1}-\Sigma_{S}^{-1} $
(12) 上述流程首先将原始线性特征空间通过核函数 $k$ 投影到易区分的非线性空间, 然后在投影后的特征空间训练得到测度矩阵.
常用的核函数有linear、 $\chi ^{2}$ 和RBF- $\chi ^{2}$ (Radial basic function- $\chi^2$ )[20].经过后面的实验论证, 三种核函数的实验效果为RBF- $\chi ^{2}$ > $\chi ^{2}$ > linear.
1.2 基于多特征子空间的测度学习
基于测度学习的行人再识别算法一般是把多特征融合并建立特征模型, 然后基于相应的测度学习算法得到测度矩阵.这种方法忽略了不同属性特征之间的差别, 导致学习得到的测度矩阵不能准确地体现样本之间的相似性与差异性.对此, 本文提出对于不同的特征空间单独学习相应的测度矩阵, 进而得到表示不同特征空间的相似性函数, 最后根据不同的权重结合这些相似性函数来表示样本之间的相似性.
假设有特征空间 $C$ 和特征空间 $T$ , 特征空间 $C$ 中样本对 $(i, j)$ 的特征表示为 ( ${\boldsymbol c_{i}}$ , ${\boldsymbol c_{j}}$ ) 以及特征空间 $T$ 中样本对 $(i, j)$ 的特征表示为 ( ${\boldsymbol t_{i}}$ , ${\boldsymbol t_{j}}$ ).特征空间 $C$ 中的任一特征 ${\boldsymbol c_{q}}$ 通过式 (8) 投影到核空间的特征为 ${\boldsymbol k}_{cq}=[k({\boldsymbol c}_{1}, {\boldsymbol c}_{q}), k({\boldsymbol c}_{2}, {\boldsymbol c}_{q}), \cdots, k({\boldsymbol c}_{n}, {\boldsymbol c}_{q})]$ , 同理特征空间 $T$ 中的任一特征 ${\boldsymbol {\boldsymbol t}_{q}}$ 通过式 (8) 投影到核空间的特征为 ${\boldsymbol k}_{tq}=[k({\boldsymbol t}_{1}, {\boldsymbol t}_{q}), k({\boldsymbol t}_{2}, {\boldsymbol t}_{q}), \cdots, k({\boldsymbol t}_{n}, {\boldsymbol t}_{q})]$ .依据第1.1节中提出的算法, 在特征空间 $C$ 对应的核空间和特征空间 $T$ 对应的核空间分别训练得到测度矩阵 $M_{C}$ 和 $M_{T}$ , 进而分别得到两种核空间的相似度函数 $S_{C}$ 和 $S_{T}$ .最后样本之间相似度函数为
$ \begin{align*} S=aS_{c}+(1-a)S_{T} \end{align*} $
$a$ 和 $1-a$ 为不同特征空间相似度函数的权值, 通过在后面不同数据集上的实验论证, 当 $a$ 满足条件 $a\in [0.5, 0.7]$ 时, 算法性能达到最优.本文实验中权值统一设置为 $a$ =0.5.
1.3 行人图像的特征表示
本文采用颜色特征和LBP特征对行人目标进行描述, 生成两种特征子空间.颜色空间有很多种, 用不同的色彩空间描述一图片的效果是不同的.依据文献[21-22], 本文采用的颜色特征从RGS、HSV、YCbCr和CIE Lab 4种颜色空间中提取. RGS空间的定义为 $R=R/(R+G+B)$ 、 $G=G/(R+G+B)$ 、 $S=(R+G+B)/3$ .为了获取具有鲁棒性和区分性的颜色特征表示, 本文将4种颜色空间的特征融合.融合后的颜色特征描述对于光照变化的场景具有良好的鲁棒性.图 1给出了一张被平均分成6个水平条带的行人图像, 对于每个水平条带的每种颜色空间的每个通道, 提取16维的颜色直方图特征, 将所有的颜色直方图特征串联形成行人图像的颜色特征, 从而得到行人图像颜色特征的维数为1 152维 (4 × 6 × 3 × 16).原始特征空间的1 152维特征经过核函数投影后的特征维度较高且大部分信息都是冗余的.因此实验中利用PCA (Principle component analysis) 将核空间中的特征维数降到保持大于90 %的能量.
为了更好地描述图像的局部信息, 本文中提取的局部特征来自于LBP等价模式中邻域点数为8半径为1和邻域点数为16半径为2两种模式的特征.上面两种LBP等价模式的维度分别为59维和243维.类似于颜色特征的提取, 一张行人图像被平均分成6个水平条带, 对于每个水平条带提取LBP两种模式的特征, 将所有的LBP特征串联形成行人图像的局部特征, 从而得到行人图像局部特征的维数为1 812维 ((59+243) × 6).同理, 原始特征空间的1 812维特征经过核函数投影后的特征维度同样较高并且大部分信息也都是冗余的.因此实验中同样利用PCA将核空间的特征维度降到保持90 %以上的能量.
1.4 本文算法的具体操作步骤
步骤1.输入具有 $N$ 对相关行人的训练集, 并提取每对相关行人的颜色特征 ( ${\boldsymbol c_{1i}}$ , ${\boldsymbol c_{2i}}$ ) 和LBP特征 ( ${\boldsymbol t_{1i}}$ , ${\boldsymbol t_{2i}}$ ), $i=1, 2, \cdots, N$ .
步骤2.将每对相关行人的颜色特征和LBP特征基于相应的核函数通过第1.1节中式 (8) 分别投影到可分的非线性空间.经过核函数投影的颜色特征和LBP特征在投影后的空间中分别表示为 ( ${\boldsymbol kc_{1i}}$ , ${\boldsymbol kc_{2i}}$ ) 和 ( ${\boldsymbol kt_{1i}}$ , ${\boldsymbol kt_{2i}}$ ).
步骤3.按照第1.1节中式 (10)~式 (12) 学习得到颜色子空间和LBP子空间对应核空间中的测度矩阵.
步骤4.利用步骤3得到不同核空间中的测度矩阵计算样本在不同核空间的相似度, 然后将样本在不同核空间中的相似度按照一定的权值结合来表示样本之间的相似性.
2. 实验测试与结果
本节首先介绍实验中所使用的测试数据和算法性能的评测准则, 其次介绍本文算法在不同公共实验集上与已有的行人再识别算法的性能比较, 然后在不同公共实验集上对比核映射前后的算法性能, 最后在不同公共实验集上分析权值不同时对算法性能的影响.文中所有的实验是基于vs2010 $+$ opencv2.4.9实现的, 实验平台是24 GB内存的Intel Xeon CPU E5506 2.13 GHz (2处理器) PC台式机.
2.1 测试数据和算法性能的评测准则
为了与已有算法公正比较, 实验中, 采用先前工作普遍采用的评价框架.如文献[12]所述, 随机选择 $p$ 对行人图像对作为测试集, 余下的行人图像对作为训练集.测试集由查询集和行人图像库两部分组成.每对行人图像, 随机选择一张图像并入查询集, 另一张则并入行人图像库.当给定一个行人再识别算法, 衡量该算法在行人图像库中搜索待查询行人的能力来评测此算法的性能.为了测试算法在只有少量的训练样本时的性能, $p$ 分别取316、432、532进行实验. $p$ 取值越大, 则测试样本越多 (匹配越困难), 训练样本越少 (训练越困难).对于每组实验, 以上产生测试集和训练集的过程重复10次, 10次实验结果的平均值作为本组实验的结果.已有的行人再识别算法大部分采用累积匹配特性 (Cumulative match characteristic, CMC) 曲线评价算法性能.给定一个查询集和行人图像库, 累积匹配特征曲线描述的是在行人图像库中搜索待查询的行人, 前 $r$ 个搜索结果中找到待查询人的比率.第1匹配率 ( $r$ =1) 很重要, 因为它表示的是真正的识别能力.但是当 $r$ 取值很小时, 第 $r$ 匹配率也很有现实意义.因为在实际应用中, 反馈的前 $r$ 个搜索结果中, 可以通过人眼判断找到查询目标.
2.2 不同公共实验集上实验对比
本文算法选择在VIPeR[23]数据集、iLIDS[24]数据集、ETHZ[25]数据集和CUHK01[26]数据集上进行实验.
VIPeR数据集中相关行人对来自两个不同的摄像机.相关行人对的外观由于姿态、视角、光照和背景的变化而差异大. iLIDS数据集包含119个行人的476张图像, 每个行人的图像从2张到8张不等. iLIDS数据集是从机场收集的, 数据集有严重遮挡和光照变化的问题. ETHZ数据集包含146个行人的8 555张图像.数据集中的图像来自移动摄像机拍摄的三个视频序列. ETHZ数据集中的图像由同一摄像机拍摄, 则数据集中行人姿态变化和视角变化的程度没有VIPeR数据集那么明显.为了使ETHZ数据集具有挑战性, 实验中相关行人提取两张图像, 一张近景和一张远景.远景图像含有大量无用的背景信息, 使选用的数据集有明显的遮挡情况和光照变化. CUHK01数据集是由两个摄像机在校园环境中拍摄得到, 包含971个行人的3 884张图像.每个行人包含4张图像, 前两张图像是摄像机拍摄的行人前后景图像, 后两张图像是摄像机拍摄的行人侧面图像.每个行人的前两张图像只是姿态上有稍许的变化, 前两张图像与后两张图像在视角上、姿态上差异较大以及有明显的光照变化.实验中, 每个行人前后景图像随机选择一张, 侧面图像随机选择一张, 这样得到的实验集具有显著的视角变化、姿态变化和光照变化.
2.2.1 VIPeR数据集
VIPeR数据集是由632对相关行人对图像组成.如图 2所示, 同一列中的行人图像为同一个人.
为了对比本文算法基于不同核函数的实验效果, 表 1给出了该算法基于不同核函数的实验对比.实验中测试样本集和训练样本集均为316对相关行人图像. VIPeR数据集上的其他实验, 如果没明确表明测试样本集和训练样本集的个数, 都默认有316对相关行人图像.
表 1 本文算法基于不同核函数在VIPeR数据集上的识别率 (%)Table 1 Mathing rates (%) of the proposed algorithm based on different kernel functions on the VIPeR datasetKernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) linear 25.1 53.4 67.3 80.1 $\chi ^{2}$ 38.2 70.0 82.5 91.3 RBF- $\chi ^{2}$ 40.7 72.37 83.95 92.08 从表 1可知, 本文算法基于RBF- $\chi^{2}$ 核函数的效果最优.为了充分体现算法的效果, 在后面的实验效果对比中都是基于RBF- $\chi^{2}$ 核函数.表 2给出了该算法与当前主流算法的效果对比.
表 2 不同算法在VIPeR数据集上的识别率 (%)Table 2 Mathing rates (%) of different methods on the VIPeR datasetMethods Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) PCCA[14] 19.6 51.5 68.2 82.9 LFDA[27] 19.7 46.7 62.1 77.0 SVMML[28] 27.0 60.9 75.4 87.3 KISSME[13] 23.8 54.8 71.0 85.3 文献[12] 29.7 59.8 73.0 84.1 rPCCA[20] 22.0 54.8 71.0 85.3 kLFDA[20] 32.3 65.8 79.7 90.9 MFA[20] 32.2 66.0 79.7 90.6 RDC[29] 15.66 38.42 53.86 70.09 eSDC_knn[10] 26.31 46.61 58.86 72.77 eSDC_ocsvm[10] 26.74 50.70 62.37 76.36 Ours 40.7 72.37 83.95 92.08 从表 2可知, 该算法性能有较大的提升, 尤其是Rank1, Rank1比表 2中最好的结果提高了约8 (%).此外, 该算法与表中的PCCA (Pairwise constrained component analysis)、rPCCA、kLFDA (Local Fisher discriminant analysis) 和MFA (Marginal Fisher analysis) 等算法都是基于RBF- $\chi^{2}$ 核函数; 但该算法整体效果明显优于它们.值得一提的是, 对于Rank1, 该算法的效果相对主流的行人再识别算法有了显著的提高.第1匹配率很重要, 因为它表示的是真正的识别能力.行人再识别技术一个典型的应用是刑事侦查; 若Rank1越高, 则在刑事侦查中, 搜集与嫌疑人有关的线索的效率就会提高.
为了充分说明本文算法的优越性, 表 3给出该算法在仅用HSV (Hue, saturation, value) 特征情况下与其他算法效果对比.
表 3 不同算法在VIPeR数据集上的识别率 (%)Table 3 Mathing rates (%) of different methods on the VIPeR dataset由表 3可知, 该算法虽然只使用了HSV特征, 但是效果比采用多特征的算法 (SDALF (Symmetry-driven accumulation of local features)、PS (Pictorial structures)、RDC (Relative distance comparison) 和KISSME) 更好. KISSME融合了HSV、LAB和LBP等特征, Rank1仅有20 (%); 该算法只用HSV特征, Rank1就达到了28.4 (%).另外, 该算法与同样只使用HSV特征的算法 (如ITML (Information-theoretic metric learning)、Euclidean、NRDV (Nonlinear Ranking with difference vectors) 和KRMCA (Kernelized relaxed Margin components analysis) 等) 相比, 仍然优于它们.其中, ITML和Euclidean算法整体效果都比该算法差. NRDV算法虽然Rank1与该算法相近, 但是Rank10和Rank20较低, 且NRDV算法模型比该算法复杂得多. KRMCA算法效果总体上都不如该算法且KRMCA的代价函数收敛很慢, 算法训练时间很长.
当测试集规模为 $P=432$ 和 $P=532$ 时, 该算法与已有行人再识别算法的性能比较如表 4和表 5.从表中可知, 在只有少量的训练样本情况下, 该算法性能同样优于已有算法.由此可见, 该算法有效解决了学习相似度度量函数中出现的过拟合问题.
表 4 当 $P=432$ , 不同算法在VIPeR数据集上的识别率 (%)Table 4 Mathing rates (%) of different methods at $P=432$ on the VIPeR dataset表 5 当 $P=532$ , 不同算法在VIPeR数据集上的识别率 (%)Table 5 Mathing rates (%) of different methods at $P=532$ on the VIPeR dataset2.2.2 iLIDS数据集
iLIDS数据集中每个行人包含2张到8张照片不等.实验中, 从每个行人所包含的图像中随机取两张作为实验集, 最后得到的实验集为119对相关行人图像.最终实验效果是多次随机取得的实验集效果的平均值.
数据集中的图像尺寸是不尽相同的, 实验中统一把图像的尺寸设置为高128像素, 宽48像素.实验中训练集为59对行人图像, 测试集为60对行人图像.本文算法在iLIDS数据集上与其他算法的效果对比如表 6.
表 6 不同算法在iLIDS数据集上的识别率 (%)Table 6 Mathing rates (%) of different methods on the iLIDS dataset该算法与表 6中基于测度学习的算法PCCA、rPCCA、MFA和kLFDA都是基于RBF- $\chi^{2}$ 核函数.但从表 6可知, 该算法整体性能优于PCCA、rPCCA和MFA等算法; 该算法虽然与kLFDA算法性能接近, 但总体上还是优于kLFDA算法.由此可见, 该算法比使用相同核函数的其他算法效果更好.另外, 该算法整体性能也优于KISSME、SVMML和LFDA算法.
2.2.3 ETHZ数据集
数据集中的图像尺寸是不相同的, 实验中统一把图像尺寸设置为高128像素, 宽48像素.实验中训练集为76对行人图片, 测试集为70对行人图片.表 7分析了本文算法在ETHZ数据集上与其他算法的效果对比.
表 7 不同算法在ETHZ数据集上的识别率 (%)Table 7 Mathing rates (%) of different methods on the ETHZ dataset从表 7可知, 该算法在ETHZ数据集上的整体性能优于同样基于RBF- $\chi^{2}$ 核函数的PCCA、rPCCA、MFA和kLFDA等算法.在ETHZ数据集上, 同样证明了该算法比使用相同核函数的其他算法效果更好.值得一提的是, 该算法的Rank1较于其他算法显著提升了.另外, 该算法整体性能也优于KISSME、SVMML和LFDA算法.
2.2.4 CUHK01数据集
数据集中的图片的尺寸是不相同的, 实验中统一把图片的尺寸设置为高128像素, 宽48像素大小.实验中训练集为486对行人图片, 测试集为485对行人图片.本文算法在CUHK01数据集上与其他算法的效果对比如下表 8.
表 8 不同算法在CUHK01数据集上的识别率 (%)Table 8 Mathing rates (%) of different methods on the CUHK01 datasetMethods Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) KISSME[13] 12.5 31.5 42.5 54.9 PCCA[14] 17.8 42.4 55.9 69.1 LFDA[27] 13.3 31.1 42.2 54.3 SVMML[28] 18.0 42.3 55.4 68.8 rPCCA[20] 21.6 47.4 59.8 72.6 kLFDA[20] 29.1 55.2 66.4 77.3 MFA[20] 29.6 55.8 66.4 77.3 MidLevel[26] 34.30 55.74 64.52 74.97 Ours 36.10 62.68 72.61 81.90 从表 8可知, 该算法在CUHK01数据集上的整体性能同样优于KISSME和SVMML算法以及基于测度学习的算法PCCA、LFDA、rPCCA、MFA和kLFDA.该算法与MidLevel算法效果接近, 但MidLevel算法模型复杂.该算法与其他算法效果对比可知, 该算法可以学习得到具有良好区分性的相似性度量函数.通过在CUHK01数据集上的效果对比, 进一步说明该算法与使用相同核函数的其他算法相比效果更好.
2.3 特征核映射前后算法性能的比较
为了分析特征经过核映射后对算法的影响, 表 9~表 12分别给出在4种数据集上特征经过核映射前后算法效果的对比实验.
表 9 特征核映射前后在VIPeR实验集上的对比效果Table 9 Performance comparison between before and after the kernel map on the VIPeR datasetKernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 25.66 53.43 67.4 80.5 After 40.7 72.37 83.95 92.08 表 10 特征核映射前后在iLIDS实验集上的对比效果Table 10 Performance comparison between before and after the kernel map on the iLIDS datasetKernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 30.4 56.4 67.4 78.3 After 38.3 66.5 79.0 88.3 表 11 特征核映射前后在ETHZ实验集上的对比效果Table 11 Performance comparison between before and after the kernel map on the ETHZ datasetKernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 57.0 72.97 81.5 90.4 After 61.09 74.77 81.96 91.76 表 12 特征核映射前后在CUHK01实验集上的对比效果Table 12 Performance comparison between before and after the kernel map on the CUHK01 datasetKernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 17.92 38.10 48.0 58.84 After 36.10 62.68 72.61 81.90 通过在4个公共数据集上实验对比可知, 特征经过核映射后算法效果在VIPeR、iLIDS和CUHK01数据集上整体上都得到了显著的提升, 在ETHZ数据集上虽然提高不明显, 但还是优于已有算法.总的来说, 该算法在特征经过核映射后, 学习得到的相似度度量函数更具有区分性, 能够得到较好的识别效果.
2.4 权值 ${\boldsymbol a}$ 取值不同时算法的性能比较
为了分析权值 $a$ 对算法性能的影响, 图 3~图 6分别给出在4种数据集上不同的权值 $a$ 下, 本文算法性能的对比实验.
本文算法学习得到的相似度函数为
$ \begin{align*} S=aS_{C}+(1-a)S_{T} \end{align*} $
其中, $S_{C}$ 为颜色特征子空间的相似度函数, $S_{T}$ 为LBP特征子空间的相似度函数.权值 $a$ 越大, 代表相似度函数中颜色特征子空间的相似度函数比重越大.
通过在4种数据集上不同的权值 $a$ 下算法性能的对比实验可知, $a$ 取值对算法效果的影响较大.当 $a$ 取值很小时, 算法效果不是很理想, 当 $a$ 增大时, 算法性得到一定程度的提升, 当 $a$ 在0.5~0.7范围内取相应的值时, 算法性能能达到最优, 当 $a$ 继续增大后, 算法性能有一定程度的下降.
3. 结论
已有基于测度学习的行人再识别算法一般是把多特征融合并建立特征模型, 然后基于相应的测度学习算法在原始特征空间学习得到测度矩阵.但是将不同的属性特征融合在一起, 却忽略了不同属性特征之间的差别以及由于原始特征空间的线性不可分, 这样学习得到的测度矩阵不能准确地表示样本之间的相似性与差异性, 从而导致识别效果较差.对此, 本文提出基于多特征子空间与核学习的行人再识别算法.该算法首先将不同特征子空间投影到可分性好的核空间; 其次, 在不同核空间中学习得到测度矩阵和相应的相似性函数; 最后, 将样本在不同核空间的相似性按照一定的权值结合来表示样本之间最终的相似性.
总的来说, 4个公共数据集里的图像有着光照变化、行人姿态变化、视角变化以及遮挡等情况, 但该算法在4个数据集上的识别效果都比已有算法更好.由此可见, 算法对光照变化、行人姿态变化和视角变化以及遮挡都具有较好的鲁棒性.
基于距离测度学习的行人再识别算法其实就是要寻找一个最优的测度矩阵 $ M$ , 使得同类样本之间的距离尽可能小, 异类样本之间的距离尽可能大.为了得到一个最近似于最优的测度矩阵 $M$ , 下一步可以考虑如何融合不同方法得到的测度矩阵.
-
表 1 本文算法基于不同核函数在VIPeR数据集上的识别率 (%)
Table 1 Mathing rates (%) of the proposed algorithm based on different kernel functions on the VIPeR dataset
Kernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) linear 25.1 53.4 67.3 80.1 $\chi ^{2}$ 38.2 70.0 82.5 91.3 RBF- $\chi ^{2}$ 40.7 72.37 83.95 92.08 表 2 不同算法在VIPeR数据集上的识别率 (%)
Table 2 Mathing rates (%) of different methods on the VIPeR dataset
Methods Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) PCCA[14] 19.6 51.5 68.2 82.9 LFDA[27] 19.7 46.7 62.1 77.0 SVMML[28] 27.0 60.9 75.4 87.3 KISSME[13] 23.8 54.8 71.0 85.3 文献[12] 29.7 59.8 73.0 84.1 rPCCA[20] 22.0 54.8 71.0 85.3 kLFDA[20] 32.3 65.8 79.7 90.9 MFA[20] 32.2 66.0 79.7 90.6 RDC[29] 15.66 38.42 53.86 70.09 eSDC_knn[10] 26.31 46.61 58.86 72.77 eSDC_ocsvm[10] 26.74 50.70 62.37 76.36 Ours 40.7 72.37 83.95 92.08 表 3 不同算法在VIPeR数据集上的识别率 (%)
Table 3 Mathing rates (%) of different methods on the VIPeR dataset
表 4 当 $P=432$ , 不同算法在VIPeR数据集上的识别率 (%)
Table 4 Mathing rates (%) of different methods at $P=432$ on the VIPeR dataset
表 5 当 $P=532$ , 不同算法在VIPeR数据集上的识别率 (%)
Table 5 Mathing rates (%) of different methods at $P=532$ on the VIPeR dataset
表 6 不同算法在iLIDS数据集上的识别率 (%)
Table 6 Mathing rates (%) of different methods on the iLIDS dataset
表 7 不同算法在ETHZ数据集上的识别率 (%)
Table 7 Mathing rates (%) of different methods on the ETHZ dataset
表 8 不同算法在CUHK01数据集上的识别率 (%)
Table 8 Mathing rates (%) of different methods on the CUHK01 dataset
Methods Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) KISSME[13] 12.5 31.5 42.5 54.9 PCCA[14] 17.8 42.4 55.9 69.1 LFDA[27] 13.3 31.1 42.2 54.3 SVMML[28] 18.0 42.3 55.4 68.8 rPCCA[20] 21.6 47.4 59.8 72.6 kLFDA[20] 29.1 55.2 66.4 77.3 MFA[20] 29.6 55.8 66.4 77.3 MidLevel[26] 34.30 55.74 64.52 74.97 Ours 36.10 62.68 72.61 81.90 表 9 特征核映射前后在VIPeR实验集上的对比效果
Table 9 Performance comparison between before and after the kernel map on the VIPeR dataset
Kernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 25.66 53.43 67.4 80.5 After 40.7 72.37 83.95 92.08 表 10 特征核映射前后在iLIDS实验集上的对比效果
Table 10 Performance comparison between before and after the kernel map on the iLIDS dataset
Kernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 30.4 56.4 67.4 78.3 After 38.3 66.5 79.0 88.3 表 11 特征核映射前后在ETHZ实验集上的对比效果
Table 11 Performance comparison between before and after the kernel map on the ETHZ dataset
Kernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 57.0 72.97 81.5 90.4 After 61.09 74.77 81.96 91.76 表 12 特征核映射前后在CUHK01实验集上的对比效果
Table 12 Performance comparison between before and after the kernel map on the CUHK01 dataset
Kernel Rank1 (%) Rank5 (%) Rank10 (%) Rank20 (%) Before 17.92 38.10 48.0 58.84 After 36.10 62.68 72.61 81.90 -
[1] Swain M J, Ballard D H. Indexing via color histograms. In:Proceedings of the 3rd International Conference on Computer Vision. Osaka, Japan:IEEE, 1990. 390-393 [2] Gray D, Brennan S, Tao H. Evaluating appearance models for recognition, reacquisition, and tracking. In:Proceedings of the 2007 IEEE International Workshop on Performance Evaluation of Tracking and Surveillance. Rio de Janeiro, Brazil:IEEE, 2007. 41-47 [3] Farenzena M, Bazzani L, Perina A, Murino V, Cristani M. Person re-identification by symmetry-driven accumulation of local features. In:Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). San Francisco, USA:IEEE, 2010. 2360-2367 [4] Ma B P, Su Y, Jurie F. BiCov:a novel image representation for person re-identification and face verification. In:Proceedings of the 23rd British Machine Vision Conference. Surrey, UK:IEEE, 2012. 1-6 [5] Cheng D S, Cristani M, Stoppa M, Bazzani L, Murino V. Custom pictorial structures for re-identification. In:Proceedings of the 22nd British Machine Vision Conference. Dundee, UK:IEEE, 2011. 749-760 [6] Liu C X, Gong S G, Loy C C, Lin X G. Person re-identification:what features are important? In:Proceedings of the 12th European Conference on Computer Vision. Florence, Italy:IEEE, 2012. 391-401 [7] Wang X G, Doretto G, Sebastian T, Rittscher J, Tu P. Shape and appearance context modeling. In:Proceedings of the 11th International Conference on Computer Vision. Rio de Janeiro, Brazil:IEEE, 2007. 1-8 [8] Li W, Zhao R, Xiao T, Wang X G. DeepReID:deep filter pairing neural network for person re-identification. In:Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, USA:IEEE, 2014. 152-159 [9] Ahmed E, Jones M, Marks T K. An improved deep learning architecture for person re-identification. In:Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA:IEEE, 2015. 3908-3916 [10] Zhao R, Ouyang W L, Wang X G. Unsupervised salience learning for person re-identification. In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, USA:IEEE, 2013. 3586-3593 [11] Zheng W S, Gong S G, Xiang T. Person re-identification by probabilistic relative distance comparison. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, USA:IEEE, 2011. 649-656 [12] 杜宇宁, 艾海舟.基于统计推断的行人再识别算法.电子与信息学报, 2014, 36(7):1612-1618 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201407015.htmDu Yu-Ning, Ai Hai-Zhou. A statistical inference approach for person re-identification. Journal of Electronics and Information Technology, 2014, 36(7):1612-1618 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201407015.htm [13] Kostinger M, Hirzer M, Wohlhart P, Roth P M, Bischof H. Large scale metric learning from equivalence constraints. In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, Rhode island, USA:IEEE, 2012. 2288-2295 [14] Mignon A, Jurie F. Pcca:a new approach for distance learning from sparse pairwise constraints. In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, Rhode island, USA:IEEE, 2012. 2666-2672 [15] Dikmen M, Akbas E, Huang T S, Ahuja N. Pedestrian recognition with a learned metric. In:Proceedings of the 10th Asian Conference on Computer Vision. Queenstown, New Zealand:Springer-Verlag, 2010, 6495:501-512 [16] Hirzer M, Roth P M, Köstinger M, Bischof H. Relaxed pairwise learned metric for person re-identification. In:Proceedings of the 12th European Conference on Computer Vision. Florence, Italy:Springer-Verlag, 2012, 7577:780-793 [17] Prosser B, Zheng W S, Gong S G, Xiang T. Person re-identification by support vector ranking. In:Proceedings of the 22th British Machine Vision Conference (BMVC). Aberystwyth, UK:IEEE, 2010. 1-11 [18] Li W, Zhao R, Wang X G. Human re-identification with transferred metric learning. In:Proceedings of the 11th Asian Conference on Computer Vision. Daejeon, Korea:Springer-Verlag, 2012, 7724:31-44 [19] Loy C C, Liu C X, Gong S G. Person re-identification by manifold ranking. In:Proceedings of the 20th IEEE International Conference on Image Processing (ICIP). Melbourne, VIC, Australia:IEEE, 2013. 3567-3571 [20] Xiong F, Gou M R, Camps O, Sznaier M. Person re-identification using kernel-based metric learning methods. In:Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland:Springer-Verlag, 2014, 8695:1-16 [21] Gevers T, Smeulders A W M. Color-based object recognition. Pattern Recognition, 1999, 32(3):453-464 doi: 10.1016/S0031-3203(98)00036-3 [22] Du Y N, Ai H Z, Lao S H. Evaluation of color spaces for person re-identification. In:Proceedings of the 21st International Conference on Pattern Recognition (ICPR). Tsukuba, Japan:IEEE, 2012. 1371-1374 [23] Gray D, Tao H. Viewpoint invariant pedestrian recognition with an ensemble of localized features. In:Proceedings of the 10th European Conference on Computer Vision. Marseille, France:Springer-Verlag, 2008, 5302:262-275 [24] Zheng W S, Gong S G, Xiang T. Associating groups of people. In:Proceedings of the 20th British Machine Vision Conference (BMVC). London, UK:IEEE, 2009. 1-11 [25] Zhou T F, Qi M B, Jiang J G, Wang X, Hao S J, Jin Y L. Person re-identification based on nonlinear ranking with difference vectors. Information Sciences, 2014, 279:604-614 doi: 10.1016/j.ins.2014.04.014 [26] Zhao R, Ouyang W L, Wang X G. Learning mid-level filters for person re-identification. In:Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, USA:IEEE, 2014. 144-151 [27] Pedagadi S, Orwell J, Velastin S, Boghossian B. Local fisher discriminant analysis for pedestrian re-identification. In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, USA:IEEE, 2013. 3318-3325 [28] Li Z, Chang S Y, Liang F, Huang T S, Cao L L, Smith J R. Learning locally adaptive decision functions for person verification. In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Portland, USA:IEEE, 2013. 3610-3617 [29] Zheng W S, Gong S G, Xiang T. Re-identification by relative distance comparison. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(3):653-668 doi: 10.1109/TPAMI.2012.138 [30] Davis J V, Kulis B, Jain P. Information-theoretic metric learning. In:Proceedings of the 24th International Conference on Machine Learning. Corvallis, USA:IEEE, 2007. 209-216 [31] Liu H, Qi M B, Jiang J G. Kernelized relaxed margin components analysis for person re-identification. IEEE Signal Processing Letters, 2015, 22(7):910-914 doi: 10.1109/LSP.2014.2377204 [32] Weinberger K Q, Saul L K. Distance metric learning for large margin nearest neighbor classification. Journal of Machine Learning Research, 2009, 10(2):207-244 期刊类型引用(29)
1. 梁文琦,王广聪,赖剑煌. 基于多对多生成对抗网络的非对称跨域迁移行人再识别. 自动化学报. 2022(01): 103-120 . 本站查看
2. 赵安新,杨金桥,史新国,刘帅,师文,李学文. 视觉行人重识别研究方法分析及评价指标探讨. 西安科技大学学报. 2022(05): 1003-1012 . 百度学术
3. 邓滔,杨娟,汪荣贵,薛丽霞. 基于增强特征融合网络的行人再识别. 计算机应用研究. 2021(04): 1224-1229 . 百度学术
4. 邹国锋,傅桂霞,高明亮,彭祥,刘征. 行人重识别中度量学习方法研究进展. 控制与决策. 2021(07): 1547-1557 . 百度学术
5. 姚足,龚勋,陈锐,卢奇,罗彬. 面向行人重识别的局部特征研究进展、挑战与展望. 自动化学报. 2021(12): 2742-2760 . 本站查看
6. 孙锐,夏苗苗,陆伟明,张旭东. 联合增强局部最大发生特征和k-KISSME度量学习的行人再识别. 图学学报. 2020(03): 362-371 . 百度学术
7. 徐同文,白宗文,杨延宁. 一种核空间中改进的KISS行人再识别算法. 延安大学学报(自然科学版). 2020(03): 41-45 . 百度学术
8. 花超,王庚润,陈雷. 基于低通滤波模型的行人再识别算法. 计算机应用. 2020(11): 3314-3319 . 百度学术
9. 卢健,陈旭,罗毛欣,王航英. 深度学习行人再识别研究综述. 激光与光电子学进展. 2020(16): 37-54 . 百度学术
10. 朱小波,车进. 基于特征融合与子空间学习的行人重识别算法. 激光与光电子学进展. 2019(02): 156-162 . 百度学术
11. 吴彦丞,陈鸿昶,李邵梅,高超. 基于行人属性先验分布的行人再识别. 自动化学报. 2019(05): 953-964 . 本站查看
12. 朱小波,车进. 融合BOW模型的多特征子空间行人重识别算法. 计算机工程与应用. 2019(18): 146-150 . 百度学术
13. 胡正平,张敏姣,李淑芳,孙德刚. 智能视频监控系统中行人再识别技术研究综述. 燕山大学学报. 2019(05): 377-393 . 百度学术
14. 王飞,张莹,张东波,邵豪,成超鹏. 基于捷径的卷积神经网络在人脸识别中的应用研究. 电子测量与仪器学报. 2018(04): 80-86 . 百度学术
15. 黄新宇,郭纲,许娇龙,姜天娇. 基于增量零空间Foley-Sammon变换的行人重识别. 光电子·激光. 2018(04): 405-410 . 百度学术
16. 晋丽榕,王海梅,徐丹萍. 基于LBP-HSV模型及改进SIFT算法的行人再识别算法. 计算机测量与控制. 2018(05): 144-147 . 百度学术
17. 丁宗元,王洪元. 基于迭代投影向量学习的行人重识别. 计算机工程与设计. 2018(04): 1120-1124 . 百度学术
18. 张娜,张福星,王强,胡玲玲,桂江生. 基于双向关系相似度函数学习的行人再识别. 计算机系统应用. 2018(05): 33-40 . 百度学术
19. 齐美彬,王慈淳,蒋建国,李佶. 多特征融合与交替方向乘子法的行人再识别. 中国图象图形学报. 2018(06): 827-836 . 百度学术
20. 李幼蛟,卓力,张菁,李嘉锋,张辉. 行人再识别技术综述. 自动化学报. 2018(09): 1554-1568 . 本站查看
21. 吴彦丞,陈鸿昶,李邵梅,高超. 基于行人属性异质性的行人再识别神经网络模型. 计算机工程. 2018(10): 196-203 . 百度学术
22. 胡彬,潘雨,丁卫平,邵叶秦,杨铖. 基于迁移学习的行人再识别. 图学学报. 2018(05): 886-891 . 百度学术
23. 陈鸿昶,陈雷,李邵梅,朱俊光. 基于显著度融合的自适应分块行人再识别. 电子与信息学报. 2017(11): 2652-2660 . 百度学术
24. 孙锐,方蔚,黄启恒,高隽. 基于支持样本间接式的行人再识别. 电子与信息学报. 2017(12): 2953-2961 . 百度学术
25. 丁宗元,王洪元,陈付华,倪彤光. 基于距离中心化与投影向量学习的行人重识别. 计算机研究与发展. 2017(08): 1785-1794 . 百度学术
26. 胡彬,邵叶秦. 基于核学习和距离相似度量的行人再识别. 信息与控制. 2017(05): 525-529+542 . 百度学术
27. 孙锐,方蔚,高隽. 暗通道和测度学习的雾天行人再识别. 光电工程. 2016(12): 142-146 . 百度学术
28. 张婷,李玉鑑,胡海鹤,张亚红. 基于跨连卷积神经网络的性别分类模型. 自动化学报. 2016(06): 858-865 . 本站查看
29. 齐美彬,胡龙飞,蒋建国,高灿. 多特征融合与独立测度学习的行人再识别. 中国图象图形学报. 2016(11): 1464-1472 . 百度学术
其他类型引用(78)
-