2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于时空共现模式的视觉行人再识别

钱锦浩 宋展仁 郭春超 赖剑煌 谢晓华

李润梅, 梁秋鸿. 基于区间二型模糊集合的人工交通系统可信度评估. 自动化学报, 2019, 45(10): 1915-1922. doi: 10.16383/j.aas.c180105
引用本文: 钱锦浩, 宋展仁, 郭春超, 赖剑煌, 谢晓华. 基于时空共现模式的视觉行人再识别. 自动化学报, 2022, 48(2): 408−417 doi: 10.16383/j.aas.c200897
LI Run-Mei, LIANG Qiu-Hong. Artificial Traffic System Credibility Evaluation With Interval Type-2 Fuzzy Sets. ACTA AUTOMATICA SINICA, 2019, 45(10): 1915-1922. doi: 10.16383/j.aas.c180105
Citation: Qian Jin-Hao, Song Zhan-Ren, Guo Chun-Chao, Lai Jian-Huang, Xie Xiao-Hua. Visual person re-identification based on spatial and temporal co-occurrence patterns. Acta Automatica Sinica, 2022, 48(2): 408−417 doi: 10.16383/j.aas.c200897

基于时空共现模式的视觉行人再识别

doi: 10.16383/j.aas.c200897
基金项目: 国家自然科学基金 (62072482, 62076258), 广东省信息安全技术重点实验室开放课题基金 (2017B030314131) ,公安部科技强警基础工作专项项目(2019GABJC39)资助
详细信息
    作者简介:

    钱锦浩:中山大学计算机学院硕士研究生. 主要研究方向为行人再识别. E-mail: qianjh6@mail2.sysu.edu.cn

    宋展仁:中山大学计算机学院硕士研究生. 主要研究方向为行人再识别. E-mail: songzr3@mail2.sysu.edu.cn

    郭春超:中山大学计算机学院博士研究生. 主要研究方向为行人再识, 光学字符识别, 广告内容素材理解. E-mail: chunchaoguo@gmail.com

    赖剑煌:中山大学教授. 主要研究方向为计算机视觉与模式识别. E-mail: stsljh@mail.sysu.edu.cn

    谢晓华:中山大学计算机学院副教授. 主要研究方向为计算机视觉与模式识别. 本文通信作者. E-mail: xiexiaoh6@mail.sysu.edu.cn

Visual Person Re-identification Based on Spatial and Temporal Co-occurrence Patterns

Funds: Supported by National Natural Science Foundation of China (62072482, 62076258), the Opening Project of GuangDong Province Key Laboratory of Information Security Technology (2017B030314131) and the Key Laboratory of Video and Image Intelligent Analysis and Applicaiton Technology, Ministry of Public Security, China (2019GABJC39)
More Information
    Author Bio:

    QIAN Jin-Hao Master student at the School of Computer Science and Engineering, Sun Yat-sen University. His main research interest is person re-identification

    SONG Zhan-Ren Master student at the School of Computer Science and Engineering, Sun Yat-sen University. His main research interest is person re-identification

    GUO Chun-Chao Ph. D. candidate at the School of Computer Science and Engineering, Sun Yat-sen University. His research interest covers person re-identification, optical character recognition and advertising content material understanding

    LAI Jian-Huang Professor at Sun Yat-Sen University. His research interest covers computer vision and pattern recognition

    XIE Xiao-Hua Associate professor at the School of Computer Science and Engineering, Sun Yat-sen University. His research interest covers computer vision and pattern recognition. Corresponding author of this paper

  • 摘要: 基于视频图像的视觉行人再识别是指利用计算机视觉技术关联非重叠域摄像头网络下的相同行人, 在视频安防和商业客流分析中具有重要应用. 目前视觉行人再识别技术已经取得了相当不错的进展, 但依旧面临很多挑战, 比如摄像机的拍摄视角不同、遮挡现象和光照变化等所导致的行人表观变化和匹配不准确问题. 为了克服单纯视觉匹配困难问题, 本文提出一种结合行人表观特征跟行人时空共现模式的行人再识别方法. 所提方法利用目标行人的邻域行人分布信息来辅助行人相似度计算, 有效地利用时空上下文信息来加强视觉行人再识别. 在行人再识别两个权威公开数据集Market-1501和DukeMTMC-ReID上的实验验证了所提方法的有效性.
  • 人工交通系统是利用人工社会的基本理论与方法, 通过抽取交通环境中单个个体或局部交通行为的基本属性或动态规律, 基于Agent建模技术, 通过交通系统个体或局部Agent之间相互作用, "涌现(Emergence)"出复杂的交通现象, 这是一个"自下而上"、基于"简单一致原则"人工"培育"出来的交通系统[1-3].人工交通系统可把"仿真"结果作为现实的一个替代版本, 而把实际系统也作为可能出现的现实中的一种, 与仿真结果等价[4-6].

    霍兰指出: "涌现现象是以相互作用为中心的, 它比单个行为的简单累加要复杂得多"[7].对代理、环境及规则上描述的细微差别, 在涌现过程中, 就可能出现"差之毫厘, 谬以千里"的结果, 从而仿真结果失去了对现实的指导意义, 甚至给出完全错误的指导方案.正如社会学家Helmreich所批评的一样:人工社会的模型反映的是其创造者的潜意识中的文化假设和偏见[8].

    如何避免这一问题?在人工交通的建模及平行系统的研究中, 需要引入严密的量化评估体系, 建立系统"可信"或"可用"的数学描述, 并从多维度、多粒度的数据层面进行量化评估, 从理论上保证人工交通系统与现实交通系统在统计特性上、在动态演化规律上、在行为特性上的一致性.本文针对人工交通系统, 基于人工交通系统基本体系结构, 将二型模糊集合方法引入人工交通系统可信度评估中, 建立了一种适用于人工交通系统的可信度评估理论体系与具体评估方法.并利用一个"人工公交交通系统"模型, 进行了可信度评估的数据验证.

    本文结构安排如下.第1节介绍了可信度研究的意义, 对可信度研究方法和成果进行了综述, 并提出了本文的可信度评估框架.第2节为可信度评估使用的核心算法介绍.第3节仿真验证.最后给出结论.

    可信度定义:对于一个事物或现象为真的相信程度.可信度的量化值一般在[0, 1]之间, 值越大, 表示该事物越"真"[9].评估复杂仿真系统可信度的过程称为复杂仿真系统的可信度评估.通过开展复杂仿真系统的可信度评估研究和应用, 可以提高综合仿真系统的仿真结果的正确性, 降低其应用的风险保证仿真系统的质量.可信度评估在交通仿真、网络管理、信息管理、远程通讯以及导弹系统等各个领域都有广泛的应用[10-13].

    文献[12]针对微观交通仿真模型开发者和使用者的不同需求, 研究了交通仿真模型可信度评价内容及其与仿真模型校正、校核、验证和确认的关系; 分析了三种可用于微观交通仿真模型可信度评价的方法:层次分析法、相似度法以及模糊综合评判.文献[14]使用模糊三角函数与层次分析法及网络层次分析法综合评价列车控制仿真系统的可信度, 获取定量的可信度结果.文献[15]在对当前城市交通导航系统的分析中发现, 许多共享交互的弱点会损害系统的可信度.论文提出了改进的交互机制, 以提高导航系统的可信度.在比较用户的研究中评估了所提议的机制, 并给出了确认其可信度的积极影响的结果.

    从应用上分类, 可信度评估方法主要有仿真结果评估与VV & A (Verification, validation and accreditation)两种模式[16-18].基于仿真结果验证的方法主要是应用定性或定量评估方法, 并结合统计学的相关知识, 通过仿真结果与实际或预想结果的比较, 得出仿真可信度评价[16], 是交通仿真系统中主要使用的可信度评估模式.人工交通概念提出以来, 关于其建模方法及应用的研究成果较多, 但可可信度评估的研究相对较少[19]. Li等[20]在前期研究中, 建立了基于二型模糊集合方法的人工交通系统可信度评估体系.

    因为一般现代综合评估方法存在: 1)因评价专家主观上的随机性和不一致性导致问题描述的混乱; 2)隶属度函数及权重难以精确确定; 3)简单的评价结果无法精确地反映评价结果与评价对象内在因素的多维关系等问题[21-22].同时考虑到人工交通系统不依赖精确数学模型、不确定性因素多、输入输出数据随机性强等特点, 本文应用二型模糊集理论, 利用其较强的处理不确定性及随机性的能力来对人工交通系统的可信度做具体的评估研究.建立了以区间二型模糊集合理论为核心数据处理算法的评估方法, 如图 1所示.评估方法的核心由三部分构成:数据处理、区间二型模糊集、Jaccard算法.

    图 1  基于二型模糊集合理论的人工交通系统评估过程
    Fig. 1  Artificial traffic system assessment process based on type-2 fuzzy set theory

    该方法应用可信度概念, 描述将人工交通系统视为交通系统的现实版本的真实程度, 通过评估人工交通系统和实际交通系统输出数据的统计一致性程度, 来评估人工交通系统的可信度.即在一致输入条件下, 输出的统计特性一致.具体思路描述如下:

    1) 将来自于实际交通场景的大量数据进行前期处理, 考虑到交通系统的非严格重复的周期性、随机性和不确定性, 基于置信区间概念, 将其处理为区间化数据:同理, 将相应的人工交通系统的输出数据也做同样的处理.

    2) 区间化数据表达符合对开放复杂系统的输出数据不确定性和波动性的描述, 在剔除了噪声数据的同时, 也完成了二型模糊集建模的输入数据准备.

    3) 应用区间二型模糊集合算法, 将处理后的区间输入进行深度加工, 得到更准确刻画系统特性的两个交通系统(实际交通系统和人工交通系统)的数据集合.

    4) 基于Jaccard算法对二型模糊集输出数据集合进行一致性比较, 通过一致性结果数据, 评价人工交通系统的可信度.

    上述评价方法, 有效地实现了基于Agent建模的复杂系统评估问题.该方法以系统数据为驱动, 不依赖于数学模型, 同时通过数据的波动性描述系统的不确定性特征:应用了二型模糊集处理带有噪声及不确定性数据的优越性能, 保证二次数据的精准性.

    Zadeh[23]在1975年提出了二型模糊集合的概念, 二型模糊集合是传统模糊集合(称为一型模糊集合)的拓展.二型模糊集合由于隶属度本身是不确定的, 可以对不确定的数据进行确定描述, 在处理带有噪声及不确定性数据方面具有优越的性能[24], 这使它用于处理不确定性强、随机性强的交通流数据成为可能. 2017年, 二型模糊集合理论得到了进一步的修正[25].

    定义 1. 设${C}(I)$是由单位区间$I$的全体非空闭子集构成的一个集合.论域$X$上的一个二型模糊集合$\omega $定义为

    $ \omega = \ \{ {{( {x, u, z} )} |}\forall x\in X, \forall u \in {L_x} \in {C}( {{2^I}}) , \nonumber\\ \ {z = \mu _\omega ^2( {x, u} ) \in I} \} $

    (1)

    其中, $x$为主变量, $u$为次变量, $z$为第3变量, ${L_x}$为主隶属度, 由一个多值映射定义而得, 表示为

    $ \mu _\omega ^1:\Omega \to {C}\left( {{2^I}} \right)\\ $

    (2)

    $ x\mapsto L_x $

    (3)

    即$\forall x\in X$, 存在${L_x} \in {C}({{2^I}}) $, 使得$\mu _\omega ^1 (x) = L_x$.

    称$\mu _\omega ^1 (x)$为主隶属度函数, 设$\mu _\omega ^2 (x)$为次隶属度函数, 定义为

    $ \mu _\omega ^2:\bigcup\limits_{x \in X } {x \times {L_x}} \to I\notag \\x\times u \mapsto z $

    (4)

    次隶属度函数可以看成是一个以$\bigcup_{x \in X } {x \times {L_x}}$为论域上的一型模糊集合的隶属函数, 该定义称为二型模糊集合的二段式定义.

    定义 2. 二型模糊集合$\omega$的支集为在$X\times I$中使次隶属度大于0的全体元素构成的集合, 记为$Supp(\omega)$, 即

    $ Supp(\omega)=\left\{( {u, x})|\mu _\omega ^2 (x, u) >0 \right\} $

    (5)

    若$\mu _\omega ^2$为一个连续函数, 则由连续函数的性质, 可记$CoS(\omega)$为支集$Supp(\omega)$的闭包(Closure of support), 表示为

    $ CoS(\omega) = \overline{\left\{( {x, u})|\mu _\omega ^2 (x, u) >0 \right\}} $

    (6)

    如果对$\forall x \in X$, $\forall u \in L_x$, 都有$\mu^2_\omega(x, u)=1$, 则称$\omega$为一个区间二型模糊集合.

    城市交通环境因其开放性、不确定性和随机性较强, 导致交通数据具有不确定性和随机性特征, 但同时, 城市交通环境作为一个大惯性系统, 其数据的非严格重复性又使其具有较好的统计特征.

    图 2以24小时交通流量数据为例, 刻画了多天交通流量的分布及区间化描述.在某一给定时刻, 区间的最大和最小值表明了该时刻交通流量可能的变化范围.

    图 2  24小时交通流量的区间化描述
    Fig. 2  The interval description of 24 hours traffic flow

    交通流量的区间化描述方式不仅能够给出交通流量丰富的分布信息, 并可以用构造内嵌一型模糊集合, 以作为二型模糊集的源数据.

    本文引入置信区间的概念, 应用中心极限定理, 将交通流数据由点值数据转化为区间描述[26].

    置信区间是指由样本统计量所构造的总体参数的估计区间:

    设$\theta $是总体的一个参数, 该参数空间为$\Theta $, ${x_1}$, 是来自该总体的样本, $n$为样本量.对于给定的一个$\alpha$ $(0<\alpha<1)$, 若有两个统计量: ${\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{\theta } _L}={\mathord{\buildrel{\lower3pt\hbox{}} \over\theta } _L}({x_1}, {x_2}, \cdots, {x_n})$和, 对任意的$\theta\in\Theta$, 有${P_\theta }({{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{\theta } }_L}\le\theta\le {{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{\theta } }_H})\ge 1 - \alpha $.称随机区间为$\theta $的置信水平为$1-\alpha $的置信区间.

    构造未知参数$\theta $的置信区间最常用的方法是轴枢量法.考虑到对于非正态分布的随机序列总体, 一般难以求出其总体的轴枢量, 因此利用中心极限定理将其近似分布转化为正态分布, 从而求得参数的置信区间估计[27].

    勒维-林德伯格定理如下:

    设${x_1}, {x_2}, \cdots, {x_n}$为相互独立同分布的随机序列, 且$E\left({{x_i}} \right) = \mu $, $D\left({{x_i}} \right) = {\sigma ^2} > 0$, $i = 1, 2, 3, \cdots, $则服从正态分布, 即.

    针对这样一个正态分布, 可按照式(7)构造轴枢量

    $ G = G\left( {{x_1}, {x_2}, \cdots , {x_n}, \mu } \right) = \frac{{\bar x - \mu }}{{\frac{\sigma }{\sqrt n} }} \sim \rm N \left( {0, 1}\right) $

    (7)

    经过不等式变形, 方差${\sigma ^2}$已知条件下, 期望$\mu $的置信区间为

    $ \left( {\bar x - {\mu _{\frac{\alpha }{2}}}\frac{\sigma }{{\sqrt n }}, \bar x + {u_{\frac{\alpha }{2}}}\frac{\sigma }{{\sqrt n }}} \right) $

    (8)

    这是一个以样本均值$\overline x $为中心, 半径为${\mu _{\frac{\alpha }{2}}}\frac{\sigma }{{\sqrt n }}$的对称区间.之所以取${\mu _{\frac{\alpha }{2}}}$, 是因为$\frac{\alpha }{2}$分位点很好地处理了置信区间区间可靠性和精度的关系.

    Jaccard算法是由Jaccard在1908年提出的, 用于对两个集合的相似度进行比较[28].其中被广泛使用的参数为Jaccard相似系数(Jaccard similarity coefficient), 用于比较有限样本集之间的相似性与差异性, Jaccard相似系数越大, 样本相似度越高.

    从20世纪初到现在, Jaccard算法已经在生物学、经济和社会研究领域中被广泛运用并取得了较好的效果. Bell等[29]在评估植物图像分割的子集匹配时采用了Jaccard算法, 对分割图像和地面实际图像这两个像素集合进行相似度的计算. Rinartha等[30]在文章搜索中运用Jaccard相似度对关键词的处理时间和搜索文章的结果精确性进行了比较分析.结果发现Jaccard相似性查询建议将产生更加准确的搜索结果.研究表明, Jaccard相似度的平均绝对误差(Mean absolute error, MAE)相较于皮尔逊相关系数法、对数似然值相似度和余弦相似度等误差较低, 且算法简单, 运算速度快.在通常情况下, Jaccard系数值越大, 样本相似度越高, 本文采用Wu等[31]提出的针对二型模糊集合Jaccard算法, 如式(9)所示.

    $ s{m_J} \left( {\tilde A, \tilde B} \right) =\notag\\ {\frac{ \sum\limits_{i = 1}^N {\min ( {{{\bar \mu }_{\tilde A}}( {{x_i}} ), {{\bar \mu }_{\tilde B}}( {{x_i}} )} )}+ \sum\limits_{i = 1}^N {\min ( {{{\underline{\mu } }_{\tilde A}}( {{x_i}} ), {\underline{\mu } }_{\tilde B}( {{x_i}} )} )} }{ \sum\limits_{i = 1}^N {\max ( {{{\bar \mu }_{\tilde A}}( {{x_i}} ), {{\bar \mu }_{\tilde B}}( {{x_i}} )} )} + \sum\limits_{i = 1}^N {\max ( {{{\underline{\mu } }_{\tilde A}}( {{x_i}} ), {\underline{\mu } }_{\tilde B}( {{x_i}} )} )} }} $

    (9)

    本文选择北京海淀区某道路为典型建模场景进行可信度实验研究, 该路段双向2车道, 包含三个公交车站、两个定时控制的信号灯路口和3条公交线路, 全长约为1.4公里.

    研究者以2015年3月至4月中旬的每周二、周三、周四共计六周18天, 在每一天的上午8点到下午8点进行数据调研, 以调研数据作为人工交通系统的数据来源.包括双方向车流量、车辆类型、多点车辆速度等.因为在该场景中, 有比较繁忙的公交线路, 公交线路的参与者又受到周边环境的影响, 具有复杂系统典型性数据特征.因此本文特别对参与公共交通运输的数据:包括上下车乘客数、公交车到、发站时间等也进行了数据调研, 完成了该典型交通场景的人工交通系统建模的数据准备.并选取随机性较强、对公共交通调度规划具有重要影响的乘客上车人数作为人工交通系统可信度评估参数, 进行可信度验证.该路段上三个公交车站在调研时段的乘客等车调研数据如表 1所示(实际系统).限于篇幅, 关于人工交通建模的研究内容将在另文进行阐述.

    表 1  三个公交车站上车人数的实际调研数据和人工交通系统运行数据
    Table 1  The actual data and simulation data of people get on the three bus stops
    时段 实际系统第1站 仿真系统第1站 实际系统第2站 仿真系统第2站 仿真系统第3站 实际系统第3站
    3:00 $\sim$ 3:05 9 13 8 15 4 5
    3:06 $\sim$ 3:10 10 15 10 13 0 1
    3:11 $\sim$ 3:15 14 9 5 8 3 3
    3:16 $\sim$ 3:20 0 25 6 9 1 2
    3:21 $\sim$ 3:25 29 20 16 0 6 3
    3:26 $\sim$ 3:30 25 3 11 19 3 5
    3:31 $\sim$ 3:35 15 17 5 6 4 8
    3:36 $\sim$ 3:40 10 0 7 6 3 2
    3:41 $\sim$ 3:45 15 9 8 0 5 1
    3:46 $\sim$ 3:50 19 15 6 11 1 0
    3:51 $\sim$ 3:55 9 21 10 9 4 4
    3:56 $\sim$ 4:00 19 4 16 18 0 2
    下载: 导出CSV 
    | 显示表格

    搭建的人工交通系统运行界面如图 3所示.根据实际调研数据, 在人工交通系统中设置该路段初始计划乘车人数为50人, 系统将这50个人随机分布在路段的不同地方, 然后各自判断自己离哪个公交车站更近, 从而选择自己的前进方向.多次运行人工交通系统, 得到三个车站等车乘客人数的仿真数据, 其均值也列入表 1 (仿真系统).

    图 3  典型人工公共交通系统模型
    Fig. 3  Typical artificial transit traffic system model

    为了对数据进行统一处理, 把每个参数的输入数据除以一个比例因子进行"归十化"到区间$[0, 1]$.对"归十化"得到的数据进行一型模糊化处理, 由式(8)将交通流数据由点数据转化为区间数据, 表 2展示了区间化数据结果.基于此数据基础, 即可构造内嵌的一型隶属度模糊集.设每一个区间左端点为$b$, 右端点为$c$, 左右端点的中间值为$a$, 本仿真中, 用区间数据构造三角型隶属度函数, 则

    表 2  三个公交车站上车人数模糊化以后的实际数据和仿真数据
    Table 2  The actual data and simulation data after fuzzified of people get on the three bus stops
    时段 实际系统第1站 仿真系统第1站 实际系统第2站 仿真系统第2站 仿真系统第3站 实际系统第3站
    3:00 $\sim$ 3:05 2      4 3      5 3      5 6      8 3      5 4      6
    3:06 $\sim$ 3:10 2      4 4      6 4      6 6      8 0      1 0      2
    3:11 $\sim$ 3:15 3      5 2      4 1      3 3      5 2      4 2      4
    3:16 $\sim$ 3:20 0      1 7      9 2      4 3      5 0      2 1      3
    3:21 $\sim$ 3:25 6      8 6      8 7      9 0      1 5      7 2      4
    3:26 $\sim$ 3:30 6      8 0      2 4      6 5      7 2      4 4      6
    3:31 $\sim$ 3:35 4      6 5      7 1      3 2      4 3      5 7      9
    3:36 $\sim$ 3:40 2      4 0      1 3      5 2      4 2      4 1      3
    3:41 $\sim$ 3:45 4      6 2      4 3      5 0      1 4      6 0      2
    3:46 $\sim$ 3:50 5      7 4      6 2      4 4      6 0      2 0      1
    3:51 $\sim$ 3:55 2      4 6      8 4      6 4      6 3      5 3      5
    3:56 $\sim$ 4:00 5      7 0      2 7      9 8      9 0      1 1      3
    下载: 导出CSV 
    | 显示表格

    $ {\mu _F}\left( x \right) = \begin{cases} \frac{{x - b}}{{a - b}}, &b \leq x \leq a \\ \frac{{c - x}}{{c - a}}, &a < x \leq c \\ 0, &x < b ~\mbox{或}~ x > c \end{cases} $

    (10)

    因此, 每一个区间都对应着一个一型模糊集.运用式(10)进行集合并运算:

    $ {\mu _C}\left( x \right) = \max \left( {{\mu _A}\left( x \right), {\mu _B}\left( x \right)} \right) = {\mu _A}\left( x \right) \cup {\mu _B}\left( x \right) $

    (11)

    其中, ${\mu _A}\left(x \right)$和${\mu _B}\left(x \right)$为一型模糊集合$A$和$B$的隶属度函数, ${\mu _C}\left(x \right)$为集合并运算得到的新集合${ C}$的隶属度函数, 即二型模糊集合$CoS$.本文将某5分钟的前两个时段和本时段及后一个时段共四个时段进行了并运算, 得$CoS$如图 4所示.

    图 4  区间算法一型模糊集合并运算
    Fig. 4  An example of the union of type-1 fuzzy sets

    对实际交通系统和人工交通系统, 研究时间轴为每一天的上午8点到下午8点, 共12个小时.因为按照5分钟进行数据统计, 所以得到144个$CoS$, 限于篇幅, 仅列出一个5分钟数据采样时段, 两个系统的二型模糊集合图例, 结果如图 5所示.

    图 5  三个候车站实际候车乘客数据和对应的人工交通系统候车乘客人数数据的二型模糊集合
    Fig. 5  Two-type fuzzy set of three stations actual data and corresponding simulation data

    经过解模糊化处理, 可以得到两个系统分别由144个重心组成的上限重心和下限重心值构造出来的144个集合, 根据式(9)可计算出两个系统三个站点各144个集合的相似度值, 记为$Jsm(x)$ $(x=1$, $2$, $3)$.

    由式(9)可计算得到人工公共交通系统可信度评估结果:

    第1站的评估结果为$Jsm (1) = 1$

    第2站的评估结果为$Jsm (2) = 1$

    第3站的评估结果为$Jsm (3) = 0.6331$

    整个系统的评估结果为

    $ Jsm = \frac{1}{3}\sum\limits_{x = 1}^3 {Jsm(x) =0.88} $

    针对这一结果, 本文使用克朗巴哈系数(Cronbach$'$s alpha)进行评价, 通常Cronbach系数的值在0和1之间.如果系数不超过0.6, 一般认为内部一致可信度不足:达到0.7 $\sim$ 0.8时表示量表具有相当的可信度, 达到0.8 $\sim$ 0.9时说明量表可信度非常好, 如表 3所示[32].本文所建立的人工交通系统, 以车站候车人数为计算指标, 得到的可信度为0.88, 表明人工交通系统很可信.

    表 3  可信度值与Cronbach系数的关系
    Table 3  The relationship between the value of credibility and Cronbach coefficient
    系统可信程度 Cronbach系数(可信度)
    不可信 $ < 0.3$
    勉强可信 $0.3 \leq\alpha < 0.4$
    可信 $0.4 \leq\alpha < 0.5$
    很可信(最常见) $0.5 \leq\alpha < 0.7$
    很可信(次常见) $0.7 \leq\alpha < 0.9$
    十分可信 $0.9 \leq\alpha$
    下载: 导出CSV 
    | 显示表格

    本文进行了人工交通系统模型可信度评估的研究:针对交通数据的不确定性和随机性特性, 在可可信度评估中引入区间二型模糊集理论, 利用基于统计的数据一致性分析思想, 构建了基于区间二型模糊集方法的人工系统可信度评估方法.本文核心思想是对实际系统和人工系统的输出数据进行了二重处理, 一重处理通过置信区间获取数据的统计特征, 同时区间化得到二重处理的输入数据:二重处理通过二型模糊集方法处理不确定性数据、随机性数据以及噪声数据的能力, 获得更细致刻画系统特性的输出数据集, 通过两个数据集的相似性程度评估系统的可信度.

    本文使用人工交通系统中候车乘客人数这一类易受周边环境影响的数据进行了计算验证, 结果表明了基于区间二型模糊集合的可信度评估方法的有效性和合理性.

    本文的研究过程中还存在着如下一些问题: 1)在建模过程中没有完全提取交通系统的所有参数及特性; 2)在案例研究中, 也只针对公交运行过程中乘客上车人数数据进行评估, 相对单一.后续的研究工作要继续完善人工交通系统模型, 获得更多类型的数据, 通过更多案例研究实现系统的可信度评估.同时, 也将研究如何通过可信度评估过程及结果对人工交通系统建模过程提出优化建议.


  • 1 下载地址:https://github.com/Cysu/open-reid
  • 图  1  行人时空共现模式辅助视觉匹配示意图(每个圆角矩形框代表一个摄像头视域, 虚线框指定目标行人, 其他行人表示目标行人在相应视域内的邻域)

    Fig.  1  Illustration of spatiotemporal co-occurrence pattern aided pedestrian matching (Each rounded rectangle box represents a camera field. The dotted box specifies the target pedestrian, and other pedestrians indicate the target pedestrian's neighborhood in the corresponding view field)

    图  2  超参数对模型性能的影响, 纵坐标为rank-1准确率

    Fig.  2  Influence of hyper-parameters on model performance (rank-1 accuracy)

    表  1  本文方法与主流算法在Market-1501、DukeMTMC-ReID数据集上实验结果比较 (%)

    Table  1  Comparison with state-of-the-arts on Market-1501 and DukeMTMC-ReID data sets (%)

    类型算法Market-1501 DukeMTMC-ReID
    rank-1mAPrank-1mAP
    基于手工特征BoW+kissme[8]44.420.825.112.2
    KLFDA[36]46.5
    Null space[43]55.429.9
    WARCA[44]45.2
    基于姿态估计GLAD[45]89.973.9
    PIE[46]87.76979.862
    PSE[47]78.756
    基于掩模SPReID[48]92.581.3 84.471
    MaskReID[49]9075.378.861.9
    基于局部特征AlignedReID[50]90.677.7 81.267.4
    SCPNet[51]91.275.280.362.6
    PCB[40]93.881.683.369.2
    Pyramid[52]95.788.28979
    Batch dropblock[53]94.58588.775.8
    基于注意力机制MANCS[54]93.182.3 84.971.8
    DuATM[55]91.476.681.262.3
    HA-CNN[56]91.275.780.563.8
    基于GANCamstyle[57]88.168.7 75.353.5
    PN-GAN[58]89.472.673.653.2
    基于全局特征IDE[61]79.559.9
    SVDNet[60]82.362.176.756.8
    CAN[1]84.969.1
    MTMCReID[59]89.575.779.863.4
    本文方法96.289.2 89.280.1
    下载: 导出CSV

    表  2  用不同基准网络模型在数据集Market-1501和DukeMTMC-ReID上的消融实验 (%)

    Table  2  Ablation experiment for proposed method on Market-1501 and DukeMTMC-ReID data set on different baseline network models (%)

    算法
    模型
    Market-1501 DukeMTMC-ReID
    rank-1mAPrank-1mAP
    基准网络模型86.771.7 76.460.9
    基准网络模型+时空共现模式91.376.179.464.2
    基准网络模型(*)94.485.486.675.5
    基准网络模型(*)+时空共现模式方法96.289.289.280.1
    下载: 导出CSV

    表  3  不同行人邻域后处理策略在Market-1501和DukeMTMC-ReID数据集性能比较

    Table  3  Comparison of different post-processing strategies for pedestrian neighborhood on Market-1501 and DukeMTMC-ReID datasets

    后处理
    策略
    mAPrank-1rank-5rank-10
    Market-1501
    非极大值抑制88.896.098.999.4
    行人共现模式方法89.296.299.199.5
    DukeMTMC-ReID
    非极大值抑制79.187.99596.9
    行人共现模式方法80.189.295.497.3
    下载: 导出CSV
  • [1] Liu H, Feng J S, Qi M B, Jiang J G, Yan S C. End-to-end comparative attention networks for person re-identification. IEEE Transactions on Image Processing, 2017, 26(7): 3492-3506 doi: 10.1109/TIP.2017.2700762
    [2] Chen G Y, Lu J W, Yang M, Zhou J. Spatial-temporal attention-aware learning for video-based person re-identification. IEEE Transactions on Image Processing, 28(9), 4192-4205
    [3] Lv J M, Chen W H, Li Q, Yang C. Unsupervised cross-dataset person re-identification by transfer learning of spatial-temporal patterns. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 7948−7956
    [4] Cho Y J, Kim S A, Park J H, Lee K, Yoon K J. Joint person re-identification and camera network topology inference in multiple cameras. Computer Vision and Image Understanding, 2019, 180: 34-46 doi: 10.1016/j.cviu.2019.01.003
    [5] Zheng W S, Gong A G, Xiang T. Associating groups of people. In: Proceedings of the 2009 British Machine Vision Conference. London, UK: BMVA, 2009. 23.1−23.11
    [6] Meng J K, Wu S, Zheng W S. Weakly supervised person re-identification. In: Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA: IEEE, 2019. 760−769
    [7] Wang G R, Wang G C, Zhang X J, Lai J H, Yu Z T, Lin L. Weakly supervised person Re-ID: Differentiable graphical learning and a new benchmark. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(5): 2142-2156 doi: 10.1109/TNNLS.2020.2999517
    [8] Zheng L, Shen L Y, Tian L, Wang S J, Wang J D, Tian Q. Scalable person re-identification: A benchmark. In: Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile: IEEE, 2015. 1116−1124
    [9] Zheng Z D, Zheng L, Yang Y. Unlabeled samples generated by GAN improve the person Re-identification baseline in vitro. In: Proceedings of the 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017. 3774−3782
    [10] Yang Y, Yang J M, Yan J J, Liao S C, Yi D, Li S Z. Salient color names for person re-identification. In: Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014. 536−551
    [11] Fogel I, Sagi D. Gabor filters as texture discriminator. Biological Cybernetics, 1989, 61(2): 103-113
    [12] Ojala T, Pietikainen M, Harwood I. A comparative study of texture measures with classification based on featured distributions. Pattern Recognition, 1996, 29(1): 51-59 doi: 10.1016/0031-3203(95)00067-4
    [13] Schmid C. Constructing models for content-based image retrieval. In: Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Kauai, USA: IEEE, 2001. 39−45
    [14] Dalal N, Triggs B. Histograms of oriented gradients for human detection. In: Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). San Diego, USA: IEEE, 2005. 886−893
    [15] Lowe D G. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 2004, 60(2): 91-110 doi: 10.1023/B:VISI.0000029664.99615.94
    [16] Bay H, Ess A, Tuytelaars T, Van Gool L. Speeded-up robust features (SURF). Computer Vision and Image Understanding, 2008, 110(3): 346-359 doi: 10.1016/j.cviu.2007.09.014
    [17] Lin Y T, Zheng L, Zheng Z D, Wu Y, Hu Z L, Yan C G, Yang Y. Improving person re-identification by attribute and identity learning. Pattern Recognition, 2019, 95: 151-161 doi: 10.1016/j.patcog.2019.06.006
    [18] Li D W, Chen X T, Huang K Q. Multi-attribute learning for pedestrian attribute recognition in surveillance scenarios. In: Proceedings of the 3rd IAPR Asian Conference on Pattern Recognition (ACPR). Kuala Lumpur, Malaysia: IEEE, 2015. 111−115
    [19] Deng Y B, Luo P, Loy C C, Tang X O. Pedestrian attribute recognition at far distance. In: Proceedings of the 22nd ACM International Conference on Multimedia. Orlando, USA: ACM, 2014. 789−792
    [20] Chen H R, Wang Y W, Shi Y M, Yan K, Geng M Y, Tian Y H, et al. Deep transfer learning for person re-identification. In: Proceedings of the 4th IEEE Fourth International Conference on Multimedia Big Data (BigMM). Xi'an, China: IEEE, 2018. 1−5
    [21] Jing X Y, Zhu X K, Wu F, You X G, Liu Q L, Yue D, et al. Super-resolution person re-identification with semi-coupled low-rank discriminant dictionary learning. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA: IEEE, 2015. 695−704
    [22] Ma F, Jing X Y, Zhu X, Tang Z M, Peng Z P. True-color and grayscale video person re-identification. IEEE Transactions on Information Forensics and Security, 2020, 15: 115-129 doi: 10.1109/TIFS.2019.2917160
    [23] Zhu X K, Jing X Y, Wu F, Feng H. Video-based person re-identification by simultaneously learning intra-video and inter-video distance metrics. In: Proceedings of the 25th International Joint Conference on Artificial Intelligence. New York, USA: ACM, 2016. 3552−3558
    [24] Zhang W, He X Y, Yu X D, Lu W Z, Zha Z J, Tian Q. A multi-scale spatial-temporal attention model for person re-identification in videos. IEEE Transactions on Image Processing, 2020, 29: 3365-3373 doi: 10.1109/TIP.2019.2959653
    [25] Wu Y M, El Farouk Bourahla O, Li X, Wu, F, Tian Q, Zhou X. Adaptive graph representation learning for video person re-identification. IEEE Transactions on Image Processing, 2020, 29: 8821-8830 doi: 10.1109/TIP.2020.3001693
    [26] Wang G C, Lai J H, Huang P G, Xie X H. Spatial-temporal person re-identification. In: Proceedings of the 2019 AAAI Conference on Artificial Intelligence. Hawaii, USA: AAAI, 2019. 8933−8940
    [27] Varior R R, Haloi M, Wang G. Gated siamese convolutional neural network architecture for human re-identification. In: Proceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016. 791−808
    [28] Schroff F, Kalenichenko D, Philbin J. FaceNet: A unified embedding for face recognition and clustering. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA: IEEE, 2015. 815−823
    [29] Cheng D, Gong Y H, Zhou S P, Wang J J, Zheng N N. Person re-identification by multi-channel parts-based CNN with improved triplet loss function. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016. 1335−1344
    [30] Hermans A, Beyer L, Leibe B. In defense of the triplet loss for person re-identification [online] available: https://arxiv.org/abs/1703.07737, April 16, 2021
    [31] Zhu X K, Jing X Y, Zhang F, Zhang X Y, You X G, Cui X. Distance learning by mining hard and easy negative samples for person re-identification. Pattern Recognition, 2019, 95: 211-222 doi: 10.1016/j.patcog.2019.06.007
    [32] Chen W H, Chen X T, Zhang J G, Huang K Q. Beyond triplet loss: A deep quadruplet network for person re-identification. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA: IEEE, 2017. 1320−1329
    [33] Xiao Q Q, Luo H, Zhang C. Margin sample mining loss: A deep learning based method for person re-identification [online] available: https://arxiv.org/abs/1710.00478, April 16, 2021
    [34] Fan X, Jiang W, Luo H, Fei M J. SphereReID: Deep hypersphere manifold embedding for person re-identification. Journal of Visual Communication and Image Representation, 2019, 60: 51-58 doi: 10.1016/j.jvcir.2019.01.010
    [35] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016. 770−778
    [36] Karanam S, Gou M R, Wu Z Y, Rates-Borras A, Camps O, Radke R J. A systematic evaluation and benchmark for person re-identification: Features, metrics, and datasets. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 41(3): 523-536 doi: 10.1109/TPAMI.2018.2807450
    [37] Zhong Z, Zheng L, Kang G L, Li S Z, Yang Y. Random erasing data augmentation. In: Proceedings of the 34th AAAI Conference on Artificial Intelligence, AAAI 2020, The 32nd Innovative Applications of Artificial Intelligence Conference, IAAI 2020, The 10th AAAI Symposium on Educational Advances in Artificial Intelligence. New York, USA: AAAI, 2020. 1300113008
    [38] Zheng Z D, Zheng L, Yang Y. A discriminatively learned CNN embedding  for  person reidentification. ACM  Transactions  on Multimedia  Computing, Communications,  and  Applications, 2018, 14(1): 13
    [39] Luo H, Jiang W, Gu Y Z, Liu F X, Liao X Y, Lai S Q, et al. A strong baseline and batch normalization neck for deep person re-identification. IEEE Transactions on Multimedia, 2020, 22(10): 2597-2609 doi: 10.1109/TMM.2019.2958756
    [40] Sun Y F, Zheng L, Yang Y, Tian Q, Wang S J. Beyond part models: Person retrieval with refined part pooling (and a strong convolutional baseline). In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018. 501−518
    [41] Felzenszwalb P F, Girshick R B, McAllester D, Ramanan D. Object detection with discriminatively trained part-based models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9), 1627-1645 doi: 10.1109/TPAMI.2009.167
    [42] Russakovsky O, Deng J, Su H, Krause J, Satheesh S, Ma S A, et al. ImageNet large scale visual recognition challenge. International Journal of Computer Vision, 2015, 115(3): 211-252 doi: 10.1007/s11263-015-0816-y
    [43] Zhang L, Xiang T, Gong S G. Learning a discriminative null space for person re-identification. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016. 1239−1248
    [44] Jose C, Fleuret F. Scalable metric learning via weighted approximate rank component analysis. In: Proceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016. 875−890
    [45] Wei L H, Zhang S L, Yao H T, Gao W, Tian Q. GLAD: Global-local-alignment descriptor for pedestrian retrieval. In: Proceedings of the 25th ACM International Conference on Multimedia. Mountain View, USA: ACM, 2017. 420−428
    [46] Zheng L, Huang Y J, Lu H C, Yang Y. Pose-invariant embedding for deep person re-identification. IEEE Transactions on Image Processing, 2019, 28(9): 4500-4509 doi: 10.1109/TIP.2019.2910414
    [47] Sarfraz M S, Schumann A, Eberle A, Stiefelhagen R. A pose-sensitive embedding for person re-identification with expanded cross neighborhood re-ranking. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 420−429
    [48] Kalayeh M M, Basaran E, Gokmen E, Kamasak M E, Shah M. Human semantic parsing for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 1062−1071
    [49] Qi L, Huo J, Wang L, Shi Y H, Gao Y. A mask based deep ranking neural network for person retrieval. In: Proceedings of the 2019 IEEE International Conference on Multimedia and Expo (ICME). Shanghai, China: IEEE, 2019. 496−501
    [50] Zhang X, Luo H, Fan X, Xiang W L, Sun Y X, Xiao Q Q, et al. AlignedReID: Surpassing human-level performance in person reidentification [online] available: https://arxiv.org/abs/1711.08184, April 16, 2021
    [51] Fan X, Luo H, Zhang X, He L X, Zhang C, Jiang W. SCPNet: Spatial-channel parallelism network for joint holistic and partial person re-identification. In: Proceedings of the 14th Asian Conference on Computer Vision. Perth, Australia: Springer, 2018. 19−34
    [52] Zheng F, Sun X, Jiang X Y, Guo X W, Yu Z Q, Huang F Y. Pyramidal person re-identification via multi-loss dynamic training. In: Proceedings of of the 2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA: IEEE, 2019. 8514−8522
    [53] Dai Z Z, Chen M Q, Gu X D, Zhu S Y, Tan P. Batch DropBlock network for person re-identification and beyond. In: Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea: IEEE, 2019. 3690−3700
    [54] Wang C, Zhang Q, Huang C, Liu W Y, Wang X G. Mancs: A multi-task attentional network with curriculum sampling for person re-identification. In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018. 384−400
    [55] Si J L, Zhang H G, Li C G, Kuen J, Kong X F, Kot A C, et al. Dual attention matching network for context-aware feature sequence based person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 5363−5372
    [56] Li W, Zhu X T, Gong S G. Harmonious attention network for person re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 2285−2294
    [57] Zhong Z, Zheng L, Zheng Z D, Li S Z, Yang Y. CamStyle: A novel data augmentation method for person re-identification. IEEE Transactions on Image Processing, 2019, 28(3): 1176-1190 doi: 10.1109/TIP.2018.2874313
    [58] Qian X L, Fu Y W, Xiang T, Wang W X, Qiu J, Wu Y, et al. Pose-normalized image generation for person re-identification. In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018. 661−678
    [59] Ristani E, Tomasi C. Features for multi-target multi-camera tracking and re-identification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 6036−6046
    [60] Sun Y F, Zheng L, Deng W J, Wang S J. SVDNet for pedestrian retrieval. In: Proceedings of the 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017. 3820−3828
    [61] Gray D, Tao H. Viewpoint invariant pedestrian recognition with an ensemble of localized features. In: Proceedings of the 10th European Conference on Computer Vision. Marseille, France: Springer, 2008. 262−275
  • 期刊类型引用(0)

    其他类型引用(3)

  • 加载中
  • 图(2) / 表(3)
    计量
    • 文章访问数:  1518
    • HTML全文浏览量:  627
    • PDF下载量:  344
    • 被引次数: 3
    出版历程
    • 收稿日期:  2020-10-26
    • 录用日期:  2021-04-16
    • 网络出版日期:  2021-06-08
    • 刊出日期:  2022-02-18

    目录

    /

    返回文章
    返回