2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于直觉模糊集的时域证据组合方法研究

宋亚飞 王晓丹 雷蕾

李贤伟, 高会军. 有限频域分析与设计的广义KYP引理方法综述. 自动化学报, 2016, 42(11): 1605-1619. doi: 10.16383/j.aas.2016.c160303
引用本文: 宋亚飞, 王晓丹, 雷蕾. 基于直觉模糊集的时域证据组合方法研究. 自动化学报, 2016, 42(9): 1322-1338. doi: 10.16383/j.aas.2016.c150829
LI Xian-Wei, GAO Hui-Jun. An Overview of Generalized KYP Lemma Based Methods for FiniteFrequency Analysis and Design. ACTA AUTOMATICA SINICA, 2016, 42(11): 1605-1619. doi: 10.16383/j.aas.2016.c160303
Citation: SONG Ya-Fei, WANG Xiao-Dan, LEI Lei. Combination of Temporal Evidence Sources Based on Intuitionistic Fuzzy Sets. ACTA AUTOMATICA SINICA, 2016, 42(9): 1322-1338. doi: 10.16383/j.aas.2016.c150829

基于直觉模糊集的时域证据组合方法研究

doi: 10.16383/j.aas.2016.c150829
基金项目: 

国家自然科学基金 60975026

国家自然科学基金 61573375

国家自然科学基金 61273275

国家自然科学基金 61503407

详细信息
    作者简介:

    王晓丹 空军工程大学防空反导学院教授.主要研究方向为模式识别,智能信息处理.E-mail:afeu_wang@163.com

    雷蕾 空军工程大学防空反导学院博士研究生.2012年在空军工程大学获硕士学位.主要研究方向为模式识别,智能信息处理.E-mail:wendyandpaopao@163.com

    通讯作者:

    宋亚飞 空军工程大学防空反导学院讲师.2015 年在空军工程大学获博士学位.主要研究方向为模式识别,智能信息处理,证据推理.本文通信作者.E-mail:yafei_song@163.com

Combination of Temporal Evidence Sources Based on Intuitionistic Fuzzy Sets

Funds: 

National Natural Science Foundation of China 60975026

National Natural Science Foundation of China 61573375

National Natural Science Foundation of China 61273275

National Natural Science Foundation of China 61503407

More Information
    Author Bio:

    Professor at the College of Air and Missile Defense, Air Force Engineering University (AFEU). Her research interest covers pattern recognition and intelligent information processing.

    Ph.D. candidate at the College of Air and Missile Defense, Air Force Engineering University (AFEU). She received her master degree from AFEU in 2012. Her research interest covers pattern recognition and intelligent information processing.

    Corresponding author: SONG Ya-Fei Lecturer at the College of Air and Missile Defense, Air Force Engineering University (AFEU). He received his Ph.D. degree from AFEU in 2015. His research interest covers pattern recognition, intelligent information processing, and evidential reasoning. Corresponding author of this paper.
  • 摘要: 证据理论已广泛应用于时空信息融合领域,由于时域信息融合表现出明显的序贯性和动态性,为实现基于证据理论的时域信息融合,有效处理时域冲突信息,结合证据可靠性评估和证据折扣的思想,在直觉模糊框架内提出了一种基于复合可靠度的时域证据组合方法.首先定义一种基于可靠度的直觉模糊数排序方法,在此基础上提出一种基于直觉模糊多属性决策的证据可靠性评估方法;然后,基于此方法对时域信息序列中相邻时间节点的证据可靠性进行评估,得到时域证据的相对可靠性因子;最后,结合由时域证据可靠度衰减模型得到的实时可靠性因子,得到时域证据的复合可靠性因子,再基于证据折扣运算和Dempster证据组合规则提出一种基于复合可靠度的时域证据组合方法.数值算例和仿真表明,该方法具有较强的时间敏感性,充分体现了时域信息融合的动态性特点,可以较好地处理时域证据中的冲突信息,基于该方法构建的融合识别系统具有较强的抗干扰能力.
  • 近年来, 互联网数据呈现爆炸式增长, 特别是每年新增的图像数据以指数级发展, 如何从海量图像数据中快速检索出目标图像成为重要的研究课题.经典的海量图像检索技术主要包含两部分:高效的图像编码技术以及快速的最近邻搜索技术.目前, 国内外众多研究机构已经在海量图像检索相关领域取得了很多重要成果.

    高效的编码方式:面对海量的图像数据, 视觉编码算法精度与效率的均衡是评价其性能的重要指标.词袋模型[1] (Bag of words, BOW)、Fisher向量[2] (Fisher vector, FV)、稀疏编码[3] (Sparse coding, SC)以及局部集聚向量描述[4] (Vector of locally aggregated descriptors, VLAD)等视觉编码框架的提出旨在解决海量图像检索过程中精度与效率均衡的问题.上述算法框架可用于百万量级规模的图像检索, 其中VLAD编码算法通过计算特征描述符与视觉单词的残差来表征图像, 具有良好的检索精度及速度, 特别适用于快速的海量图像检索应用.本文主要结合VLAD编码算法框架进行大规模海量图像检索.

    然而, 传统的VLAD编码算法通过图像特征描述符空间的相似性计算图像相似度, 忽略了图像整体特征在几何空间的相关特性.虽然文献[5-6]提出了几何全校验重排算法, 利用了查询样本与候选样本的空间位置约束信息进行重排, 但算法较为耗时, 只能作用于少量检索结果.然而, 对于海量图像数据, 相关图像可能并不在少量检索结果中, 该几何重排算法精度难以满足要求.弱几何一致性校验[7] (Weak geometry consistency, WGC)的提出解决了几何重排校验无法适用于海量图像的问题, 该算法依据图像整体尺度及角度变化一致的假定筛选特征点, 通过直方图统计加速计算, 实现快速的几何重排.除上述几何重排序的研究工作外, 研究人员也展开对图像编码阶段融合几何信息的研究.文献[8]中, 作者沿用WGC几何变化一致的假定, 提出在特征集聚阶段按照特征角度划分分区, 特征点分区集聚的方法协变局部集聚向量描述符(Covariant vector of locally aggregated descriptors, CVLAD).然而由于图像存在旋转变化, 该算法需要通过穷举法估算查询图像与训练图像的旋转变化, 进而找到不同图像角度分区的对应关系, 算法较为耗时.文献[9]采用单项嵌入方式在特征集聚阶段将特征角度信息融入到图像整体表征中, 并以匹配核的形式重新解释了角度信息对于图像特征匹配的意义.文献[10]利用图像特征角度聚类的思想统一旋转图像的矢量表征, 并采用极坐标对特征角度进行参数化表征, 从而避免CVLAD中角度对应关系的穷举搜索计算.然而上述重排序、特征集聚阶段结合几何信息的工作, 仍然采用传统的K均值聚类算法训练视觉词典, 并未考虑几何信息对视觉词典的影响.因此, 特征编码阶段孤立了特征描述符与特征几何信息的关联性, 也即几何信息没有影响特征编码方式.

    除特征点的几何信息外, 移动硬件传感器数据的融合是近年来海量图像检索领域研究的另一热点.文献[11]提出利用移动设备内置重力传感器信息构建重力对齐的特征描述符(Gravity aligned feature descriptors, GAFD). GAFD算法利用重力方向作为特征点主方向, 节约特征主方向计算时间, 同时提升相似结构特征的匹配性能.文献[12]中作者将GAFD算法用于VLAD编码框架, 其检索精度以及效率有明显提升.然而GAFD是以忽略特征原始梯度主方向为代价换取检索速度以及检索精度的少量提升.特征点梯度主方向对于海量图像检索也具有重要意义.

    快速的最近邻检索:海量图像检索中, 为提高检索效率, 通常采用主成分分析(Principle component analysis, PCA)降低图像表达向量维度[13].然而单纯依靠PCA降维仍不能满足百万量级图像检索对于速度的需求.近年来, 国内外研究人员相继展开对海量图像最近邻搜索问题的研究.

    当前, 主流的最近邻搜索分为两类.一类是线性搜索算法, 算法需要逐次计算查询向量到数据库中每个向量的距离.代表算法是局部敏感哈希(Locality sensitive hashing, LSH)[14], 将向量进行二值编码, 计算向量投影后的汉明距离. LSH主要依据是相似向量在哈希映射后仍以较高概率保持相似.随后, 一些改进算法如谱哈希(Spectral hashing, SH)[15]等算法优化了哈希函数, 谱哈希通过设计高效的特征向量图划分方法实现特征点的最佳哈希编码.另外文献[16]则利用最新的深度学习方法学习紧凑的哈希函数.相比LSH, 该类算法主要利用了样本的分布信息.另一类最近邻搜索算法是非线性搜索方法, 算法无需遍历数据库中的所有向量.该类算法的典型代表有K叉树(K-dimensional tree, K-D tree)[17]以及快速近似最近邻库(Fast library for approximate nearest neighbors, FLANN)[18].

    乘积量化(Product quantization, PQ)[19]是近期提出的一种线性最近邻搜索算法.与LSH等二值编码方法不同, 该算法计算的是向量原始空间的L2距离, 通过对空间的分解优化量化精度, 成为当前海量图像检索中一种有效的压缩方式, 它常用于对图像表达向量PCA降维之后.乘积量化的目标函数可表示为

    $ \begin{array}{l} {\rm{min}}\sum\limits_x {{{\left\| {\boldsymbol{x} - c\left( {i\left( \boldsymbol{x} \right)} \right)} \right\|}^2}} \\ {\rm{s}}.{\rm{t}}.c \in C = {C^1} \times \cdots \times {C^B} \end{array} $

    (1)

    查询向量x的最近邻码字cB个较低维度的子码书分解构成.该方法能够产生大量有效码书并节约内存, 通过子码书量化器的引入能够加速最近邻搜索.然而由于PCA算法自身的问题, 造成奇异值较大的主成分集中于向量的前几维, PQ顺序均匀的子空间划分方法会导致子空间量化误差的不均衡, 显著影响检索精度.文献[20]提出的优化乘积量化(Optimized product quantization, OPQ)算法在一定程度上解决了奇异值分布不均的问题, 但该算法需要引入额外的正交投影矩阵.考虑到上述文献中出现的问题, 兼顾海量图像检索算法的性能与效率.本文设计了一种在特征编码及最近邻查询阶段融合重力信息的海量图像检索算法, 与传统VLAD编码算法相比, 本文主要贡献如下: 1)提出一种融合重力信息的角度编码方法来训练视觉词典, 充分利用相似图像的匹配特征在几何空间以及描述符空间的相关性. 2)提出一种基于角度信息的乘积量化方法用于最近邻检索, 将特征角度分区与乘积量化子分区相结合, 解决传统乘积量化方法中子空间量化误差不均衡的问题. 3)构建了一个包含GPS以及重力信息标注的北京地标建筑(Beijing landmark)数据库, 该数据库可作为后续移动视觉检索工作的基准数据库.本文第1节简单描述了融合重力信息的海量图像检索框架; 第2节介绍了在VLAD编码框架中融合重力信息的角度编码(Oriented coding)方法; 第3节提出基于角度乘积量化(Oriented coding)的最近邻检索并给出具体工作流程; 第4节对文中提出的算法进行实验分析; 最后, 总结全文并提出下一步工作计划.

    融合重力信息的海量图像检索框架如图 1所示, 离线阶段, 数据库图像根据重力信息以及特征角度信息进行分区VLAD量化并在每个子分区构建乘积量化子码书;在线查询阶段, 分区量化后的查询子向量与数据库子向量通过非对称计算得到两者的相似度度量, 具体流程如下:

    图 1  融合重力信息和特征角度信息的海量图像检索框架
    Fig. 1  The framework of large-scale image retrieval based on a fusion of gravity aware orientation information

    离线阶段:

    1)角度编码:数据库图像根据重力信息以及特征角度进行特征分区;

    2) VLAD量化qc:对训练图像角度子分区进行码书映射及残差计算;

    3)角度乘积量化qp:各角度分区VLAD子向量进行PCA降维以及子码书量化.

    在线阶段:

    1)角度编码:查询图像x根据重力信息以及特征角度进行特征分区;

    2) VLAD量化qc:对查询图像角度子分区进行码书映射及残差计算;

    3) PCA降维:各角度分区VLAD子向量降至同数据库图像相同维度;

    4)非对称计算:计算查询子向量到训练图像子向量对应子码书中心的距离:

    $ \sum\limits_{i = 1}^{i = B} {d\left( {{q_{ci}}\left( \boldsymbol{x} \right),{q_{pi}}\left( {{q_{ci}}\left( {{\boldsymbol{y}_i}} \right)} \right)} \right)} $

    (2)

    5)选择K近邻结果进行真实欧氏距离重排序, 排序后的结果即为检索结果.

    本文基于文献[7-10]的工作基础之上, 将几何信息用于视觉词典的训练, 在特征编码阶段, 经重力旋转后具有相似角度的特征点被分区量化, 获得的图像向量表达融合了特征点的描述符以及角度两方面信息.角度乘积量化算法对每个角度子分区进行单独编码量化, 通过查询子向量与角度分区子码书的非对称计算取代查询向量与数据库向量的直接距离计算, 在保证查询精度的前提下大大降低了计算量.

    假定图像I提取n个尺度不变特征变换算法(Scale invariant feature transfarm, SIFT)[5]或者SURF (Speeded up robust features)[21]特征I={t1, t2, · · ·, tn}, 每个特征包含描述符Des、特征角度β以及尺度信息s, 即ti=(Des, β, s). BOW、VLAD等传统图像编码算法假定落在同一视觉单词上描述符相似的特征即为匹配特征:

    $ \begin{array}{l} {\rm{if}}\left\| {De{s_1} - De{s_2}} \right\| < d\\ {\rm{then}}\;{t_1}\;{\rm{and}}\;{t_2}\;{\rm{are}}\;{\rm{matched}} \end{array} $

    (3)

    该假定忽略了每个特征点的上下文几何信息, 因此并不是一个充分条件.

    文献[7]指出, 图像整体的主方向旋转以及特征尺度缩放是一致的, 即相似图像的匹配特征角度变化β1 -β2β以及尺度缩放s1/s2s是定值, 它们满足数学上的线性相关性, 角度以及尺度等几何信息的利用有助于提高图像匹配性能.将几何信息用于BOW、FV、VLAD以及SC等传统图像编码框架, 匹配特征同时满足描述符的相似性以及几何信息的线性相关性, 增加了特征编码的准确性.

    $ \begin{array}{l} {\rm{if}}\left\| {De{s_1} - De{s_2}} \right\| < d\\ {\beta _1} - {\beta _2}{\rm{ = }}\Delta \beta \;{\rm{and}}\;\frac{{{s_1}}}{{{s_2}}} = \Delta s\\ {\rm{then}}\;{t_1}\;{\rm{and}}\;{t_2}\;{\rm{are}}\;{\rm{matched}} \end{array} $

    (4)

    重力传感器已成为当前移动智能硬件的标配, 重力传感器能够记录相机姿态的旋转.由于图像旋转变化的整体性, 特征点主方向的旋转变化Δβ也能够通过重力传感器测得[22].因此, 在词典训练过程中可以充分利用匹配特征主方向的线性相关性.

    在本节中, 我们提出一种融合重力信息的角度编码方法(Oriented coding)来训练具有几何信息的视觉词典, 并将其应用于VLAD检索框架中.

    本节主要介绍融合重力信息的角度编码(Oriented coding)算法, 该方法由重力自适应的特征主方向计算以及角度量化两部分构成.

    1)重力自适应的特征主方向

    图 2反映了在拍摄地标建筑过程中可能发生的相机旋转.地标建筑垂直方向始终与重力方向平行, 因此可以通过图像坐标系中重力方向的变化估算地标建筑的旋转.图 2 (a)中重力方向垂直向下, 设此为基准位置, 图 2 (b)中重力方向相较于图像坐标轴的旋转角度θ可由重力传感器信息Gi测得, 需要特别注意的是图像坐标系与重力坐标系三轴相平行, 但其X轴与Y轴坐标刚相反, 即重力Y轴为图像坐标X轴.

    图 2  不同拍摄角度的地标建筑及对应重力信息
    Fig. 2  The landmark building with different viewing angles and corresponding gravity information

    图 2 (b)中重力传感器信息为Gi=[gx(i), gy(i), gz(i)], 则此时地标建筑旋转角度:

    $ \theta {\rm{ = }}\left\{ \begin{array}{l} \frac{{gy\left( i \right)}}{{\left| {gy\left( i \right)} \right|}} \times \frac{\pi }{2} - \arctan \frac{{gx\left( i \right)}}{{gy\left( i \right)}},\;\;\;\;gy\left( i \right) \ne 0\\ \frac{\pi }{2} - \frac{{gx\left( i \right)}}{{\left| {gx\left( i \right)} \right|}} \times \frac{\pi }{2},\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;gy\left( i \right) = 0 \end{array} \right. $

    (5)

    将地标建筑旋转θ, 即旋转至与图像坐标轴平行位置, 所得图像同图 2 (a)相似.由于图像特征旋转的整体性, 则特征主方向β的旋转为β + θ.经重力信息旋转后, 两张图像对应的匹配特征(t1, t2)角度之间的相互关系可以表示为

    $ \beta \left( {{t_1}} \right) + \theta \left( {{t_1}} \right) = \beta \left( {{t_2}} \right) + \theta \left( {{t_2}} \right) $

    (6)

    θ(t1)与θ(t2)分别是(t1, t2)所在图像的重力方向旋转角度.如果不考虑重力计算旋转角的误差, 则重力旋转后相似图像匹配特征具有相同的主方向.

    2)角度量化考虑到重力传感器精度以及匹配特征的角度计算误差, 本文将旋转后的主方向映射至B个分区, 并建立特征描述符到角度分区的分区索引, O是映射后的分区索引:

    $ O = \left\lfloor {B \times \frac{{\beta + \theta }}{{2{\rm{\pi }}}}} \right\rfloor ,\;\;\;\beta \in \left[ {0,2{\rm{\pi }}} \right) $

    (7)

    通过角度分区映射, 在特征编码阶段, 角度相关的特征点落入相同分区中.如图 3所示, 经过重力信息旋转后, 相似图像的主方向角度分布直方图具有高度相似性.本文在编码过程中综合利用了匹配特征描述符的相似性以及特征主方向的相关性, 训练的视觉词典在几何空间以及描述符空间具有双重区分力.

    图 3  相似图像的主方向角度分布直方图
    Fig. 3  The histogram of angle distribution on similar images

    相比较CVLAD等算法将角度信息用在特征集聚阶段, 文中提出的算法在保持相同维度情况下将角度信息融入到视觉单词中, 增加了视觉单词的区分度, 本文将在后续实验中验证该算法有效性.

    下面将上节提出的Oriented coding方法应用于VLAD检索算法框架中.不失一般性, 本文以文献[4]提出的VLAD算法为例介绍编码过程, 这里没有采用软量化策略[23], 因此编码主要包含两部分:角度编码OC(t)=j, j=1, · · ·, B以及最近邻视觉单词查找NN(t, Cj)=cj, k, k=1, · · ·, K.其中t为输入特征, B, K分别为角度分区数及视觉单词数, Cj代表主方向映射为第j角度分区的视觉词典, cj, kCj中第k视觉单词. xj, k是落在视觉单词cj, k上的所有特征的集聚残差向量和, 也即为图像向量表达x的第j角度分区中第k子向量:

    $ \begin{array}{l} {\boldsymbol{x}_{j,k}} = \sum {\left( {t - {c_{j,k}}} \right)} \\ {\rm{s}}{\rm{.t}}{\rm{.}}t \in \left\{ {\left. t \right|OC\left( t \right) = j \cap NN\left( {t,{\boldsymbol{C}_j}} \right) = {c_{j,k}}} \right\} \end{array} $

    (8)

    通过在特征编码过程中融合特征几何信息, 算法充分利用了匹配特征在描述符以及几何空间的相关性, 并且有助于消除Burstiness[24]现象带来的负面影响.

    图像向量表达维度与海量图像检索速度直接相关.海量图像在线检索时间主要消耗在特征编码以及最近邻检索阶段.假定数据库包含N张图像, 特征描述维度为d, VLAD编码视觉单词个数为K, 角度分区数为B, 则VLAD、CVLAD以及本文提出的Oriented coding算法特征编码时间几乎相同, 而最近邻检索时间分别为O(N × K × d)、O(N × B × B × K × d)以及O(N × B × K × d).

    海量图像检索中, 图像数目N可达百万量级以上, 即使通过PCA将图像整体表征矢量降至D维, 最近邻检索时间复杂度由O(N × B × K × d)降至O(N × D), 速度也通常难以满足快速查询的需求.因此, 本文在传统PCA降维基础上提出基于角度分区的乘积量化方法对检索向量进一步压缩.首先, 通过角度编码算法将图像向量表达分解成若干个子分区, 将每个子分区进行PCA降维; 然后, 在每个分解子分区上进行K均值聚类生成子码书量化器, 构建角度乘积量化方法.该方法采用角度子分区作为乘积量化子分区, 在不额外引入投影矩阵的情况下解决了特征值分布不均的问题.

    假定数据库向量yi=[yi, 1, · · ·, yi, B]由B个角度子分区构成, 其中i=1, · · ·, N, N为数据库图像数目, x=[x1, · · ·, xB]为查询向量.

    离线数据库构建阶段, 首先对角度子分区进行PCA降维:

    $ {\boldsymbol{y}_{i,j}} = {P_j}{\boldsymbol{y}_{i,j}},\;\;\;\;j = 1, \cdots ,B $

    (9)

    然后对降维后的子分区分别进行K均值聚类, 构建B个子分区码书Cpj, j=1, · · ·, B.每个子分区码书包含k*个视觉单词Cpj=[cpj1, · · ·, cpjk*], 总共B × k*个子码书, 分区子码书之间采用笛卡尔积形式组合, 构成(k*)B个大码书.最后对数据库向量进行分区编码, qpj为第j分区量化器, 量化结果为子码书中心索引标号:

    $ \begin{array}{l} {q_p}\left( {{\boldsymbol{y}_i}} \right) = \left[ {{q_{p1}}\left( {{\boldsymbol{y}_{i,1}}} \right), \cdots ,{q_{pB}}\left( {{\boldsymbol{y}_{i,B}}} \right)} \right]\\ {q_{pj}}\left( {{\boldsymbol{y}_{i,j}}} \right) = k\\ {\rm{s}}{\rm{.t}}{\rm{.}}j = 1, \cdots ,B,\;\;\;\;\;k = 1, \cdots ,k* \end{array} $

    (10)

    在线查询阶段, 首先将查询子向量进行PCA降维, 并计算与所在子分区每个码书中心的欧氏距离, 生成B × k*查找表:

    $ \begin{array}{l} d\left( {{x_j},{\boldsymbol{C}_{pj}}} \right) = \left[ {d\left( {{x_j},c_{pj}^1} \right), \cdots ,d\left( {{x_j},c_{pj}^{k*}} \right)} \right]\\ d\left( {{x_j},c_{pj}^k} \right) = \left\| {{x_j} - c_{pj}^k} \right\|_2^2\\ {\rm{s}}{\rm{.t}}{\rm{.}}j = 1, \cdots ,B,\;\;\;\;\;k = 1, \cdots ,k* \end{array} $

    (11)

    然后针对每一数据库向量, 根据离线存储的子码书中心映射索引标号qpj(yi, j)在B × k*查找表中寻找非对称距离:

    $ d\left( {{x_j},{y_{i,j}}} \right) = d\left( {{x_j},C_{pj}^{{q_{pj}}\left( {{y_{i,j}}} \right)}} \right) $

    (12)

    其中, cpjqpj(yi, j)代表第j分区第qpj(yi, j)个码书中心.则查询向量x与数据库向量yi的距离为所有子分区的非对称距离和:

    $ d\left( {x,{y_i}} \right) = \sum\limits_{j = 1}^{j = B} {d\left( {{x_j},{y_{i,j}}} \right)} $

    (12)

    根据非对称计算返回Top K的最近邻距离并进行欧氏距离重排, 最后输出结果即为检索结果.

    算法流程如下:

    算法1.角度乘积量化

    输入.数据库向量以及查询向量.

    输出.查询向量的K最近邻.

    步骤1. PCA降维后的数据库向量子分区分别进行K均值聚类构建子分区码书, 并进行分区编码;

    步骤2.查询子向量PCA降维, 并依次计算与子分区码书中心的距离, 形成B × k*查找表;

    步骤3.通过查找表以及数据库子向量的码书映射情况计算非对称距离;

    步骤4.返回Top K的最近邻距离进行欧氏距离重排.

    若PCA降维后图像整体表征矢量为D维, 则其线性搜索时间复杂度为O(N × D), 而文中提出的角度乘积量化算法的时间复杂度为O(N × B + k* × D), 其中k*为子分区量化器大小, 一般k* « N, 因此角度乘积量化算法大大降低了图像在线查询时间.

    为验证文中提出的Oriented coding方法以及Oriented PQ方法, 本文在自己构建的北京地标建筑(Beijing landmark)图像数据库、Holidays数据库[4]以及SUN397数据库[25]中进行测试. Beijing landmark由课题组使用智能手机在北京周边搜集构建.图像采用自己编写的Android平台拍照应用程序搜集, 在拍照的同时记录GPS以及重力传感器信息.该图像数据库总共包含4 000张地标图像, 每5张图像为一个地标建筑, 分别包含尺度、视角以及旋转等不同变化.数据库中的部分图片如图 4所示. Beijing landmark提供公开下载, 可供后续测试研究(http://pan.baidu.com/s/1c04gdlI).由于每个场景图像数目相同, 本文选择与Zurich以及UKB等标准图像库相类似的评价标准, 取检索到前5张图像中相关图像数目的平均值作为图像检索精度的评价标准, 即为Recall@Top5. Holidays数据库[4]包含1 491张数据库图像以及500张查询图片.本文将图像降采样至最大786 432像素, 采用mAP作为衡量检索精度的标准.考虑到无法获取Holidays数据库的重力信息, 与文献[10]相类似, 本文实验将Holidays数据库图像做人工旋转校正. SUN397包含130 519张各类建筑图像, 本文随机选择其中96 000张图像赋以随机重力信息作为干扰图像, 同Beijing landmark相混合成100 KB大小数据库, 作为海量检索图像数据库.

    图 4  重力信息标注的北京地标建筑数据库
    Fig. 4  Beijing landmarks of gravity information tagging database

    本文实验主要测试文中提出的融合重力信息的Oriented coding方法以及Oriented PQ方法对于海量图像检索性能的影响.考虑到移动端的计算性能以及快速查询要求, 文中采用d=64维SURF特征作为主要特征提取算法, K均值聚类方法作为描述符聚类的主要方法.其中K均值聚类的聚类中心个数设定为K, 特征点进行角度映射的分区数目设置为B.文中将在第4.3节重点讨论这些参数对于检索性能的影响.

    本节主要测试融合重力信息的Oriented coding方法对于海量图像检索精度的影响, 并与VLAD算法[4], 改进的VLAD+算法[26]以及CVLAD[8]进行性能对比.测试数据库为Beijing landmark数据库以及Holidays数据库.

    图 5所示为Beijing landmark数据库下VLAD、VLAD+、CVLAD以及Oriented coding方法检索精度对比.可以看出, 在角度分区B=4, 6, 8的情况下, 文中提出的Oriented coding方法均比VLAD、VLAD+以及CVLAD有较大的精度提升.其中CVLAD检索精度随分区数目增长而提高, 这是由于随着角度分区数目的增加, CVLAD的穷举搜索算法能够更准确地预估图像旋转变化, 因此其检索精度随之提高.但是, 这同样带来了内存以及速度的牺牲.

    图 5  不同编码方法检索精度对比
    Fig. 5  Comparison of retrieval accuracy with different coding method

    与CVLAD不同, 图 5中Oriented coding方法检索精度B=6 > 8 > 4, 图 6具体给出K=16情况下Oriented coding方法随角度分区数目B变化的检索精度变化曲线, 其中B=1代表不分区, 即传统VLAD方法.可以看出, Oriented coding方法在分区数目达到B=6后, 检索精度开始有所下降, 这是由于本文采用重力传感器XY轴计算图像旋转角度, 对图像拍摄时俯仰变化比较敏感.过细角度分区划分会影响到俯仰角较大拍摄图像的特征角度分区, 容易出现错分现象, 导致检索精度下降.因此后续实验中, 无特别说明, 角度分区数目主要设置为B=6进行实验.

    图 6  Oriented coding检索精度与分区数目关系
    Fig. 6  The relationship of oriented coding retrieval accuracy and partition number

    考虑到本文Oriented coding方法相比VLAD、VLAD+以及CVLAD多利用了图像的重力信息, 为公平对比, 本文将重力信息赋予CVLAD算法, 即假定CVLAD也通过重力获取旋转角, 将特征角度用于特征集聚阶段, 无需穷举搜索计算图像旋转角度.本文将CVLAD的重力版本定义为gCVLAD. Oriented coding与gCVLAD方法对比结果如图 7.可以看出本文的方法在相同角度分区数目情况下均优于gCVLAD方法, gCVLAD与Oriented coding相同的是, B=6检索精度最高.

    图 7  Oriented coding与重力版本CVLAD方法检索精度对比
    Fig. 7  Comparison of retrieval accuracy with oriented coding and gCVLAD

    由于重力信息存在计算误差, 下面分别在Rotated Holidays数据库以及原始Holidays数据库中进行对比测试, 这里仅考虑角度编码影响, 剔除重力信息影响.实验中码书大小设置为变化的K, CVLAD以及Oriented coding中角度分区数目B=6.在Rotated Holidays数据库测试中, 由于校正数据库中相似图像匹配特征主方向相同, CVLAD方法无需穷举搜索图像主方向变化.

    表 1所示为Holidays数据库下各方法检索精度对比.可以看出, CVLAD以及Oriented coding方法在校正图像数据库下均具有良好的检索结果, 其中本文提出的Oriented coding方法优于CVLAD, 而VLAD以及VLAD+提升不大, 这验证了正确的角度编码对于检索精度提升的效果.同时, CVLAD和Oriented coding相比无几何信息的VLAD和VLAD+, 随着码书大小K的增加, 检索精度的提升相对较小.

    表 1  Holidays数据库检索精度(mAP)
    Table 1  The retrieval accuracy of Holidays dataset (mAP)
    码书大小 K=8 K=16 K=32 K=64
    Holidays Rotated Holidays Rotated Holidays Rotated Holidays Rotated
    VLAD 0.512 0.515 0.534 0.542 0.551 0.559 0.579 0.587
    VLAD+ 0.560 0.564 0.581 0.586 0.597 0.605 0.613 0.622
    CVLAD 0.658 0.687 0.663 0.694 0.683 0.709 0.697 0.719
    Oriented coding \ 0.709 \ 0.716 \ 0.728 \ 0.736
    下载: 导出CSV 
    | 显示表格

    在时间消耗方面, CVLAD采用穷举遍历法计算图像的旋转, 时间代价为O(N × B × B × K × d).而本文的融合重力信息的Oriented coding方法仅需O(N × B × K × d)时间复杂度, 在B=6的情况下时间节约接近80 %.

    为保证算法性能对比的公平性, 本实验在VLAD、VLAD+、CVLAD以及本文提出的Oriented coding等方法编码后采用PCA降低到相同维度, 然后进行检索精度对比.假定上述编码算法采用的特征描述维度为d, 编码视觉单词个数为K, 角度分区数为B, 则VLAD以及VLAD+图像表达向量维度为K×d, CVLAD以及文中提出的Oriented coding向量维度为B × K × d.本实验对上述编码方法通过PCA将维度降低至同一维度, 比较其检索精度.图 8为分区数目B=6, 词典数目K=16情况下各算法的检索精度比较.实验结果表明, 文中提出的结合重力以及几何信息的Oriented coding编码算法在相同维度下有较大精度优势.而CVLAD在相同维度下相比VLAD+并没有明显的精度优势.另外上述检索算法随着维度增加到一定程度, 检索精度并未继续增长, 甚至部分情况下会发生精度下降的情况.

    图 8  PCA降维后Oriented coding检索算法精度
    Fig. 8  The retrieval accuracy of oriented coding after PCA

    本节主要测试文中提出的Oriented coding最近邻搜索算法的性能, 并将Oriented PQ与Oriented coding相结合, 应用于海量图像检索中.测试数据库由SUN397与Beijing landmark混合构成, 数据库大小为100 KB. PCA降维后图像向量表达维度D=128, 乘积量化子分区数B=8, 子分区聚类词典数目k*=256.

    图 9所示, 文中提出的Oriented PQ方法相比传统的PQ能够提升一定的检索精度, 在100 KB数据库中, 检索精度提升3 %以上, 并且检索精度更加接近直接线性查找算法, 误差在1 %以内.

    图 9  海量图像最近邻检索方法精度对比
    Fig. 9  Comparison of retrieval accuracy with different ANN methods

    表 2所示为海量检索过程中的时间开销.从表 2可见, PQ方法相比PCA降维有较大的检索速度提升.但在较小的10 KB数据库中, 由于子分区中心距离的计算将消耗一定时间O(k* × D), PQ速度提升并不明显.而子分区距离中心计算时间不随图像数目发生变化, 在100 KB数据库中, 影响检索速度的主要因素是特征维度以及图片数目, 此时O(N × B + k* × D) < O(N × D), 随着图片数目的递增, 文中提出的检索算法时间消耗接近于PCA降维的B/D.由于影响PQ速度的关键因素子分区数目相同, 文中提出的Oriented PQ方法与PQ有较为接近的检索速度.

    表 2  海量检索时间消耗(ms)
    Table 2  Time consuming of image retrieval (ms)
    数据库大小 10 KB 100 KB
    PCA 62.1 671.3
    PQ 22.7 104.2
    Oriented PQ 24.3 108.5
    下载: 导出CSV 
    | 显示表格

    稀疏编码是另外一种比较主流的图像检索算法[27-29], 其检索精度与VLAD算法相当, 因此, 本实验测试Oriented coding算法与稀疏编码框架结合的检索精度, 实验结果如图 10所示, 其中“B bins SC with max pooling”代表角度分区数目为B的稀疏编码方法, 每个分区取稀疏系数的最大值, B=1时即为传统的稀疏编码方法.实验结果表明, Oriented coding方法应用于稀疏编码同样能够提升检索精度.然而稀疏编码特征编码阶段较为耗时, 当前还无法应用于实时性要求较高的移动视觉检索系统.

    图 10  基于稀疏编码框架的Oriented coding方法检索精度
    Fig. 10  The retrieval accuracy of oriented coding based on sparse coding framework

    本文研究了海量图像检索过程中利用重力传感器以及特征点角度信息的问题, 提出了一种融合重力信息的Oriented coding以及Oriented PQ快速检索算法.本文搜集了GPS以及重力信息标注的Beijing landmark图像数据库, 可用于后续算法研究.文中提出的融合重力信息的Oriented coding算法综合利用了匹配特征在描述符空间以及几何空间的相关性, Oriented PQ算法在100 KB图像检索中保持较高的检索速度及精度.同时本文提出的Oriented coding算法还存在一些问题, 例如不同角度之间视觉单词的相关性如何消除, 特征尺度信息如何利用, 这些问题的研究有助于进一步降低图像表达向量维度, 本文会在后续研究中继续深入探索这些问题.

  • 图  1  基于复合可靠度的时空证据序贯组合流程

    Fig.  1  The flowchart of spatial-temporal evidence combination based on TEC-CRF

    图  2  基于Dempster组合方法的时域累积融合结果

    Fig.  2  Temporal evidence accumulation results obtained by Dempster's rule

    图  3  基于TEC-CRF方法的时域累积融合结果

    Fig.  3  Temporal evidence accumulation results obtained by TEC-CRF

    图  4  Dempster方法获得的Pignistic概率

    Fig.  4  The Pignistic probability obtained by Dempster's rule

    图  5  TEC-CRF方法获得的Pignistic概率

    Fig.  5  The Pignistic probability obtained by TEC-CRF

    表  1  两种情况下TEC-CRF方法的融合结果

    Table  1  The combination results obtained by TEC-CRF for two cases

    $m_3$ RTRF ${m_{12}}$折扣后的BPA RRF CRF 最终融合结果
    ${m_3}(\{{\theta_1}\})=0.5$ $m_{12}^{{\alpha_1}}(\{{\theta_1}\})=0.2815$ $m_{13}^{{\alpha_1}}(\{{\theta_1}\})=0.4930$
    ${m_3}(\{{\theta_2}\})=0.3$ ${\alpha _1}=0.7408$ $m_{12}^{{\alpha_1}}(\{{\theta_2}\})=0.1630$ $r_1=1$ $c_1=0.7408$ $m_{13}^{{\alpha_1}}(\{{\theta_2}\})=0.2491$
    ${m_3}(\{{\theta_3}\})=0.2$ ${\alpha _2} = 1$ $m_{12}^{{\alpha_1}}(\{{\theta_3}\})=0.1852$ $r_2=0.8785$ $c_2=0.8785$ $m_{13}^{{\alpha_1}}(\{{\theta_3}\})=0.1853$
    ${m_3}(\Theta)=0$ $m_{12}^{{\alpha_1}}(\Theta)=0.4092$ $m_{13}^{{\alpha_1}}(\Theta)=0.0726$
    ${m_3}(\{{\theta_1}\})=0.1$ $m_{12}^{{\alpha_1}}(\{{\theta_1}\})=0.2815$ $m_{13}^{{\alpha_1}}(\{{\theta_1}\})=0.2183$
    ${m_3}(\{{\theta_2}\})=0.15$ ${\alpha _1}=0.7408$ $m_{12}^{{\alpha_1}}(\{{\theta_2}\})=0.1630$ $r_1=1 $ $c_1=0.7408$ $m_{13}^{{\alpha_1}}(\{{\theta_2}\})=0.3540$
    ${m_3}(\{{\theta_3}\})=0.75$ ${\alpha _2} = 1$ $m_{12}^{{\alpha_1}}(\{{\theta_3}\})=0.1630$ $r_2=0.4806$ $c_2=0.4806$ $m_{13}^{{\alpha_1}}(\{{\theta_3}\})=0.1691$
    ${m_3}(\Theta)=0$ $m_{12}^{{\alpha_1}}(\Theta)=0.4092$ $m_{13}^{{\alpha_1}}(\Theta)=0.2586$
    下载: 导出CSV

    表  2  两种情况下Dempster方法的融合结果

    Table  2  The combination results obtained by Dempster's rule for two cases

    $m_3$ $t_{2}$时刻融合结果 $t_{3}$时刻融合结果
    ${m_3}(\{{\theta_1}\})=0.5$ $m_{12}(\{{\theta_1}\})=0$ $m_{13}(\{{\theta_1}\})=0$
    ${m_3}(\{{\theta_2}\})=0.3$ $m_{12}(\{{\theta_2}\})=0.57$ $m_{13}(\{{\theta_2}\})=0.67$
    ${m_3}(\{{\theta_3}\})=0.2$ $m_{12}(\{{\theta_3}\})=0.43$ $m_{13}(\{{\theta_3}\})=0.33$
    ${m_3}(\{{\theta_1}\})=0.1$ $m_{12}(\{{\theta_1}\})=0$ $m_{13}(\{{\theta_1}\})=0$
    ${m_3}(\{{\theta_2}\})=0.15$ $m_{12}(\{{\theta_2}\})=0.57$ $m_{13}(\{{\theta_2}\})=0.87$
    ${m_3}(\{{\theta_3}\})=0.75$ $m_{12}(\{{\theta_3}\})=0.43$ $m_{13}(\{{\theta_3}\})=0.13$
    下载: 导出CSV

    表  3  两种情况下TEC-RTRF方法的融合结果

    Table  3  The combination results obtained by TEC-RTRF for two cases

    $m_3$ $t_{2}$时刻融合结果 $t_{3}$时刻融合结果
    ${m_3}(\{{\theta_1}\})=0.5$ $m_{12}(\{{\theta_1}\})=0$ $m_{13}(\{{\theta_1}\})=0.35$
    ${m_3}(\{{\theta_2}\})=0.3$ $m_{12}(\{{\theta_2}\})=0.71$ $m_{13}(\{{\theta_2}\})=0.44$
    ${m_3}(\{{\theta_3}\})=0.2$ $m_{12}(\{{\theta_3}\})=0.29$ $m_{13}(\{{\theta_3}\})=0.21$
    ${m_3}(\{{\theta_1}\})=0.1$ $m_{12}(\{{\theta_1}\})=0$ $m_{13}(\{{\theta_1}\})=0.05$
    ${m_3}(\{{\theta_2}\})=0.15$ $m_{12}(\{{\theta_2}\})=0.71$ $m_{13}(\{{\theta_2}\})=0.83$
    ${m_3}(\{{\theta_3}\})=0.75$ $m_{12}(\{{\theta_3}\})=0.29$ $m_{13}(\{{\theta_3}\})=0.12$
    下载: 导出CSV

    表  4  各传感器在不同时间节点的识别结果

    Table  4  Recognition results of each sensor at all time nodes

    时间节点(s) BPM $S_{1}$ $S_{2}$ $S_{3}$ $S_{4}$ $S_{5}$ $S_{6}$
    $m(\{{\theta_1}\})$ 0.250 0.300 0.211 0.333 0.629 0.305
    $t_{1}=5$ $m(\{{\theta_2}\})$ 0.299 0.256 0.350 0.273 0.352 0.212
    $m(\{{\theta_3}\})$ 0.451 0.444 0.429 0.394 0.019 0.483
    $m(\{{\theta_1}\})$ 0.440 0.628 0.435 0.348 0.642 0.530
    $t_{2}=8$ $m(\{{\theta_2}\})$ 0.323 0.136 0.325 0.262 0.252 0.118
    $m(\{{\theta_3}\})$ 0.237 0.236 0.240 0.390 0.106 0.352
    $m(\{{\theta_1}\})$ 0.251 0.454 0.269 0.460 0.623 0.124
    $t_{3}=16$ $m(\{{\theta_2}\})$ 0.276 0.236 0.336 0.215 0.142 0.420
    $m(\{{\theta_3}\})$ 0.473 0.310 0.395 0.325 0.235 0.456
    $m(\{{\theta_1}\})$ 0.337 0.318 0.262 0.246 0.435 0.312
    $t_{4}=23$ $m(\{{\theta_2}\})$ 0.303 0.269 0.203 0.262 0.259 0.342
    $m(\{{\theta_3}\})$ 0.360 0.413 0.535 0.492 0.306 0.346
    $m(\{{\theta_1}\})$ 0.336 0.346 0.241 0.368 0.330 0.303
    $t_{5}=26$ $m(\{{\theta_2}\})$ 0.312 0.305 0.258 0.262 0.301 0.391
    $m(\{{\theta_3}\})$ 0.352 0.349 0.501 0.370 0.369 0.306
    下载: 导出CSV

    表  5  运用Dempster组合规则获得的空域融合结果

    Table  5  Spatial evidence combination results obtained by Dempster's rule

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.5529 0.2850 0.1621
    $t_{2}=8$ 0.9489 0.0077 0.0134
    $t_{3}=16$ 0.3216 0.0829 0.5955
    $t_{4}=23$ 0.1715 0.0703 0.7582
    $t_{5}=26$ 0.2365 0.1737 0.5898
    下载: 导出CSV

    表  6  运用EC-CF方法获得的空域融合结果

    Table  6  Spatial evidence combination results obtained by EC-CF

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.2322 0.1299 0.6379
    $t_{2}=8$ 0.9509 0.0189 0.0302
    $t_{3}=16$ 0.4425 0.0993 0.5482
    $t_{4}=23$ 0.1951 0.0920 0.7129
    $t_{5}=26$ 0.2546 0.1956 0.5498
    下载: 导出CSV

    表  7  运用Dempster组合规则获得的时域累积融合结果

    Table  7  Spatial evidence combination results obtained by Dempster's rule

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.2322 0.1299 0.6379
    $t_{2}=8$ 0.9105 0.0101 0.0794
    $t_{3}=16$ 0.9151 0.0023 0.0827
    $t_{4}=23$ 0.7512 0.0009 0.2480
    $t_{5}=26$ 0.5835 0.0005 0.4160
    下载: 导出CSV

    表  8  运用TEC-CRF方法获得的时域累积融合结果

    Table  8  Temporal evidence accumulation results obtained by TEC-CRF

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$ $m(\Theta)$
    $t_{1}=5$ 0.2322 0.1299 0.6379 0
    $t_{2}=8$ 0.9414 0.0168 0.0418 0.1247
    $t_{3}=16$ 0.6570 0.0360 0.1466 0.1633
    $t_{4}=23$ 0.4241 0.0445 0.3610 0.1704
    $t_{5}=26$ 0.2903 0.1275 0.5823 0
    下载: 导出CSV

    表  9  各传感器在$t_{1}$和$t_{2}$时刻的识别结果

    Table  9  Recognition results of each sensor at $t_{1}$ and $t_{2}$

    时间节点(s) BPM $S_{1}$ $S_{2}$ $S_{3}$ $S_{4}$ $S_{5}$ $S_{6}$
    $m(\{{\theta_1}\})$ 0.440 0.628 0.435 0.348 0.642 0.530
    $t_{1}=5$ $m(\{{\theta_2}\})$ 0.323 0.136 0.325 0.262 0.252 0.118
    $m(\{{\theta_3}\})$ 0.237 0.236 0.240 0.390 0.106 0.352
    $m(\{{\theta_1}\})$ 0.250 0.300 0.211 0.333 0.629 0.305
    $t_{2}=8$ $m(\{{\theta_2}\})$ 0.299 0.256 0.350 0.273 0.352 0.212
    $m(\{{\theta_3}\})$ 0.451 0.444 0.429 0.394 0.019 0.483
    下载: 导出CSV

    表  10  基于Dempster方法的空域融合结果

    Table  10  Spatial evidence combination results based on Dempster's rule

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.9789 0.0077 0.0134
    $t_{2}=8$ 0.5529 0.2850 0.1621
    $t_{3}=16$ 0.3216 0.0829 0.5955
    $t_{4}=23$ 0.1715 0.0703 0.7582
    $t_{5}=26$ 0.2365 0.1737 0.5898
    下载: 导出CSV

    表  11  基于EC-CF方法的空域融合结果

    Table  11  Spatial evidence combination results based on EC-CF

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.9509 0.0189 0.0302
    $t_{2}=8$ 0.2322 0.1299 0.6379
    $t_{3}=16$ 0.4425 0.0993 0.5482
    $t_{4}=23$ 0.1951 0.0920 0.7129
    $t_{5}=26$ 0.2546 0.1956 0.5498
    下载: 导出CSV

    表  12  基于Dempster方法的时域累积融合结果

    Table  12  Temporal evidence combination results based on Dempster's rule

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$
    $t_{1}=5$ 0.9509 0.0189 0.0302
    $t_{2}=8$ 0.9105 0.0101 0.0794
    $t_{3}=16$ 0.9151 0.0023 0.0827
    $t_{4}=23$ 0.7512 0.0009 0.2480
    $t_{5}=26$ 0.5835 0.0005 0.4160
    下载: 导出CSV

    表  13  基于TEC-CRF方法的时域累积融合结果

    Table  13  Temporal evidence accumulation results based on TEC-CRF

    时间节点(s) $m({\theta _1})$ $m({\theta _2})$ $m({\theta _3})$ $m(\Theta)$
    $t_{1}=5$ 0.9509 0.0189 0.0302 0
    $t_{2}=8$ 0.5427 0.0751 0.3822 0
    $t_{3}=16$ 0.4300 0.0558 0.3441 0.1701
    $t_{4}=23$ 0.2854 0.0510 0.4868 0.1768
    $t_{5}=26$ 0.2321 0.1158 0.6521 0
    下载: 导出CSV
  • [1] Dempster A P. Upper and lower probabilities induced by a multivalued mapping. The Annals of Mathematical Statistics, 1967, 38(2): 325-339 doi: 10.1214/aoms/1177698950
    [2] Shafer G. A Mathematical Theory of Evidence. Princeton, NJ: Princeton University Press, 1976.
    [3] 潘泉, 于昕, 程咏梅, 张洪才. 信息融合理论的基本方法与进展. 自动化学报, 2003, 29(4): 599-615 http://www.aas.net.cn/CN/abstract/abstract13929.shtml

    Pan Quan, Yu Xin, Cheng Yong-Mei, Zhang Hong-Cai. Essential methods and progress of information fusion theory. Acta Automatica Sinica, 2003, 29(4): 599-615 http://www.aas.net.cn/CN/abstract/abstract13929.shtml
    [4] Zadeh L A. A simple view of the Dempster-Shafer theory of evidence and its implication for the rule of combination. The AI Magazine, 1986, 7(2): 85-90 http://cn.bing.com/academic/profile?id=2292561230&encoded=0&v=paper_preview&mkt=zh-cn
    [5] 杨艺, 韩德强, 韩崇昭. 基于多准则排序融合的证据组合方法. 自动化学报, 2012, 38(5): 823-831 doi: 10.3724/SP.J.1004.2012.00823

    Yang Yi, Han De-Qiang, Han Chong-Zhao. Evidence combination based on multi-criteria rank-level fusion. Acta Automatica Sinica, 2012, 38(5): 823-831 doi: 10.3724/SP.J.1004.2012.00823
    [6] 周哲, 徐晓滨, 文成林, 吕锋. 冲突证据融合的优化方法. 自动化学报, 2012, 38(6): 976-985 doi: 10.3724/SP.J.1004.2012.00976

    Zhou Zhe, Xu Xiao-Bin, Wen Cheng-Lin, Lv Feng. An optimal method for combining conflicting evidences. Acta Automatica Sinica, 2012, 38(6): 976-985 doi: 10.3724/SP.J.1004.2012.00976
    [7] 邓勇, 施文康. 一种改进的证据推理组合规则. 上海交通大学学报, 2003, 37(8): 1275-1278 http://www.cnki.com.cn/Article/CJFDTOTAL-SHJT200308031.htm

    Deng Yong, Shi Wen-Kang. A modified combination rule of evidence theory. Journal of Shanghai Jiaotong University, 2003, 37(8): 1275-1278 http://www.cnki.com.cn/Article/CJFDTOTAL-SHJT200308031.htm
    [8] Murphy C K. Combining belief functions when evidence conflicts. Decision Support Systems, 2000, 29(1): 1-9 doi: 10.1016/S0167-9236(99)00084-6
    [9] Deng Y, Shi W K, Zhu Z F, Liu Q. Combining belief functions based on distance of evidence. Decision Support Systems, 2004, 38(3): 489-493 doi: 10.1016/j.dss.2004.04.015
    [10] 韩德强, 韩崇昭, 邓勇, 杨艺. 基于证据方差的加权证据组合. 电子学报, 2011, 39(3A): 153-157 http://www.cnki.com.cn/Article/CJFDTOTAL-DZXU2011S1028.htm

    Han De-Qiang, Han Chong-Zhao, Deng Yong, Yang Yi. Weighted combination of conflicting evidence based on evidence variance. Acta Electronica Sinica, 2011, 39(3A): 153-157 http://www.cnki.com.cn/Article/CJFDTOTAL-DZXU2011S1028.htm
    [11] Hong L, Lynch A. Recursive temporal-spatial information fusion with applications to target identification. IEEE Transactions on Aerospace and Electronic Systems, 1993, 29(2): 435-445 doi: 10.1109/7.210081
    [12] 洪昭艺, 高勋章, 黎湘. 基于DS理论的混合式时空域信息融合模型. 信号处理, 2011, 27(1): 14-19 http://www.cnki.com.cn/Article/CJFDTOTAL-XXCN201101005.htm

    Hong Zhao-Yi, Gao Xun-Zhang, Li Xiang. Research on temporal-spatial information fusion model based on DS theory. Signal Processing, 2011, 27(1): 14-19 http://www.cnki.com.cn/Article/CJFDTOTAL-XXCN201101005.htm
    [13] 刘永祥, 朱玉鹏, 黎湘, 庄钊文. 导弹防御系统中的目标综合识别模型. 电子与信息学报, 2006, 28(4): 638-642 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX200604014.htm

    Liu Yong-Xiang, Zhu Yu-Peng, Li Xiang, Zhuang Zhao-Wen. Integrated target discrimination model in missile defense system. Journal of Electronics and Information Technology, 2006, 28(4): 638-642 http://www.cnki.com.cn/Article/CJFDTOTAL-DZYX200604014.htm
    [14] 吴俊, 程咏梅, 曲圣杰, 潘泉, 刘准钆. 基于三级信息融合结构的多平台多雷达目标识别算法. 西北工业大学学报, 2012, 30(3): 367-372 http://www.cnki.com.cn/Article/CJFDTOTAL-XBGD201203014.htm

    Wu Jun, Cheng Yong-Mei, Qu Sheng-Jie, Pan Quan, Liu Zhun-Ga. An effective multi-platform multi-radar target identification algorithm based on three level fusion hierarchical structure. Journal of Northwestern Polytechnical University, 2012, 30(3): 367-372 http://www.cnki.com.cn/Article/CJFDTOTAL-XBGD201203014.htm
    [15] Daniel M. Probabilistic transformations of belief functions. Symbolic and Quantitative Approaches to Reasoning with Uncertainty. Berlin Heidelberg: Springer, 2005. 539-551
    [16] Smets P, Kennes R. The transferable belief model. Artificial Intelligence, 1994, 66(2): 191-234 doi: 10.1016/0004-3702(94)90026-4
    [17] Zadeh L A. Fuzzy sets. Information and Control, 1965, 8(3): 338-353 doi: 10.1016/S0019-9958(65)90241-X
    [18] Atanassov K T. Intuitionistic furzy sets. Fuzzy Sets and Systems, 1986, 20(1): 87-96 doi: 10.1016/S0165-0114(86)80034-3
    [19] Bustince H, Burillo P. Vague sets are intuitionistic fuzzy sets. Fuzzy Sets and Systems, 1996, 79(3): 403-405 doi: 10.1016/0165-0114(95)00154-9
    [20] Hong D H, Kim C. A note on similarity measures between vague sets and between elements. Information Sciences, 1999, 115(1-4): 83-96 doi: 10.1016/S0020-0255(98)10083-X
    [21] Li J P, Yang Q B, Yang B. Dempster-Shafer theory is a special case of Vague sets theory. In: Proceedings of the 2004 International Conference on Information Acquisition. Hefei, China: IEEE, 2004. 50-53
    [22] Dymova L, Sevastjanov P. An interpretation of intuitionistic fuzzy sets in terms of evidence theory: decision making aspect. Knowledge-Based Systems, 2010, 23(8): 772-782 doi: 10.1016/j.knosys.2010.04.014
    [23] Dymova L, Sevastjanov P. The operations on intuitionistic fuzzy values in the framework of Dempster-Shafer theory. Knowledge-Based Systems, 2012, 35: 132-143 doi: 10.1016/j.knosys.2012.04.026
    [24] Yager R R. An intuitionistic view of the Dempster-Shafer belief structure. Soft Computing, 2014, 18(11): 2091-2099 doi: 10.1007/s00500-014-1320-y
    [25] 邢清华, 刘付显. 直觉模糊集隶属度与非隶属度函数的确定方法. 控制与决策, 2009, 24(3): 393-397 http://www.cnki.com.cn/Article/CJFDTOTAL-KZYC200903014.htm

    Xing Qing-Hua, Liu Fu-Xian. Method of determining membership and nonmembership function in intuitionistic fuzzy sets. Control and Decision, 2009, 24(3): 393-397 http://www.cnki.com.cn/Article/CJFDTOTAL-KZYC200903014.htm
    [26] Guo H, Shi W, Deng Y. Evaluating sensor reliability in classification problems based on evidence theory. IEEE Transactions on Systems, Man, and Cybernetics——Part B: Cybernetics, 2006, 36(5): 970-981 doi: 10.1109/TSMCB.2006.872269
    [27] Elouedi Z, Mellouli K, Smets P. Assessing sensor reliability for multisensor data fusion within the transferable belief model. IEEE Transactions on Systems, Man, and Cybernetics——Part B: Cybernetics, 2004, 34(1): 782-787 doi: 10.1109/TSMCB.2003.817056
    [28] 杨威, 贾宇平, 付耀文. 传感器可靠性相异的信任函数理论融合识别算法研究. 信号处理, 2009, 25(11): 1766-1770 http://www.cnki.com.cn/Article/CJFDTOTAL-XXCN200911020.htm

    Yang Wei, Jia Yu-Ping, Fu Yao-Wen. Research on fusion recognition algorithm for different reliable sensors based on the belief function theory. Signal Processing, 2009, 25(11): 1766-1770 http://www.cnki.com.cn/Article/CJFDTOTAL-XXCN200911020.htm
    [29] 付耀文, 贾宇平, 杨威, 庄钊文. 传感器动态可靠性评估与证据折扣. 系统工程与电子技术, 2012, 34(1): 212-216 http://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201201038.htm

    Fu Yao-Wen, Jia Yu-Ping, Yang Wei, Zhuang Zhao-Wen. Sensor dynamic reliability evaluation and evidence discount. Systems Engineering and Electronics, 2012, 34(1): 212-216 http://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201201038.htm
    [30] Nakahara Y. User oriented ranking criteria and its application to fuzzy mathematical programming problems. Fuzzy Sets and Systems, 1998, 94(3): 275-286 doi: 10.1016/S0165-0114(96)00262-X
    [31] Song Y F, Wang X D, Lei L, Xing Y Q. Credibility decay model in temporal evidence combination. Information Processing Letters, 2015, 115(2): 248-252 doi: 10.1016/j.ipl.2014.09.022
    [32] 宋亚飞, 王晓丹, 雷蕾, 薛爱军. 基于信任度和虚假度的证据组合方法. 通信学报, 2015, 36(5): 2015104-1-2015104-6 http://www.cnki.com.cn/Article/CJFDTOTAL-TXXB201505012.htm

    Song Ya-Fei, Wang Xiao-Dan, Lei Lei, Xue Ai-Jun. Evidence combination based on the degree of credibility and falsity. Journal on Communications, 2015, 36(5): 2015104-1-2015104-6 http://www.cnki.com.cn/Article/CJFDTOTAL-TXXB201505012.htm
  • 期刊类型引用(7)

    1. 安然,陈佳杰,杜潇,张海波,王继强. 基于几何设计法的航空发动机内外机匣减振控制新方法. 南京航空航天大学学报. 2023(04): 622-633 . 百度学术
    2. 汪磊,杨慧中,陶洪峰. 有限频域线性重复过程的动态迭代学习控制. 控制与决策. 2021(03): 599-608 . 百度学术
    3. 李佶桃,王振华,沈毅. 线性离散系统的有限频域集员故障检测观测器设计. 自动化学报. 2020(07): 1531-1538 . 本站查看
    4. 于宁波,邹武林. 有限频域约束下串联弹性驱动器的刚度控制. 控制理论与应用. 2019(05): 711-719 . 百度学术
    5. 栾小丽,万海英,刘飞. 随机多模态系统的有限频段性能研究综述. 安徽大学学报(自然科学版). 2018(02): 23-31 . 百度学术
    6. 苏为洲,闻成. 鲁棒与最优控制在伺服系统中的应用. 控制与决策. 2018(05): 888-905 . 百度学术
    7. 王振华,沈毅. 广义系统的有限频域故障估计器设计. 自动化学报. 2018(03): 545-551 . 本站查看

    其他类型引用(20)

  • 加载中
图(5) / 表(13)
计量
  • 文章访问数:  2796
  • HTML全文浏览量:  221
  • PDF下载量:  1047
  • 被引次数: 27
出版历程
  • 收稿日期:  2015-12-10
  • 录用日期:  2016-02-18
  • 刊出日期:  2016-09-01

目录

/

返回文章
返回