-
摘要: 针对多机动目标追踪问题, 将交互式多模型(Interacting multiple model, IMM)思想与箱粒子标签多伯努利滤波器(Box-labeled multi-bernoulli filter, Box-LMB)相结合, 提出交互式箱粒子标签多伯努利滤波器(IMM-Box-LMB)算法.该算法首先通过扩展多目标状态, 引入模型匹配概率变量, 并利用量测信息在预测阶段更新模型匹配概率, 进而使用交互式多模型算法对每个箱粒子状态进行混合估计.其次, 在更新阶段提出二次收缩算法, 通过二次收缩算法使更新后的箱粒子具有更大的区间和存活概率, 也更加接近真实目标位置, 从而达到提升后续时刻箱粒子多样性的目的.仿真结果表明, 二次收缩算法能够有效地提升箱粒子的多样性.将二次收缩算法应用于IMM-Box-LMB算法, 能够在不同信噪比下稳定准确地估计机动目标的个数.相同条件下, 与匀速直线运动(Constant velocity, CV)模型下的Box-LMB算法相比, IMM-Box-LMB算法能够对多机动目标的数目以及状态进行更加有效的估计.Abstract: For the problem that the multiple maneuvering target tracking, an interacting multiple model box labeled multi-bernoulli (IMM-Box-LMB) filter is proposed. Firstly, by introducing the model matching probability variable, and using the measurement information to update it in the predictive stage of the IMM-Box-LMB filter, the interactive multiple model algorithm is used to estimate the state of each box particle. Secondly, put forward the quadratic contraction algorithm in the update stage of the filter. By using the quadratic contraction algorithm in the update stage of IMM-Box-LMB filter, the box particles will have greater interval and greater probability of survival after update, thus achieving the purpose to improve the diversity of the box particle. Simulation shows that the quadratic contraction algorithm can effectively improve the diversity of the box particle. Through using the quadratic contraction algorithm in the IMM-Box-LMB filter, the number of targets can be estimated stably and accurately under different clutter rates.In the same conditions, compared with the CV-Box-LMB algorithm, the IMM-BOX-LMB algorithm can estimate the cardinality and state of targets more effectively.
-
Key words:
- Multiple maneuvering target tracking /
- interacting multiple model /
- labeled multi-Bernoulli particle filter /
- box particle filter /
- contraction algorithm
-
多目标追踪技术一直是国内外学者研究的热点.传统的基于多假设跟踪[1] (Multiple hypotheses tracking, MHT)和联合概率数据关联[2] (Joint probabilistic data association, JPDA)的多目标追踪方法存在组合爆炸问题, 在对多目标的追踪过程中会产生巨大的计算量.为解决传统多目标追踪过程中数据关联的组合爆炸问题, Mahler在文献[3]中提出了随机有限集(Random finite set, RFS)理论, 并在随机有限集理论的基础上提出了概率假设密度(Probability hypothesis density, PHD)滤波器[4], 势平衡概率假设密度(Cardinality balanced probability hypothesis density, CPHD)滤波器[5], 以及多目标多伯努利(Multi-target multi-Bernoulli, MeMBer)滤波器[6], 为解决MeMBer滤波器过多估计目标个数的问题, Vo等在文献[7]中提出了势平衡多目标多伯努利(Cardinality balanced multi-target multi-Bernoulli, CBMeMBer)滤波器.上述滤波器虽然都能对目标的状态和个数进行有效的追踪, 但却无法对目标的航迹进行有效估计.
2013年, Vo团队将标签引入到随机有限集理论, 定义了标签随机有限集, 之后在文献[8-9]中提出了广义的标签多伯努利(Generalized labeled multi-Bernoulli filter, GLMB)滤波器, GLMB滤波器不仅继承了PHD滤波器, CPHD滤波器, CBMeMBer滤波器等滤波器对目标个数以及状态估计上的优势, 而且能够区分各个目标的航迹, 不足之处是虽然通过各种裁剪手段, 如: K-最短路径法等以减轻运算量, 但在量测数较大时依旧会有十分繁重的运算压力[9].针对此问题, 文献[10]提出了标签多伯努利(LMB)滤波器, 通过LMB滤波和GLMB滤波间的转换关系及航迹分组, 并行计算的方法大大地降低了计算量.近年来, GLMB滤波和LMB滤波引起了国内外学者的广泛关注和研究[11-15].
文献[16]提出了基于序列蒙特卡洛(Sequence Monte Carlo, SMC)和区间分析[17-18]的箱粒子滤波器算法, 以箱粒子取代传统的点粒子方式大大地降低了运算的复杂度, 与点粒子相同的是箱粒子也面临着退化问题, 也需要通过重采样步骤来解决.苗雨等[19]首次将箱粒子滤波与广义标签多伯努利滤波相结合, 提出了箱粒子标签多伯努利(Box-GLMB)滤波器, Box-GLMB滤波器不仅继承了GLMB滤波器对目标状态, 个数以及航迹追踪的优良效果, 也继承了箱粒子滤波器能够提高运算效率的优势.空军工程大学的魏帅等[20]首次将箱粒子滤波与标签多伯努利滤波相结合提出了未知检测概率下基于箱粒子的鲁棒性LMB滤波器.
针对多机动目标追踪问题, 本文在Box-LMB滤波器的基础上, 结合交互式多模型[21-23]的思想, 提出了交互式多模箱粒子标签多伯努利(IMM-Box-LMB)滤波器.在预测阶段对目标状态进行混合估计, 使得在目标发生机动时, 能够对目标的状态进行准确的预测.在更新阶段, 针对箱粒子退化问题, 改进一次收缩算法为二次收缩算法, 并将其应用于IMM-Box-LMB滤波器.仿真实验验证了不同杂波率下IMM-Box-LMB滤波器对于多机动目标跟踪的良好性能.
1. 系统模型
考虑下面系统:
$$ \begin{equation}x_{k}=f(x_{k-1}, v_{k-1})\end{equation} $$ (1) $$ \begin{equation}z_{k}=h(x_{k}, w_{k})\end{equation} $$ (2) 式(1), (2)分别定义状态方程和量测方程(线性或非线性), 其中$x_{k-1}=[x_{k-1}, \widetilde{x}_{k-1}, y_{k-1}, \widetilde{y}_{k-1}]$表示$k-1$时刻的单目标状态, $ (x_{k-1}, y_{k-1})$, $ (\widetilde{x}_{k-1}$, $\widetilde{y}_{k-1})$分别表示目标的位置和速度. $v_{k-1}$表示$k-1$时刻的过程噪声, 过程噪声协方差为$Q_{k-1}$. $w_{k}$表示$k$时刻的量测噪声, 量测噪声协方差为$R_{k}$.
对于多目标追踪问题, $k-1$时刻的状态集合为一个随机有限集(用大写字母$X_{k-1}$表示, $k-1$为时间指标):
$$ \begin{equation}X_{k-1}=\{x_{k-1, 1}, x_{k-1, 2}, \cdots, x_{k-1, n}\}\end{equation} $$ (3) 若单目标状态$x$都有对应的标签$l$, $l$为正整数, 即$l\in\{1, 2, 3, \cdots\}$, 则带标签的单目标状态记为$ (x, l)$. $k-1$时刻多目标状态的集合可表示为定义在${\mathbb{X}}_{0:k-1} \times {\mathbb{L}}_{0:k-1}$上的一个标签随机有限集(用黑体大写字母$\boldsymbol{X}_{k-1}$表示, $k-1$为时间指标):
$$ \begin{equation} {\boldsymbol{X}}_{k-1}=\{({x}_{k-1, 1}, {l}_{1}), ({x}_{k-1, 2}, {l}_{2}), \cdots, ({x}_{k-1, n}, {l}_{n})\} \end{equation} $$ (4) 若当前时刻为$k-1$时刻, $\mathbb{X}_{0:k-1}$表示直到当前时刻所有单目标状态组成的状态空间, ${\mathbb{X}_{0:k-1}}\supset\boldsymbol{X}_{k-1}$, $\mathbb{L}:=\mathbb{L}_{0:k-1}$表示直到当前时刻的所有标签组成的标签空间. $\mathbb{L}_{+}:=\mathbb{L}_{0:k}$表示直到下一时刻所有标签组成的标签空间, $\mathbb{B}$表示下一时刻新生的目标所对应的标签所组成的标签空间, 显然有${{\mathbb{L}}_{+}}=\mathbb{L}\bigcup \mathbb{B}$, 其中$\mathbb{L}$与$\mathbb{B}$互斥, 即$\mathbb{L}\bigcap\mathbb{B}=\emptyset $.
扩展目标状态为$ (x_{k-1, i}, l_{i}, \tilde{p}_{k-1}^{(l_{i})}(x_{i}))$, 则状态集为一个定义在$\mathbb{X}_{0:k-1} \times \mathbb{L}_{0:k-1}$上的具有模型匹配概率变量的标签随机有限集, 记为:
$$ \begin{align} \bar{\boldsymbol{X}}_{k-1}=\, &\{\nonumber(x_{k-1, 1}, l_{1}, \tilde{p}_{k-1}^{(l_{1})}(x_{1})), \\ &(x_{k-1, 2}, l_{2}, \tilde{p}_{k-1}^{(l_{2})}(x_{2})), \cdots, \nonumber\\ &(x_{k-1, n}, l_{n}, \tilde{p}_{k-1}^{(l_{n})}(x_{n}))\} \end{align} $$ (5) 其中$l_{i}\in\mathbb{L}_{0:k-1}$, $\tilde{p}_{k-1}^{(l_{i})}(x_{i})$为$k-1$时刻目标$ (x_{k-1, i}, l_{i})$的单目标初始模型匹配概率.单目标初始模型概率定义为:
$$ \begin{equation}\tilde{p}_{k-1}^{(l)}(x)=[\tilde{p}_{o_{1}}^{k-1, (l)}, {{\tilde{p}}_{o_{2}}^{k-1, (l)}}, \cdots, \tilde{p}_{o_{s}}^{k-1, (l)}]\end{equation} $$ (6) $\tilde{p}_{o_{i}}^{k-1, (l)}$表示$k-1$时刻标签为$l$的目标以模型$o_{i}, \left\{i=1, 2, \cdots, s\right\}$进行状态转移的概率.对于$k-1$时刻标签为$l$的目标与$s$个模型分别对应的模型初始概率$\tilde{p}^{(l)}_{k-1}({x})$是一个$1\times s$的行向量.
模型$o_{i}\in\mathbb{O}=\left\{o_{1}, o_{2}, \cdots, o_{s}\right\}$, $s$个模型变量, $\mathbb{O}$为模型空间.若$o_{i}=o_{j}$, 则表示同一个模型, 否则表示不同的模型.
这里假设目标模型变量的选择满足$o_{i}\in\mathbb{O}$, 目标从$k-1$时刻到$k$时刻的模型转移为马尔科夫过程, 转移概率矩阵定义为:
$$ \begin{equation} T_{mn}=\tilde{P}\{o_{n}|o_{m}\}, \quad m, n\in\{1, 2, \cdots, s\} \end{equation} $$ (7) 则转移概率矩阵为一个$s \times s$的矩阵. $k-1$时刻的多目标量测也是一个随机有限集:
$$ \begin{equation}Z_{k-1}=\left\{z_{1}, z_{2}, \cdots, z_{m}\right\}\end{equation} $$ (8) 其中$z_{i}$可能是由目标产生的量测, 也可能是杂波.
2. 箱粒子滤波
2.1 区间分析
箱粒子滤波是序列蒙特卡洛的方法和区间分析法[17-18]的结合, 箱粒子滤波以多维区间(箱粒子)代替点粒子对目标的后验概率和目标状态进行递归估计.
定义一维闭合区间:
$$ \begin{equation}\nonumber[x_{1}]=[\overline{x_{1}}, \underline{x_{1}}]=\left\{x_{1}\in {\bf R}, \underline{x_{1}}\leq x_{1}\leq \overline{x_{1}}\right\}\end{equation} $$ 其中$\underline{x_{1}}$表示闭合区间$[x_{1}]$的下界, $\overline{x_{1}}$表示闭合区间$[x_{1}]$的上界.
二维闭合区间定义为两个一维闭合区间的笛卡尔积:
$$ \begin{equation}\nonumber \begin{split} [&x_{1}] \times[x_{2}]=[\overline{x_{1}}, \underline{x_{1}}]\times[\overline{x_{2}}, \underline{x_{2}}]=~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\\ &\left\{x_{1}\in {\bf R}, x_{2}\in {\bf R}, \underline{x_{1}}\leq x_{1}\leq \overline{x_{1}}, \underline{x_{2}}\leq x_{2}\leq \overline{x_{2}}\right\} \end{split} \end{equation} $$ $n_{x}$个一维闭合区间的笛卡尔积称为箱, 定义为:
$$ \begin{equation}{[x]}=[x_{1}]\times [x_{2}]\times\cdots\times [x_{n_{x}}]\end{equation} $$ (9) 若以箱$[x]$作为支撑集, 令$U_{[x]}$表示该箱粒子的均匀概率密度函数, 则随机变量$x$的均匀概率密度函数还可表示为[16]:
$$\begin{equation}P(x)=\sum\limits_{i=1}^{N} w^{(i)} U_{[x_{(i)}]}[x]\end{equation} $$ (10) 其中$x^{(i)}$为箱支撑集, $w^{(i)}$为归一化权值, $N$代表不同的"箱"的个数.
2.2 收缩算法
区间收缩是箱粒子滤波中最重要的一步, 通过收缩算法将箱粒子的大小控制在一个合适的范围, 并通过区间收缩求解目标状态更新步所需的似然函数.
区间收缩算法实质上是在约束集中求解满足约束的最小约束集问题[18]:
$$ \begin{equation}\nonumber S=\left\{x_{n_x}\in [x]_{n_{x}} | [f](x_{n_x})=0\right\}\end{equation}%(12) $$ 其中$[f]$为包含函数, $x_{n_{x}}$是$n_{x}$维的状态, $[x]_{n_{x}}$是$n_{x}$维的箱粒子, 实际上是求解满足条件$[f](x_{n_x})=0$的最小的$[x']_{n_{x}}$, 使得$S\subset [x']_{n_{x}}\subset[x]_{n_{x}}$.并将箱粒子$[x]_{n_{x}}$更新为$[x']_{n_{x}}$.
2.3 二次收缩算法
为提高后续时刻对目标进行描述的箱粒子多样性, 本文在收缩算法的基础上提出二次收缩算法.二次收缩算法分三步进行:
1) 原箱粒子$[x]_{n_{x}}$由第2.2节中收缩算法收缩为箱粒子$[x']_{n_{x}}$.
2) 将箱粒子$[x']_{n_{x}}$以其所有维度的中点为中心将其扩张为原箱粒子$[x]_{n_{x}}$大小, 记扩张后的箱粒子为$[\tilde{x'}]_{n_{x}}$, 扩张后的箱粒子$[\tilde{x'}]_{n_{x}}$的第$i$维与原箱粒子$[x]_{n_{x}}$的第$i$维长度相等.
3) 通过第2.2节中的收缩算法求解满足条件$[f](x_{n_{x}})=0$的最小的$[x'']_{n_{x}}$, 使得$S\subset [x'']_{n_{x}} \subset [\tilde{x'}]_{n_{x}}$.并将箱粒子$[\tilde{x'}]_{n_{x}}$更新为$[x'']_{n_{x}}$.
图 1(a)为传统的收缩算法, 图 1(b)为将收缩得到的箱粒子再扩张, 图 1(c)为将收缩再扩张得到的箱粒子再收缩.
以二维箱粒子为例, 若记原箱粒子$[x]_{{n}_{x}}$ ($n_{x}=2$)为图 1(a)区域2, $[h]^{-1}([z])$为图 1(a)区域3, $[h]$为量测函数的包含函数, $[z]$为区间量测, $[h]$满足$[h][h]^{-1}([z])=[z]$, 则二次收缩算法第一步中$[x']_{n_{x}}=[h]^{-1}([z]) \cap [x]_{{n}_{x}}$为图 1(a)中区域1, 即区域2经过收缩算法收缩为区域1, 再将箱粒子$[x']_{n_{x}}$沿其$x$, $y$维扩张为箱粒子$[\tilde{x}'']_{n_{x}}$ (图 1(b)区域4), 扩张后的区域4与区域2大小相同($x$维和$y$维长度相同).在二次收缩算法的第二步再次利用收缩算法将收缩扩张后的箱粒子$[\tilde{x}']_{n_{x}}$ (图 1(b)区域4)收缩为箱粒子$[x'']_{n_{x}}=[h]^{-1}([z]) \cap [\tilde{x'}]_{n_{x}}$ (图 1(c)区域5).那么经过二次收缩算法后, 原箱粒子$[x]_{{n}_{x}}$ (图 1(a)区域2)更新为$[x'']_{n_{x}}$ (图 1(b)区域5).
显然, 通过二次收缩算法得到的箱粒子$[x'']_{n_{x}}$ (图 1(b)区域5), 比经过传统收缩算法得到的箱粒子$[x']_{n_{x}}$ (图 1(a)区域1), 覆盖范围大, 也具有更大的似然度.即拥有更大的权重, 在状态转移过程中, 大权重的箱粒子更容易存活, 即通过二次收缩算法后得到的箱粒子将拥有更大的存活概率.
图 2为传统收缩算法和二次收缩算法箱粒子状态信息更新过程, 图 2(a)到图 2(b)为传统收缩算法下箱粒子状态信息更新过程, 图 2(c)、2(d)到图 2(e)为二次收缩算法下箱粒子状态信息更新过程.
假设不进行箱粒子重采样, 图 2(a)中经传统收缩算法得到的区域1所包含的信息经过状态转移后都落在图 2(b)的区域$1'$内.那么图 1(a)区域1通过箱粒子重采样(随机划分重采样)后, 得到$n$个划分后的箱粒子, $n$个划分后的箱粒子进行状态转移之后必然也包含在图 2(b)区域$1'$, 中, 证明如下:
取箱粒子$[x]$, 记
$$ \begin{equation}\left[ x \right]=\left[ \begin{matrix} \underline x &\overline x \\ \underline {{v}_{x}} &\overline {{v}_{x}} \\ \underline y &\overline y \\ \underline {{v}_{y}} &\overline {{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ (11) 若箱粒子依$x$维随机划分为三个子箱:
$$ \begin{equation} \left[ \begin{matrix} \underline x &\overline x \\ \underline{{v}_{x}} &\overline {{v}_{x}} \\ \underline y & y \\ \underline{{v}_{y}} &\overline {{v}_{y}} \\ \end{matrix} \right]=\left[ \begin{matrix} \underline x &{{x}_{1}} \\ \underline{{v}_{x}} &\overline {{v}_{x}} \\ \underline y &\overline y \\ \underline{{v}_{y}} &\overline {{v}_{y}} \\ \end{matrix} \right]\bigcup \left[ \begin{matrix} {{x}_{1}} &{{x}_{2}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline y &\overline y \\ \underline{{v}_{y}} &\overline {{v}_{y}} \\ \end{matrix} \right]\bigcup \left[ \begin{matrix} {{x}_{2}} & \overline x \\ \underline{{v}_{x}} &\overline {{v}_{x}} \\ \underline y &\overline y \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ (12) 以匀速直线运动模型为例, 如果不进行随机划分重采样, 直接进行状态转移, 则有
$$ \begin{equation}\nonumber\left[ \begin{matrix} \underline x & \overline x \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline y & \overline y \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\Rightarrow \left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} & \overline {x}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ 随机划分重采样后, 再进行状态转移, 有
$$ \begin{equation}\nonumber \left[ \begin{matrix} \underline x & {x_{1}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline y & \overline y \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\Rightarrow \left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} & {x_{1}}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ $$ \begin{equation}\nonumber \left[ \begin{matrix} {x_{1}} & {x_{2}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline y & \overline y \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\Rightarrow \left[ \begin{matrix} {x_{1}}+\underline{{v}_{x}} & {x_{2}}+\overline{{{v}_{x}}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ $$ \begin{equation}\nonumber \left[ \begin{matrix} {x_{2}} & \overline {x} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline y & \overline y \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\Rightarrow \left[ \begin{matrix} {x_{2}}+\underline{{v}_{x}} & \overline {x}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \end{equation} $$ 因为对于同一个箱粒子, 无论是否进行箱粒子重采样, 经过状态转移之后, 除第一维之外其他维相同, 故对第一维进行分析, 显然有:
$$ \begin{equation}\nonumber \left[ \begin{matrix} \underline {x}+\underline {{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right]\supset \left[ \begin{matrix} \underline {x}+\underline {{v}_{x}} & {{x}_{1}}+\overline{{v}_{x}} \\ \end{matrix} \right] \end{equation} $$ $$ \begin{equation}\nonumber \left[ \begin{matrix} \underline {x}+\underline {{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right]\supset \left[ \begin{matrix} {x_{1}}+\underline{{v}_{x}} & {{x}_{2}}+\overline{{v}_{x}} \\ \end{matrix} \right] \end{equation} $$ $$ \begin{equation}\nonumber \left[ \begin{matrix} \underline {x}+\underline{{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right]\supset \left[ \begin{matrix} {x_{2}}+\underline{{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right] \end{equation} $$ 所以:
$$ \begin{align}\nonumber &\left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right]\supset\Bigg\{\left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} &{{x}_{1}}+\overline{{v}_{x}} \\ \end{matrix} \right]\bigcup \nonumber\\&\qquad \left[ \begin{matrix} {{x}_{1}}+\underline{{v}_{x}} & {{x}_{2}}+\overline{{v}_{x}} \\ \end{matrix} \right]\bigcup \left[ \begin{matrix} {{x}_{2}}+\underline{{v}_{x}} & \overline{x}+\overline{{v}_{x}} \\ \end{matrix} \right]\Bigg\}\end{align} $$ (13) 即:
$$ \begin{align}\nonumber&\left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} & \overline {x}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\supset\left[ \begin{matrix} \underline{x}+\underline{{v}_{x}} & {x_{1}}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\bigcup \nonumber\\&\qquad\left[ \begin{matrix} {x_{1}}+\underline{{v}_{x}} & {x_{2}}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right] \bigcup \left[ \begin{matrix} {x_{1}}+\underline{{v}_{x}} & {x_{2}}+\overline{{v}_{x}} \\ \underline{{v}_{x}} & \overline{{v}_{x}} \\ \underline{y}+\underline{{v}_{y}} & \overline{y}+\overline{{v}_{y}} \\ \underline{{v}_{y}} & \overline{{v}_{y}} \\ \end{matrix} \right]\end{align} $$ (14) 若对其他三维中任意一维进行随机划分重采样也可以得到相同的结论, 对于不同状态转移模型同理也可证明.由此可知:假设对于$k-1$时刻更新后的箱粒子1 (图 2(a)区域1), 不进行随机划分重采样直接进行状态转移, 记经过状态转移后得到$k$时刻新的箱粒子$1'$ (图 2(b)区域$1'$), 那么对箱粒子1通过随机划分重采样后得到的所有子箱进行状态转移之后, 得到的$k$时刻的所有新的箱粒子的信息必然是包含于区域$1'$内的.
同样对于二次收缩算法, 若图 2(d)区域5 (大的虚线框与实线矩形区域3的交集)表示$k-1$时刻经过二次收缩算法后得到的箱粒子5, 图 2(e)区域$5'$表示未经过随即划分重采样直接进行状态转移得到的$k$时刻的新的箱粒子$5'$, 那么箱粒子5经过随机划分重采样后再进行状态转移后在$k-1$时刻得到的若干新的箱粒子信息必然也包含在区域$5'.$
假设图 2(b)、2(e)区域6为$k$时刻量测, 显然通过二次收缩算法后, 更可能在$k$时刻与量测有交集, 则在$k$时刻更新之后, $k-1$时刻通过二次收缩算法之后的箱粒子更可能继续存活并对目标进行追踪, 相反, $k-1$时刻通过传统收缩算法后的箱粒子则更容易死亡(似然度为0, 权重为0), 若通过传统收缩算法的箱粒子在$k$时刻死亡, 那么在$k$时刻参与对目标状态估计的所有箱粒子中就不再有这个箱粒子信息存在, 而对于$k-1$时刻同一个箱粒子, 通过二次收缩算法后, 在$k$时刻更容易存活下来, 并参与$k$时刻对目标状态的更新, 即间接地增加了$k$时刻箱粒子的多样性, 而且存活下来的箱粒子也会参与到对$k+1$时刻的状态估计.
3. 标签多伯努利(LMB)滤波
假设当前时刻先验和新生都是标签多伯努利(LMB)形式, 简记为:
$$ \begin{equation}\pi ({\boldsymbol{X}})=\Delta ({\boldsymbol{X}})W(\mathcal{L}({\boldsymbol{X}})){{p}^{\boldsymbol{X}}}\end{equation} $$ (15) $$ \begin{equation}{{\pi }_{B}}({\boldsymbol{X}})=\Delta ({\boldsymbol{X}}){{W}_{B}}(\mathcal{L}({\boldsymbol{X}})){{[{{p}_{B}}]}^{{\boldsymbol{X}}}}\end{equation} $$ (16) 其中$\mathcal{L}$为从$\mathbb{X}\times\mathbb{L}$到标签空间$\mathbb{L}$的映射, 有$\mathcal{L}(x, l)=l$, $\mathcal{L}({\boldsymbol{X}})=\{\mathcal{L}(x, l): (x, l)\in {\boldsymbol{X}}\}$.标签随机有限集$\boldsymbol{X}$中每个目标所携带的标签是唯一的.对于实值函数$p$, 当状态集$\boldsymbol{X}$为$\emptyset$时, 它在状态集$\boldsymbol{X}$上的多目标指数符号为$p^{\emptyset}=1$; 当状态集$\boldsymbol{X}$不为$\emptyset$时, 它在状态集$\boldsymbol{X}$上的多目标指数符号为:
$$\begin{equation}\nonumber p^{\boldsymbol{X}}=\prod\limits_{(x, l)\in \boldsymbol{X}}{p(x, l)} \end{equation} $$ $\Delta ({\boldsymbol{X}})={\delta}_{|{\boldsymbol{X}}|}(|\mathcal{L}({\boldsymbol{X}})|)$为离散的标签指示器, 其中$|\cdot|$表示势.
$$ \begin{equation}\nonumber\Delta ({\boldsymbol{X}})=\left\{ \begin{matrix} \text{1}, ~~~~|{\boldsymbol{X}}|=|\mathcal{L}({\boldsymbol{X}})| \\ \text{0}, ~~~~|{\boldsymbol{X}}|\neq |\mathcal{L}({\boldsymbol{X}})| \\ \end{matrix}\right.\end{equation} $$ $$ \begin{equation}W(L)=\prod\limits_{i\in \mathbb{L}}{(1-{{r}^{(i)}})}\prod\limits_{l\in L}{\frac{{{1}_{\mathbb{L}}}(l){{r}^{(l)}}}{1-{{r}^{(l)}}}}\end{equation} $$ (17) $$ \begin{equation}{{W}_{B}}(L)=\prod\limits_{i\in \mathbb{B}}{(1-{{r}_{B}}^{(i)})}\prod\limits_{l\in L}{\frac{{{1}_{\mathbb{B}}}(l){{r}_{B}}^{(l)}}{1-{{r}_{B}}^{(l)}}}\end{equation} $$ (18) 其中$L\subset\mathbb{L}$, $1_{\mathbb{L}}(l)$和$1_{\mathbb{B}}(l)$为指示函数.定义集合$X$上的指示函数为:
$$ \begin{equation}\nonumber{{1}_{X}}(Y)=\begin{cases} 1, &Y\in X \\ 0, &Y\notin X \end{cases} \end{equation} $$ 集合$X$上的广义狄拉克$\delta$脉冲函数定义为:
$$\begin{equation}\nonumber{{\delta}_{X}}(Y)=\begin{cases} 1, &Y= X \\ 0, &Y\ne X \end{cases} \end{equation} $$ 定义在集合$X$上的两个实值函数$f(x)$和$g(x)$的内积定义为:
$$\begin{equation}\nonumber \langle f, g\rangle=\int{f(x)g(x){\rm d}x}\end{equation} $$ 3.1 LMB预测
标签多伯努利滤波器概率密度预测可描述为:
$$ \begin{equation}{{\pi }_{+}}({\boldsymbol{X}}_{+})=\Delta ({\boldsymbol{X}}_{+}) {W}_{+}(\mathcal{L}({\boldsymbol{X}}_{+})){p}_{+}^{\boldsymbol{X}_{+}}\end{equation} $$ (19) 其中:
$$\begin{equation}{{W}_{+}}({{I}_{+}})={{W}_{B}}({{I}_{+}}\bigcap \mathbb{B}){{W}_{S}}({{I}_{+}}\bigcap \mathbb{L})\end{equation} $$ (20) $$\begin{equation}{{p}_{+}}(x, l)={{1}_{\mathbb{L}}}(l){{p}_{+, S}}(x, l)+{{1}_{\mathbb{B}}}(l){{p}_{B}}(x, l)\end{equation} $$ (21) $$ \begin{equation}{{p}_{+, S}}(x, l)=\frac{\langle{{p}_{S}}(\cdot, l)f(x|\cdot, l), p(\cdot, l)\rangle}{{{\eta }_{S}}(l)}\end{equation} $$ (22) $$ \begin{equation}{{\eta }_{S}}(l)=\langle{{p}_{S}}(\cdot, l), p(\cdot, l)\rangle\end{equation} $$ (23) $$ \begin{equation}{{W}_{S}}(L)={{[{{\eta }_{S}}]}^{L}}{{\sum\limits_{I\supseteq L}{[1-{{\eta }_{S}}]}}^{I-L}}W(I)\end{equation} $$ (24) 其中$p_{+}(x, l):={{p}_{+}^{(l)}}(x)$, $p_{+, S}(x, l):={{p}_{+, S}^{(l)}}(x)$, ${{p}_{B}}(x, l):=p_{B}^{(l)}(x)$.
对于新生目标, 新生标签集权重${{W}_{B}}(L)$为LMB形式, 但存活的标签集合权重形如式(24)并不是LMB形式的, 而是标签集合$L$的所有超集上的累加形式.式(24)转化成LMB形式:
$$ \begin{equation}{{W}_{S}}(L)={{(1-{{r}^{(\cdot)}}{{\eta }_{S}})}^{\mathbb{L}}}{{\left(\frac{{{r}^{(\cdot)}}{{\eta }_{S}}}{1-{{r}^{(\cdot)}}{{\eta }_{S}}}\right)}^{L}}\end{equation} $$ (25) 则定义在预测状态空间${\mathbb{X}}_{+}$和预测标签空间${\mathbb{L}}_{+}$上的预测密度可表示为:
$$ \begin{equation}\nonumber\pi_{+}={{\{(r_{+, S}^{(l)}, p_{+, S}^{(l)})\}}_{l\in \mathbb{L}}}\bigcup {{\{(r_{B}^{(l)}, p_{B}^{(l)})\}}_{l\in \mathbb{B}}}\end{equation} $$ 其中:
$$ \begin{equation}\nonumber r_{+, S}^{(l)}={{\eta }_{S}}(l){{r}^{(l)}}\end{equation} $$ $$ \begin{equation}\nonumber p_{+, S}^{(l)}=\frac{\langle{{p}_{S}}(\cdot, l)f(x|\cdot, l), p(\cdot, l)\rangle }{{{\eta }_{S}}(l)}\end{equation} $$ 3.2 LMB更新
假定多目标预测重记为定义在状态空间$\mathbb{X}_{+}$和标签空间$\mathbb{L}_{+}$上的LMB RFS, 由参数集表示为:
$$\begin{equation}\nonumber{{\pi }_{+}}={{\{(r_{+}^{l}, p_{+}^{(l)})\}}_{l\in {{\mathbb{L}}_{\text{+}}}}}\end{equation} $$ 则多目标的后验密度可表示为:
$$\begin{equation}\pi (\cdot |Z)={{\{({{r}^{(l)}}, {{p}^{(l)}}(\cdot))\}}_{l\in {{\mathbb{L}}_{+}}}}\end{equation} $$ (26) $$ \begin{equation}r(l)=\sum\limits_{(I+, \theta)\in \mathcal{F}({{\mathbb{L}}_{+}})\times {{\Theta }_{I+}}}{{{W}^{({{I}_{+}}, \theta)}}} (Z){{1}_{I+}}(l)\end{equation} $$ (27) $$ \begin{align} {{p}^{(l)}}(x)=\, &\frac{1}{{{r}^{(l)}}}\times \sum\limits_{({{I}_{+}}, \theta)\in \mathcal{F}({{\mathbb{L}}_{+}})\times {{\Theta }_{{{I}_{+}}}}}{{{W}^{({{I}_{+}}, \theta)}}}(Z)\times\nonumber\\ & {{1}_{{{I}_{+}}}}(l){{p}^{(\theta)}}(x, l|Z)\end{align} $$ (28) $$ \begin{equation}\nonumber{{W}^{({{I}_{+}}, \theta)}}(Z)\propto {{W}_{+}}({{I}_{+}}){{[\eta _{Z}^{(\theta)}]}^{{{I}_{+}}}}\end{equation} $$ $$ \begin{equation}\nonumber{{p}^{(\theta)}}(x, l|Z)=\frac{{{p}_{+}}(x, l){{\psi }_{Z}}(x, l;\theta)}{\eta _{Z}^{(\theta)}(l)}\end{equation} $$ $$ \begin{equation}\nonumber\eta _{Z}^{(\theta)}(l)=\langle{{P}_{+}}(\cdot, l), {{\psi }_{Z}}(\cdot, l;\theta)\rangle \end{equation} $$ $$ \begin{equation}\nonumber{{\psi }_{Z}}(\cdot, l;\theta)=\begin{cases} \frac{{{p}_{D}}(x, l)g({{z}_{\theta (l)}}|x, l)}{\mathcal{K}({{z}_{\theta (l)}})}, &\mbox{若}\theta (l)>0 \\ {{q}_{D}}(x, l), &\mbox{若}\theta (l)=0 \\ \end{cases} \end{equation} $$ ${{p}_{D}}(x, l)$:标签为$l$的目标$x$被检测到的概率.
${{q}_{D}}(x, l)=1-{{p}_{D}}(x, l)$:标签为$l$的目标$x$未检测到的概率.
$g(z|x, l)$:标签为$l$的目标$x$关于量测$z$的单目标似然函数.
$\theta $: ${{I}_{+}} \to {\{0, 1, 2, \cdots, |Z|\}}$:表示从标签集合$I_{+}$到量测指标集$\{0, 1, 2, \cdots, |Z|\}$的映射.若$\theta (i)=\theta '(i)>0$, 则$i=i'$.
$\mathcal{K}(\cdot) $:表示服从泊松分布的杂波的均值.
4. 交互式箱粒子标签多伯努利(IMM-BOX-LMB)的实现
本文利用箱粒子对后验空间概率密度函数近似, 在预测阶段使用交互式多模型算法对箱粒子状态进行预测, 在更新阶段使用二次收缩算法对预测得到的箱粒子及其权重进行更新, 得到IMM-Box-LMB算法, 其递归步骤如下:
假设$k-1$时刻多目标后验概率密度可表示为LMB参数集:
$$ \begin{equation}\nonumber{{\{(r_{k-1}^{(l)}, p_{k-1}^{(l)}(x))\}}_{l\in \mathbb{L}}}\end{equation} $$ $p_{k-1}^{(l)}(x)$由一组带权重的箱粒子$\{w_{k-1, j}^{(l)}, $ $ ([x_{k-1, j}^{(l)}], \tilde{p}_{k-1, j}^{(l)})\}_{j=1}^{N(l)}$表示为:
$$ \begin{equation}p_{k-1}^{(l)}(x)=\sum\limits_{j=1}^{N(l)}{w_{k-1, j}^{(l)}{{U}_{[x_{k-1, j}^{(l)}]}}}(x)\end{equation} $$ (29) 其中, $\tilde{p}_{k-1, j}^{(l)}$是$1\times s$的行向量, 表示$k-1$时刻模拟状态$ (x, l)$的第$j$个箱粒子$[x_{k-1, j}^{(l)}]$与$s$个模型分别相对应的初始模型概率.
$$ \begin{equation}\tilde{p}_{k-1, j}^{(l)}=[\tilde{p}_{{{o}_{1}}, j}^{k-1, (l)}, \tilde{p}_{{{o}_{2}}, j}^{k-1, (l)}, \cdots, \tilde{p}_{{{o}_{s}}, j}^{k-1, (l)}]\end{equation} $$ (30) $\tilde{p}_{{{o}_{m}}, j}^{k-1, (l)}$: $k-1$时刻模拟状态$ (x, l)$的第$j$个箱粒子状态转移服从模型$o_{m}$的概率.
4.1 IMM-BOX-LMB预测
使用$s$个模型分别对$k$时刻的状态进行预测:
$$ \begin{equation}[x_{k|k-1, j}^{(l), {{o}_{m}}}]=[{{f}_{{{o}_{m}}}}][x_{k-1, j}^{(l)}]+[{{v}_{{{o}_{m}}}}]\end{equation} $$ (31) $o_{m}$表示模型${{o}_{m}}\in \mathbb{O}$, $\mathbb{O}=\{{{o}_{1}}, {{o}_{2}}, \cdots, {{o}_{s}}\}$表示模型空间. $[{{f}_{{{o}_{m}}}}]$表示模型$O_{m}$对应的状态转移函数的包含函数. $[v_{o_{m}}]$为模型$o_{m}$的对应过程噪声区间.
第$j=\{1, 2, \cdots, N(l)\}$个箱粒子对应模型$o_{m}$, $\{m=1, 2, \cdots, s\}$的概率预测为:
$$ \begin{equation}\tilde{p}_{{{o}_{m}}, j}^{k|k-1, (l)}=\tilde{p}_{k-1, j}^{(l)}{{T}_{:, m}}\end{equation} $$ (32) ${{T}_{:, m}}$表示模型转移概率矩阵$T$的第$m$列.
第$j=\{1, 2, \cdots, N(l)\}$个箱粒子对应模型${o_{m}}$, $\{m=1, 2, \cdots, s\}$的概率更新为:
$$ \begin{equation}\tilde{p}_{{{o}_{m}}, j}^{k, (l)}=\frac{\tilde{p}_{{{o}_{m}}, j}^{k|k-1, (l)}g(Z|[x_{k|k-1, j}^{(l), {{o}_{m}}}])}{\sum\limits_{m=1}^{s}{\tilde{p}_{{{o}_{m}}, j}^{k|k-1, (l)}g(Z|[x_{k|k-1, j}^{(l), {{o}_{m}}}])}}\end{equation} $$ (33) $$ \begin{equation}g(Z|x_{k|k-1, j}^{(l), {{o}_{m}}})=\prod\limits_{[z]\in Z}{g([z]|[x_{k|k-1, j}^{(l), {{o}_{m}}}])}\end{equation} $$ (34) $$ \begin{equation}g([z]|[x_{k|k-1, j}^{(l), {{o}_{m}}}])=\prod\limits_{i}^{n}{\frac{|[\tilde{x}_{k|k-1, j}^{(l), {{o}_{m}}}](i)|}{|[x_{k|k-1, j}^{(l), {{o}_{m}}}](i)|}}\end{equation} $$ (35) $[\tilde{x}_{k|k-1, j}^{(l), {{o}_{m}}}]$由收缩算法得到, 若$[z]\bigcap[h]([x_{k|k-1, j}^{(l), {{o}_{m}}}])$ $\ne\emptyset$, 则需要将$[x_{k|k-1, j}^{(l), {{o}_{m}}}]$收缩为$[\tilde{x}_{k|k-1, j}^{(l), {{o}_{m}}}]$, 若$[z]$ $\bigcap [h]([x_{k|k-1, j}^{(l), {{o}_{m}}}])=\emptyset$, 则$[\tilde{x}_{k|k-1, j}^{(l), {{o}_{m}}}]=[x_{k|k-1, j}^{(l), {{o}_{m}}}]$, 但$g($ $[z]|[x_{k|k-1, j}^{(l), {{o}_{m}}}])$=0.这里为避免式(33)出现0值, 设定若$[z]\bigcap[h]([x_{k|k-1, j}^{(l), {{o}_{m}}}])=\emptyset$, 则$g([z]|[x_{k|k-1, j}^{(l), {{o}_{m}}}])$为一不等于0的极小值$10^{-8}$.
由式(33)计算可得$k$时刻标签为$l$的第$j$个箱粒子的模型匹配概率为:
$$ \begin{equation}\tilde{p}_{k, j}^{(l)}=[\tilde{p}_{{{o}_{1}}, j}^{k, (l)}, \tilde{p}_{{{o}_{2}}, j}^{k, (l)}, \cdots, \tilde{p}_{{{o}_{s}}, j}^{k, (l)}], \quad j=1, 2, \cdots, N(l)\end{equation} $$ (36) 利用更新后的模型匹配概率以及通过各个模型得到的预测状态对$k$时刻的状态进行混合估计:
$$ \begin{equation}[x_{k|k-1, j}^{(l)}]=\sum\limits_{m=1}^{s}{\tilde{p}_{{{o}_{m, j}}}^{k, (l)}}[x_{k|k-1, j}^{(l), {{o}_{m}}}]\end{equation} $$ (37) $k$时刻带有模型匹配概率的多目标后验概率密度与无模型匹配概率的多目标后验概率密度(式(19))相同, 记为:
$$ \begin{equation}{{\pi }_{+}}(\bar{\boldsymbol{X}}_{+})=\Delta (\bar{\boldsymbol{X}}_{+}){{W}_{+}}(\mathcal{L}(\bar{\boldsymbol{X}}_{+})){{p}_{+}}^{\bar{\boldsymbol{X}}_{+}}\end{equation} $$ (38) $$ \begin{equation}{{W}_{+}}({{I}_{+}})={{W}_{B}}({{I}_{+}}\bigcap \mathbb{B}){{W}_{S}}({{I}_{+}}\bigcap \mathbb{L})\end{equation} $$ (39) $$ \begin{equation}{{p}_{+}^{(l)}}(x)={{1}_{\mathbb{L}}}(l){{p}_{+, S}^{(l)}}(x)+{{1}_{\mathbb{B}}}(l){{p}_{B}^{(l)}}(x)\end{equation} $$ (40) 其中, ${{p}_{+, S}^{(l)}}(x)$为存活下来标签为$l$的目标$x$的预测空间概率分布, 由预测箱粒子集$\{[x_{k|k-1, i}^{(l)}], w_{k|k-1, i}^{(l)}\}_{i=1}^{N(l)}$表示为:
$$ \begin{equation}{{p}_{+, S}^{(l)}}(x)=\sum\limits_{i=1}^{N(l)}{w_{k|k-1, i}^{(l)}{{U}_{[x_{k|k-1, i}^{(l)}]}}}(x)\end{equation} $$ (41) 箱粒子$[x_{k|k-1, i}^{(l)}]$的权重预测为:
$$ \begin{align} & w_{k|k-1, i}^{(l)}= \nonumber\\ & \frac{\sum\limits_{j=1}^{N(l)}{{{p}_{S}} ([x_{k-1, j}^{(l)}])f([x_{k|k-1, i}^{(l)}]| [x_{k-1, j}^{(l)}])w_{k-1, j}^{(l)}}}{{{\eta }_{S}}(l)} \end{align} $$ (42) $$ \begin{equation}\nonumber{{\eta }_{S}}(l)=\sum\limits_{j=1}^{N(l)}{{{p}_{S}}([x_{k-1, j}^{(l)}])w_{k-1, j}^{(l)}}\end{equation} $$ $$ \begin{align} {{W}_{S}}(L)&={{[{{\eta }_{S}}]}^{L}}{{\sum\limits_{I\supseteq L}{[1-{{\eta }_{S}}]}}^{I-L}}W(I)=\nonumber\\ & {{(1-{{r}^{(\cdot)}}{{\eta }_{S}})}^{\mathbb{L}}}{{\left(\frac{{{r}^{(\cdot)}}{{\eta }_{S}}}{1-{{r}^{(\cdot)}}{{\eta }_{S}}}\right)}^{L}}\nonumber \end{align} $$ $$ \begin{equation}\nonumber{{W}_{B}}(L)=\prod\limits_{i\in \mathbb{B}}{(1-{{r}_{B}}^{(i)})}\prod\limits_{l\in L}{\frac{{{1}_{\mathbb{B}}}(l){{r}_{B}}^{(l)}}{1-{{r}_{B}}^{(l)}}}\end{equation} $$ 新生的具有标签$l$的目标$x$由箱粒子集$\{[x_{\Gamma, j}^{(l)}], $ $w_{\Gamma, j}^{(l)}\}_{j=1}^{N_{\Gamma}(l)}$表示为:
$$ \begin{equation}{{p}_{B}^{(l)}}(x)=\sum\limits_{j=1}^{{{N}_{\Gamma }}(l)}{w_{\Gamma, j}^{(l)}{{U}_{[x_{\Gamma, j}^{(l)}]}}}(x)\end{equation} $$ (43) 则预测多目标概率密度可由参数集表示为:
$$\begin{align} {{\pi }_{+}}&={{\{(r_{+, S}^{(l)}, p_{+, S}^{(l)}(x))\}}_{l\in \mathbb{L}}}\bigcup {{\{(r_{B}^{(l)}, p_{B}^{(l)}(x))\}}_{l\in \mathbb{B}}}= \nonumber\\ & ~~~~~{{\{(r_{+}^{(l)}, p_{+}^{(l)}(x))\}}_{l\in {{\mathbb{L}}_{\text{+}}}}} \nonumber \end{align} $$ 4.2 IMM-BOX-LMB更新
若多目标预测为定义在状态空间${{\mathbb{X}}_{+}}$和标签空间${{\mathbb{L}}_{+}}$上的LMB RFS, 参数集为${{\{(r_{+}^{l}, p_{+}^{(l)}(x))\}}_{l\in {{\mathbb{L}}_{\text{+}}}}}$, 则多目标后验密度可由参数集表示为:
$$\begin{equation}\pi (\cdot |Z)={{\{({{r}^{(l)}}, {{p}^{(l)}}(x))\}}_{l\in {{\mathbb{L}}_{\text{+}}}}}\end{equation} $$ (44) 其中:
$$ \begin{equation}r^{(l)}=\sum\limits_{(I+, \theta)\in \mathcal{F}({{\mathbb{L}}_{+}})\times {{\Theta }_{I+}}}{{{W}^{({{I}_{+}}, \theta)}}}(Z){{1}_{I+}}(l)\end{equation} $$ (45) $$\begin{align} & {{p}^{(l)}}(x)=\frac{1}{{{r}^{(l)}}}\times \nonumber \\ & \sum\limits_{({{I}_{+}}, \theta)\in \mathcal{F}({{\mathbb{L}}_{+}})\times {{\Theta }_{{{I}_{+}}}}}{{{W}^{({{I}_{+}}, \theta)}}}(Z)\times {{1}_{{{I}_{+}}}}(l){{p}^{(\theta)}}(x, l) \end{align} $$ (46) $$ \begin{equation}\nonumber{{W}^{({{I}_{+}}, \theta)}}(Z)\propto {{W}_{+}}({{I}_{+}}){{[\eta _{Z}^{(\theta)}]}^{{{I}_{+}}}}\end{equation} $$ $$ \begin{equation}\nonumber{{p}^{(\theta)}}(x, l)=\sum\limits_{j=1}^{N(l)}{w_{k, j}^{(l)}}{{U}_{[x_{k|k-1, j}^{(l)}]}}(x)\end{equation} $$ $$\begin{equation}\nonumber w_{k, j}^{(l)}=w_{k|k-1, j}^{(l)}\frac{\psi '([x_{k|k-1, j}^{(l)}];\theta (l))}{\eta _{Z}^{(\theta)}(l)}\end{equation} $$ $$ \begin{equation}\nonumber\eta _{Z}^{(\theta)}(l)=\sum\limits_{j=1}^{N(l)}{w_{k|k-1, j}^{(l)}\psi '([x_{k|k-1, j}^{(l)}];\theta (l))}\end{equation} $$ $$ \begin{align*} & \psi '([x_{k|k-1, j}^{(l)}];\theta (l))= \nonumber\\ &\quad \begin{cases} \frac{{{p}_{D}}(x, l)g'([{{z}_{\theta (l)}}]|[x_{k|k-1, j}^{(l)}])}{k([{{z}_{\theta (l)}}])}, &\theta (l)>0 \\ {{q}_{D}}(x, l), &\theta (l)=0 \\ \end{cases} \nonumber \end{align*} $$ $$ \begin{equation}\nonumber g'([{{z}_{\theta (l)}}]|[x_{k|k-1, j}^{(l)}])=\prod\limits_{i=1}^{n}{\frac{|[\tilde{x}_{k|k-1, j}^{(l)}](i)|}{|[x_{k|k-1, j}^{(l)}](i)|}}\end{equation} $$ $[\cdot](i)$表示箱粒子的第$i$维. $[\tilde{x}_{k|k-1, j}^{(l)}]$由二次收缩算法得到:
步骤1. 若是$[{{z}_{\theta (l)}}]\bigcap [h]([x_{k|k-1, j}^{(l)}])\ne\emptyset $, 则需要将$[{x}_{k|k-1, j}^{(l)}]$收缩为$[{x'}_{k|k-1, j}^{(l)}]$.
步骤2. 将箱粒子$[{x'}_{k|k-1, j}^{(l)}]$以其各维度中点扩张为箱粒子$[{x''}_{k|k-1, j}^{(l)}]$, 箱粒子$[{x''}_{k|k-1, j}^{(l)}]$第$i$维的长度与箱粒子$[x_{k|k-1, j}^{(l)}]$第$i$维的长度相等.
步骤3. 若是$[{{z}_{\theta(l)}}]\bigcap[h]([{x''}_{k|k-1, j}^{(l)}])\ne\emptyset $, 则需要将箱粒子$[{x''}_{k|k-1, j}^{(l)}]$收缩为箱粒子$[\tilde{x}_{k|k-1, j}^{(l)}]$.若是$[{{z}_{\theta (l)}}]\bigcap [h]([x_{k|k-1, j}^{(l), {{o}_{m}}}])=\emptyset$, 则$[\tilde{x}_{k|k-1, j}^{(l)}]=[x_{k|k-1, j}^{(l)}]$, 但是$g'([{{z}_{\theta (l)}}]|[x_{k|k-1, j}^{(l)}])=0$.
为进一步减轻箱粒子退化问题, 对更新之后的箱粒子进行重采样.本文采用随机子划分重采样[5], 在每个时刻依据重采样次数$m$随机地选取状态的一维进行均匀划分.将箱粒子划分为$m$个相同大小的子区间.
则单目标状态以及航迹估计为:
$$ \begin{equation}x_{k}^{(l)}=mid(\sum\limits_{j=1}^{N(l)}{w_{k, j}^{(l)}}[\tilde{x}_{k|k-1, j}^{(l)}])\end{equation} $$ (47) 其中$x_{k}$包含$k$时刻目标的位置速度信息, $l$包含$k$时刻目标航迹信息.
目标数估计, $k$时刻多目标势分布为:
$$ \begin{align} \rho_{k}(n)=\sum\limits_{({{I}_{+}}, \theta)\in \mathcal{F}({{\mathbb{L}}_{+}})\times {{\Theta }_{{{I}_{+}}}}}{{{W}^{({{I}_{+}}, \theta)}}}(Z) \delta_{n}(|{I}_{+}|) \end{align} $$ (48) 5. 仿真实验
5.1 环境变量设置
多个机动目标在$[0\, {\rm m}, 60\, {\rm m}]\times [0\, {\rm m}, 60\, {\rm m}]$的观测区域内运动, 运动模型由一个匀速直线运动模型, 一个协同右转运动模型和一个协同左转运动模型共三个运动模型构成.
1) 匀速直线$ (\rm CV)$运动模型
$$ \begin{equation}\nonumber{{x}_{k}}=\left[ \begin{matrix} 1 & T & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & T \\ 0 & 0 & 0 & 1 \\ \end{matrix} \right]{{x}_{k-1}}+{{v}_{k}}\end{equation} $$ 2) 协同转弯$ (\rm CT)$运动模型
$$ \begin{equation}\nonumber{{x}_{k}}=\left[ \begin{matrix} 1 & \frac{\sin {{\theta }}T}{{{\theta }}} & 0 & -\frac{1-\cos {{\theta }}T}{{{\theta }}} \\ 0 & \cos {{\theta }}T & 0 & -\sin {{\theta }}T \\ 0 & \frac{1-\cos {{\theta }}T}{{{\theta }}} & 1 & \frac{\sin {{\theta }}T}{{{\theta }}} \\ 0 & \sin {{\theta }}T & 0 & \cos {{\theta }}T \\ \end{matrix} \right]{{x}_{k-1}}+{{v}_{k}}\end{equation} $$ 其中协同右转角速度为${{\theta }_{1}}=-0.2\, {\rm rad}/{\rm s} $, 协同左转角速度为${{\theta }_{2}}=0.3\, {\rm rad}/{\rm s}$, 目标状态${{x}_{k}}=[x; \dot{x}; y;\dot{y}]$, $ (x, y)$表示目标的位置信息, $ (\dot{x}, \dot{y})$表示目标在$x$方向和$y$方向上的速度信息.过程噪声$v_{k}$与模型相互独立且服从零均值高斯分布, 协方差矩阵为:
$$ \begin{equation}\nonumber Q={{\sigma }_{v}^{2}}\left[ \begin{matrix} \frac{{{T}^{4}}}{4} & \frac{{{T}^{3}}}{2} & 0 & 0 \\ \frac{{{T}^{3}}}{2} & {{T}^{2}} & 0 & 0 \\ 0 & 0 & \frac{{{T}^{4}}}{4} & \frac{{{T}^{3}}}{2} \\ 0 & 0 & \frac{{{T}^{3}}}{2} & {{T}^{2}} \\ \end{matrix} \right]\end{equation} $$ 噪声标准差为${{\sigma }_{v}}=0.02\, {\rm m}/{\rm s}$, 三个模型之间的模型转换概率矩阵为:
$$ \begin{equation}\nonumber T=\left[ \begin{matrix} 0.8 & 0.05 & 0.15 \\ 0.05 & 0.9 & 0.05 \\ 0.05 & 0.05 & 0.9 \\ \end{matrix} \right]\end{equation} $$ 系统的观测方程为:
$$ \begin{equation}\nonumber {{z}_{k}}=\left[ \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ \end{matrix} \right]{{x}_{k}}+{{w}_{k}}\end{equation} $$ 观测噪声$w_{k}$与观测模型相互独立且服从零均值的高斯分布观测噪声的标准差为$\rm diag\{0.2^2\, {\rm m}^2/{\rm s}^2, 0.2^2\, {\rm m}^2/{\rm s}^2\}$.
监控区域$[0\, {\rm m}, 60\, {\rm m}]\times [0\, {\rm m}, 60\, {\rm m}]$内有四个目标, 监测时长为$60\, {\rm s}$.新生目标的概率为${{r}^{(i)}}=0.02$, 新生目标的概率密度服从高斯分布${{p}^{(i)}}=\mathcal{N}(x; {{m}^{(i)}}, P); i=1, 2, 3, 4$.
其中:
$$ \begin{equation}\nonumber{{m}^{(1)}}=\rm [30\, m;0\, m/s;54\, m;0\, m/s]\end{equation} $$ $$ \begin{equation}\nonumber{{m}^{(2)}}=\rm [3\, m;0\, m/s;54\, m;0\, m/s]\end{equation} $$ $$ \begin{equation}\nonumber{{m}^{(3)}}=\rm [54\, m;0\, m/s;25\, m;0\, m/s]\end{equation} $$ $$ \begin{equation}\nonumber{{m}^{(4)}}=\rm [5\, m;0\, m/s;~~6\, m;0\, m/s]\end{equation} $$ $$ \begin{equation}\nonumber P=\rm diag\{{4}\, {{m}^{2}}, 0.25\, {{m}^{2}}/{{s}^{2}}, {4}\, {{m}^{2}}, 0.25\, {{m}^{2}}/{{s}^{2}}\}\end{equation} $$ 新生目标初始模型概率为$[0.90, 0.05, 0.05]$.目标的存活概率和检测概率分别为$Ps=0.99$, $Pd=0.99$, 杂波服从强度$\lambda=2$的泊松分布.
5.2 实验结果分析
仿真中每个目标使用32个箱粒子描述, 箱粒子大小为$[0\, \rm m, 1.6\, \rm m]\times [0\, \rm m, 1.6\, \rm m]$, 取50次蒙特卡洛实验平均值, 每次蒙特卡罗实验中箱粒子和量测值均随机产生.
图 3为本文所提IMM-Box-LMB算法单次蒙特卡洛实验目标真实运动轨迹和区间量测图.目标1存活时间为1 s$\sim$32 s, 在1 s$\sim$10 s作匀速直线运动, 11 s$\sim$20 s作协同右转运动, 在21 s$\sim$32 s作协同左转运动; 目标2存活时间为4 s$\sim$25 s, 在4 s$\sim$11 s作匀速直线运动, 12 s$\sim$17 s作协同右转运动, 在18 s$\sim$32 s作协同左转运动; 目标3存活时间为18 s$\sim$47 s, 在18 s$\sim$35 s作匀速直线运动, 36 s$\sim$40 s作协同右转运动, 在41 s$\sim$47 s作协同左转运动; 目标4存活时间为30 s$\sim$60 s, 在30 s$\sim$44 s作匀速直线运动, 45 s$\sim$53 s作协同右转运动, 在54 s$\sim$60 s作协同左转运动.
图 4为本文所提IMM-Box-LMB算法单次蒙特卡洛实验跟踪效果图.由图 4实验结果可以看出本文所提算法(IMM-Box-LMB)可以有效地对多机动目标的状态和运动轨迹进行估计.
本文采用最优子模型分配距离[24] (Optimal subpattern assignment, OSPA)对算法的估计精度进行评估.对于取自状态空间${\mathbb{X}}$的两个集合$X$和$Y$, $m=|X|$, $n=|Y|$, $X$与$Y$之间的OSPA距离定义为:
1) 当$0 < m < n$时
$$ \begin{align}\nonumber\, &\bar{d}_{p}^{(c)}(X, Y):= \frac{1}{n}\times\\ &\qquad \left(\underset{\pi \in \prod{_{n}}}{\mathop{\min }}\, \sum\limits_{i=1}^{m}{\left({{d}^{(c)}}{{({{x}_{i}}, {{y}_{\pi (i)}})}^{p}} \right)+{{c}^{p}}(n-m)} \right)^{\frac{1}{p}} \end{align} $$ (49) 2) 当$m\geq n>0$时
$$ \begin{equation}\nonumber\bar{d}_{p}^{(c)}(Y, X):=\bar{d}_{p}^{(c)}(X, Y)\end{equation} $$ 3) 当$m=n=0$时
$$\begin{equation}\nonumber\bar{d}_{p}^{(c)}(X, Y):=0\end{equation} $$ $$ \begin{equation}\nonumber {{d}^{(c)}}{{({{x}_{i}}, {{y}_{\pi (i)}})}^{p}}=\min (c, d{{({{x}_{i}}, {{y}_{\pi (i)}})}^{p}})\end{equation} $$ 其中$c$为目标数目估计惩罚参数, $c$值越大, 在OSPA距离中目标数目估计误差所占比重越大, $p$为阶数, 也称目标位置惩罚参数, $p$值越大, 在OSPA距离中对目标位置估计误差越敏感, 位置估计误差所占比重越大.本文实验中$ p=1, c=5$. $\prod{_{n}}$表示集合$Y$中元素的$n$种排列组合方式, $\pi (i)$表示第$\pi$种排列组合中的第$i$个元素.
通过统计每个时刻更新之后有效箱粒子的个数(有效箱粒子为权重大于阈值的箱粒子, 试验中设置阈值为$10^{-3}$), 以使用二次收缩算法后统计得到的有效箱粒子数与通过传统收缩算法后统计得到的有效箱粒子数的比值为指标, 来评判二次收缩算法对箱粒子多样性的提升性能.若指标大于1, 则所提二次收缩算法对于提升箱粒子的多样性有效, 否则无效. 图 5为各个时刻的评价指标图, 图 5结果表明二次收缩算法能够提升箱粒子的多样性.
图 6为本文所提IMM-Box-LMB算法在使用传统收缩算法和二次收缩算法下对多目标数目的估计图, 由图 6可以看出在使用传统收缩算法时, 容易丢失目标, 而明显过少估计目标个数的情况通过使用二次收缩算法得到了改善.
图 7为IMM-Box-LMB算法在使用传统收缩算法和二次收缩算法时对多目标状态估计的OSPA距离(图 7(a)), OSPA位置分量(图 7(b))以及OSPA势分量(图 7(c)), 其中$p=1$, $c=5.$ 图 7(b)显示在IMM-Box-LMB算法中采用二次收缩算法时, 对多目标位置的估计除少数时刻外要比使用传统收缩算法对位置的估计更准确更稳定. 图 7(c)表明除个别时刻外使用二次收缩算法时对多目标个数的估计明显要优于使用传统收缩算法. 图 7(a)为综合考虑目标个数估计和目标位置估计的OSPA距离, 由图 7(a)可以看出IMM-Box-LMB算法在使用二次收缩算法时的估计性能明显优于使用传统收缩算法时对多目标状态以及个数的估计.
图 7 IMM-Box-LMB算法使用二次收缩算法和传统收缩算法之后(a) OSPA距离和OSPA成分(b)位置和(c)势估计$p = 1$, $c = 5$ (50 MC)Fig. 7 The OSPA of IMM-Box-LMB algorithm using the traditional contraction algorithm and the quadratic contraction algorithm, respectively. (a) OSPA distance and OSPA components (b) localization component (c) cardinality component $p=1$, $c = 5$ (50MC)图 8为IMM-Box-LMB算法和CV-Box-LMB算法在杂波率为2和8时对多机动目标的势估计对比图.如图 8所示在杂波强度为分别为2和8时, IMM-Box-LMB算法都能对目标的个数进行稳定的估计, 在目标数目增加或减少时能够迅速进行调整, 保持对目标个数的正确估计.
因为CV-Box-LMB算法是基于箱粒子实现的, 只要参与对目标状态进行预测的箱粒子包含有目标真实状态信息, 目标就不会丢失.由图 8可知, 在目标发生机动时, CV-Box-LMB算法不会立即丢失目标, 而会经过一段时间才会丢失目标.
如图 8中在时刻29时, CV-Box-LMB算法能够追踪到的机动目标只剩下1个, 在第30时刻第4个目标出现, 第31时刻可追踪到的目标恢复到2个, 但是在时刻35时目标3发生机动, CV-Box-LMB算法能够追踪到的目标个数逐渐减少为1个, 到第42个时刻以后, 因为目标3的真实位置与第一种新生成分越来越近, 所以又重新被追踪到.但是在47时刻伴随着第3个目标的消失以及第四个目标进行机动, CV-Box-LMB算法能够追踪到的目标个数急速下降到1个以下, 到60时刻可追踪目标数已接近0个.相较于CV-Box-LMB算法, 本文所提IMM-Box-LMB算法在目标发生机动时则能够稳定准确地对目标的个数进行估计.
图 9为IMM-Box-LMB算法和CV-Box-LMB算法在杂波率分别为$2$和$8$时, 对多个机动目标状态估计的OSPA距离(9(a)), 以及OSPA成分位置估计(9(b))和势估计(9(c))对比图.
图 9 不同杂波率下IMM-Box-LMB算法和CV-Box-LMB算法OSPA距离(a)和OSPA成分位置(b)和势(c)估计$p = 1$, $c = 5$ (50 MC)Fig. 9 Under different clutter rates, (a) The OSPA distance and OSPA components. (b) localization component (c) cardinality component $(p = 1, c = 5)$ using IMM-Box-LMB algorithm and CV-Box-LMB algorithm, respectively (50 MC)图 9(b)表明相较于CV-Box-LMB算法, IMM-Box-LMB算法能够更加稳定地估计目标的位置, 而CV-Box-LMB算法则在位置的估计中会产生较大的起伏; 图 9(c)表明IMM-Box-LMB算法在对机动目标的个数估计会受到杂波率的影响, 随着杂波率的提升, 对目标个数的估计精度会下降, 但相对于CV-Box-LMB算法则具有明显的优势, 能够更加准确地对多机动目标的个数进行估计; 图 9(a)综合考虑对多机动目标的个数和位置估计的OSPA距离, 由图 9(a)可以看出在对多机动目标进行追踪时候, IMM-Box-LMB算法比CV-Box-LMB算法具有更加优越的性能.
6. 结论
仿真结果表明本文所提二次收缩算法能够有效地提升箱粒子的多样性, 将交互式多模算法与箱粒子标签多伯努利算法相结合提出的IMM-Box-LMB算法在相同条件下, 当目标发生机动时, 传统的单模型CV-Box-LMB算法会逐渐丢失目标, 无法对多机动目标的数目和状态进行有效的估计.相较于CV-Box-LMB算法, 所提IMM-Box-LMB算法则能够在目标发生机动时迅速调整并保持对对多机动目标状态和个数的正确估计.而且在不同的杂波率下, 所提IMM-Box-LMB算法也能够对目标的数目进行有效的估计.
-
图 7 IMM-Box-LMB算法使用二次收缩算法和传统收缩算法之后(a) OSPA距离和OSPA成分(b)位置和(c)势估计$p = 1$, $c = 5$ (50 MC)
Fig. 7 The OSPA of IMM-Box-LMB algorithm using the traditional contraction algorithm and the quadratic contraction algorithm, respectively. (a) OSPA distance and OSPA components (b) localization component (c) cardinality component $p=1$, $c = 5$ (50MC)
图 9 不同杂波率下IMM-Box-LMB算法和CV-Box-LMB算法OSPA距离(a)和OSPA成分位置(b)和势(c)估计$p = 1$, $c = 5$ (50 MC)
Fig. 9 Under different clutter rates, (a) The OSPA distance and OSPA components. (b) localization component (c) cardinality component $(p = 1, c = 5)$ using IMM-Box-LMB algorithm and CV-Box-LMB algorithm, respectively (50 MC)
-
[1] Blackman S S. Multiple hypothesis tracking for multiple target tracking. IEEE Aerospace and Electronic Systems Magazine, 2004, 19(1): 5-18 [2] Chang K C, Bar-Shalom Y. Joint probabilistic data association for multitarget tracking with possibly unresolved measurements and maneuvers. IEEE Transactions on Automatic Control, 1984, 29(7): 585-594 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=6a84b10cd4663c41e72d499a60b0cf3d [3] Mahler R P S. Statistical Multisource-Multitarget Information Fusion. London: Artech House, 2007. 565-682 [4] Mahler R P S. Multitarget Bayes filtering via first-order multitarget moments. IEEE Transactions on Aerospace and Electronic Systems, 2003, 39(4): 1152-1178 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=1de4826f6f0ff5b11dbc1832d7b3a490 [5] Mahler R. PHD filters of higher order in target number. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(4): 1523-1543 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=e917996c66d0f95baad191a9741e30df [6] Mahler R P S. Statistical Multisource-Multitarget Information Fusion. London: Artech House, 2007. 110-120 [7] Vo B T, Vo B N, Cantoni A. The cardinality balanced multi-target multi-Bernoulli filter and its implementations. IEEE Transactions on Signal Processing, 2009, 57(2): 409-423 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=61dfd7f286ae58058d68670341ea1672 [8] Vo B T, Vo B N. Labeled random finite sets and multi-object conjugate priors. IEEE Transactions on Signal Processing, 2013, 61(13): 3460-3475 [9] Vo B N, Vo B T, Phung D. Labeled random finite sets and the Bayes multi-target tracking filter. IEEE Transactions on Signal Processing, 2014, 62(24): 6554-6567 [10] Reuter S, Vo B T, Vo B N, Dietmayer K. The labeled multi-Bernoulli filter. IEEE Transactions on Signal Processing, 2014, 62(12): 3246-3260 [11] Papi F, Vo B N, Vo B T, Fantacci C, Beard M. Generalized labeled multi-Bernoulli approximation of multi-object densities. IEEE Transactions on Signal Processing, 2015, 63(20): 5487-5497 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=69f387345082d430d7add445f6c3c32c [12] 邱昊, 黄高明, 左炜, 高俊.多模型标签多伯努利机动目标跟踪算法.系统工程与电子技术, 2015, 37(12): 2683-2688 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=xtgcydzjs201512003Qiu Hao, Huang Gao-Ming, Zuo Wei, Gao Jun. Multiple model labeled multi-Bernoulli filter for maneuvering target tracking. Systems Engineering and Electronics, 2015, 37(12): 2683-2688 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=xtgcydzjs201512003 [13] 袁常顺, 王俊, 向洪, 孙进平.基于VB近似的自适应$\delta$-GLMB滤波算法.系统工程与电子技术, 2017, 39(2): 237-243Yuan Chang-Shun, Wang Jun, Xiang Hong, Sun Jin-Ping. Adaptive $\delta$-GLMB filtering algorithm based on VB approximation. Systems Engineering and Electronics, 2017, 39(2): 237-243 [14] 朱书军, 刘伟峰, 崔海龙.基于广义标签多伯努利滤波的可分辨群目标跟踪算法.自动化学报, 2017, 43(12): 2178-2189 doi: 10.16383/j.aas.2017.c160334Zhu Shu-Jun, Liu Wei-Feng, Cui Hai-Long. Multiple resolvable groups tracking using the GLMB filter. Acta Automatica Sinica, 2017, 43(12): 2178-2189 doi: 10.16383/j.aas.2017.c160334 [15] Reuter S, Scheel A, Dietmayer K. The multiple model labeled multi-Bernoulli filter. In: Proceedings of the 18th International Conference on Information Fusion. Washington, DC, USA: IEEE, 2015. 1574-1580 [16] Abdallah F, Gning A, Bonnifait P. Box particle filtering for nonlinear state estimation using interval analysis. Automatica, 2008, 44(3): 807-815 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=4f54944c69790e29fab9581937904202 [17] Jaulin L, Kieffer M, Didrit O, Walter É. Applied Interval Analysis. London: Springer, 2001. 11-43 [18] Luc Jaulin. Computing minimal-volume credible sets using interval analysis; application to bayesian estimation. IEEE Transactions on Signal Processing, 2006, 54(9): 3632-3636 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=0c257c984c945138181d145de20b15b5 [19] 苗雨, 宋骊平, 姬红兵.箱粒子广义标签多伯努利滤波的目标跟踪算法.西安交通大学学报, 2017, 51(10): 107-112 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=xajtdxxb201710018Miao Yu, Song Li-Ping, Ji Hong-Bing. Target tracking method with box-particle generalized label multi-Bernoulli filtering. Journal of Xi'an Jiaotong University, 2017, 51(10): 107-112 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=xajtdxxb201710018 [20] 魏帅, 冯新喜, 王泉, 鹿传国.基于箱粒子滤波的鲁棒标签多伯努利跟踪算法.兵工学报, 2017, 38(10): 2062-2068 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=bgxb201710024Wei Shuai, Feng Xin-Xi, Wang Quan, Lu Chuan-Guo. Robust labeled multi-Bernoulli tracking algorithm based on box particle filtering. Acta Armamentarii, 2017, 38(10): 2062-2068 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=bgxb201710024 [21] Mazor E, Averbuch A, Bar-Shalom Y, Dayan J. Interacting multiple model methods in target tracking: a survey. IEEE Transactions on Aerospace and Electronic Systems, 1998, 34(1): 103-123 [22] Ristic B, Arulampalam S, Gordon N. Beyond the Kalman Filter: Particle Filters for Tracking Applications. London: Artech House, 2004. 24-28 [23] Boers Y, Driessen J N. Interacting multiple model particle filter. IEE Proceedings - Radar, Sonar and Navigation, 2003, 150(5): 344-349 [24] Ristic B, Vo B N, Clark D, Vo B T. A metric for performance evaluation of multi-target tracking algorithms. IEEE Transactions on Signal Processing, 2011, 59(7): 3452-3457 期刊类型引用(3)
1. 莫雨静,王琳,尤鹏杰,王海涛. 基于IMM-BF的自适应扩张箱粒子机动目标跟踪算法. 无线电工程. 2024(08): 1908-1916 . 百度学术
2. 邬赟,陈天顺,谭文群,李金玲,华学阳. 基于粒子滤波的多径伯努利目标跟踪算法. 电脑知识与技术. 2021(22): 104-105 . 百度学术
3. 王颖. Singer-Kalman模型下的机动目标跟踪算法. 山东商业职业技术学院学报. 2021(04): 94-98 . 百度学术
其他类型引用(4)
-