Probabilistic Graphical Model for Robust Point Set Matching
-
摘要: 在概率图模型框架下提出了一种将回归分析和聚类分析相结合的贝叶斯点集匹配方法,其中,回归分析用来估计两个点集之间的映射函数,而聚类分析用来建立两个点集中点与点之间的对应关系.本文将点集匹配问题表示为一种多层的概率有向图,并提出了一种由粗到精的变分逼近算法来估计点集匹配的不确定性;此外,还利用高斯混合模型估计映射函数回归中的异方差噪声和场景点密度估计中离群点的分布;同时,引入转移变量建立起模型点集与场景点集之间的关系,并与离群点混合模型共同对场景点的分布进行估计.实验结果表明,该方法与其他点集匹配算法相比,在鲁棒性和匹配精度方面均达到了较好的效果.Abstract: In this work, we propose a combinative strategy of regression and clustering for point set matching problems under Bayesian framework, with regression for estimation of transformation and clustering for establishment of correspondence. The structure of matching problem is represented by a hierarchical graph model and the matching uncertainty is approximated by a coarse-to-fine variational inference algorithm. Furthermore, Gaussian mixture models are proposed for the density estimation of heteroscedastic regression noise and spurious outliers in the {scene}, and the isotropic or anisotropic covariance is imposed on each individual mixture component in terms of the transformed {model} points. Experimental results show that the proposed approach achieves comparable performance to the state-of-the-art matching algorithms in both robustness and accuracy.
-
视频信号在捕捉、记录和传输的过程中都可能引入噪声.引入的噪声严重降低视频画面质量, 影响观众的视觉体验.而视频去噪是将数字视频图像的特点与现有的信号处理技术相结合, 尽可能地降低视频图像中噪声干扰的一种多媒体信息处理技术.目前存在的大多数视频去噪算法的性能都不同程度地依赖于含噪视频中的噪声参数.虽然通过各种各样的算法, 可以达到很理想的去噪效果, 但大多数算法都有个假设前提, 即噪声强度是预先知道的[1-3].人为给定噪声参数或者噪声参数不准确, 都会导致去噪效果不理想.因此对于含噪视频的噪声参数估计是视频去噪研究中一个关键性问题.近年来, 图像去噪算法在空域和变换域等取得了较大发展.其中较为优秀的是Knaus等的基于空域和频域的双域滤波图像去噪算法[4], 去噪后的图像细节信息丰富, 但是需要设置与噪声有关的经验参数. Pierazzo等[5]利用非局部贝叶斯去噪替换了文献[4]中的引导层, 构造图像快速去噪算法, 但图片的适用性不高.为了实现视频噪声去除, 肖进胜等[6]将文献[4]和三维块匹配算法相结合将图像去噪拓展到了视频去噪领域, 主客观效果较好, 但对未知噪声水平时鲁棒性较差.另外Knaus等[7]基于双域滤波引入了鲁棒噪声估计, 部分解决了人为设定噪声值的问题. Dabov等[8]对视频图像进行3D稀疏变换后再滤波(Video block-matching and 3-D filtering, VBM3D), 取得了较优秀的去噪性能.但该算法耗时高, 且去噪视频存在块效应. Matteo等提出了VBM4D[9]算法, 该算法将VBM3D拓展到4维结构, 能更好地保存视频的细节.上述去噪算法均没有对噪声进行有效的估计, 对于未知噪声的视频序列不能获得其最佳的去噪效果.
高斯白噪声是视频图像采集中最常见的一种噪声, 针对该噪声的估计主要分为空域、时域和空时域[10]三种.空域法通常分为基于块[11-12], 基于滤波[13]和变换域三种方法[14]. Amer等[15]采用自适应平均的方法对所有块的方差进行选取和平均, 基于块进行噪声估计, 但该算法对平滑块的数量有严格的要求.基于图像块的算法估计结果受图像内容和噪声强度影响很大, 而Pyatykh等[16]提出的基于主成分分析(Principal component analysis, PCA)的方法则对含噪图像没有严格的要求, 且估计结果较精确.柳薇[17]利用PCA的思想对图像块进行噪声估计, 图像块的协方差矩阵最小特征值作为噪声方差的估计值, 该方法无需图像含有许多同种类区域. Aditya等[18]是一种基于奇异值分解的比较稳定的噪声估计方法, 用奇异值的尾部数据进行噪声强度估计, 降低图像信息对噪声估计的干扰.而时域的方法主要考虑帧与帧之间的关系, 对视频的整体运动较难把握, 因此需要进行运动检测或者运动补偿. Yin等[19]提出基于运动估计的视频噪声估计算法, 考虑到了视频编码, 该算法能对各类型的视频信号进行准确的估计.目前主要有算法[10, 20-21]利用了时空域的信息对视频噪声估计, Zlokolica等[20]主要用小波变换系数对空时域进行分析, 然而该方法计算复杂性较高. Ghazal等[10]利用5个域来探索空时域的信息, 每个域的局部相似性主要利用了高斯拉普拉斯算子, 该算法估计效果较好. Yang等[21]利用Sobel梯度作为同种类块的衡量标准, 利用了3个域进行噪声估计, 计算复杂性降低.总体上说, 噪声估计算法的效果都有待提高.
考虑到PCA对含噪图像和噪声类型的鲁棒性, 本文提出一种基于PCA的分块视频噪声估计.本文所提出的方法有如下创新: 1)首先通过前后帧块匹配寻找相似块, 充分利用了视频序列的相关性, 并进行前后帧的差分运算以消除视频运动的影响. 2)使用正态分布函数作为选择弱纹理块的阈值函数, 使得计算复杂度降低, 同时简化了算法模型. 3)设置了明确的迭代指标, 使得最终结果更加精确.通过理论分析和实验结果表明本文的视频噪声估计算法具有较大的应用范围, 成功的运用于盲视频去噪.
1. 基于PCA的图像噪声估计
文献[14]提出的基于PCA的图像噪声水平估计算法, 对于纹理信息丰富的噪声图, 基于PCA的噪声估计会高估其噪声水平.若先选择噪声图中的弱纹理块, PCA则可以精确地估计出噪声水平, 因此本文算法首先选择含噪图中的弱纹理块, 再基于弱纹理块估计图像的噪声水平.含噪图像块模型为
$ \begin{equation} \label{eq1} {y_i}={z_i}+{n_i} \end{equation} $
(1) 其中, $z_i$是原始图像第$i$个矢量块, $y_i$是观测到的矢量块, $n_i$是零均值高斯噪声.图像块可以认为是欧氏空间的数据, 利用PCA计算最小方差向量.协方差矩阵定义如下:
$ \begin{equation} \label{eq2} \Sigma_y=\frac{1}{M}\sum\limits_{i=1}^{N}(y_i-\mu)(y_i-\mu )^{\rm T} \end{equation} $
(2) 其中, $M$是数据数目, $\mu$是数据集$y_i$的平均数.投影到最小方差方向数据的方差与协方差矩阵最小特征值相等, 可得到下述公式:
$ \begin{equation} \label{eq3} \lambda_{\min}(\Sigma_y)=\lambda_{\min}(\Sigma_z)+\sigma_n^2 \end{equation} $
(3) $\Sigma_y$和$\Sigma_z$分别指噪声块y和不含噪块z的协方差矩阵, $\lambda_{\min}$表示最小特征值.对于一般的图像块, $\lambda_{\min}(\Sigma_z)$是未知的.弱纹理块只适用于低维子空间, 它的协方差矩阵的最小特征值约为零, 对于弱纹理块噪声水平$\hat{\sigma }_{n}^{2}$可以简化为
$ \begin{equation} \label{eq4} \hat{\sigma }_{n}^{2}={{\lambda}_{\min }}({{\Sigma }_{y'}}) \end{equation} $
(4) ${{\sum }_{y'}}$为噪声图中所有弱纹理块的协方差矩阵.因此, 只要从噪声图像中选择出弱纹理块就能估计出噪声水平.梯度协方差矩阵能反应出图像的纹理信息, $N\times N$的含噪图像块$n$表示成列向量形式为${{N}^{2}}\times 1$.若${{D}_{h}}$和${{D}_{v}}$是由3阶滤波算子构造的水平和垂直方向的算子, 均为${{N}^{2}}\times {{N}^{2}}$的常对角矩阵, 从而梯度矩阵为
$ \begin{equation} \label{eq5} {{G}_{n}}=[{{D}_{h}}n\quad {{D}_{v}}n] \end{equation} $
(5) 梯度协方差矩阵$C_n=G_n^{\rm T} G_n$的期望为
$ \begin{align} \label{eq6} {\rm E}({{C}_{n}})=\left[\begin{matrix} {\rm E}({{n}^{\rm T}}D_{h}^{\rm T}{{D}_{h}}n)&0 \\ 0&{\rm E}({{n}^{\rm T}}D_{v}^{\rm T}{{D}_{v}}n) \\ \end{matrix} \right] \end{align} $
(6) 含噪块的梯度矩阵如下(其中${z_f}$是不含噪的平坦块)
$ \begin{align} \label{eq7} {{G}_{y}}=\, &[{{D}_{h}}({{z}_{f}}+n)\ {{D}_{v}}({{z}_{f}}+n)]=\nonumber\\ &[D_h n \ D_v n]=G_n \end{align} $
(7) 对角线的元素有相同的特性, 设
$ \begin{equation} \label{eq8} \varepsilon(n) ={{n}^{\rm T}}D_{h}^{\rm T}{{D}_{h}}n+{{n}^{\rm T}}D_{v}^{\rm T}{{D}_{v}}n \end{equation} $
(8) $\varepsilon (n)$的生成函数决定了其分布[15], 且$\varepsilon(n)$的生成函数与伽马(Gamma)分布的生成函数形式一致, 因此对应的Gamma分布的形状参数$\alpha$和尺度参数$\beta $, 分别为
$ \begin{equation} \label{eq9} \begin{cases} \alpha =\displaystyle\frac{N^2}{2} \\[2mm] \beta =\displaystyle\frac{2}{N^2} \sigma_n^2{\rm tr}(D_h^{\rm T} D_h+D_v^{\rm T} D_v) = 2\sigma_n^2 \\ \end{cases} \end{equation} $
(9) 该算法主要通过Gamma函数来逼近从而求得最终的阈值函数, 但Gamma函数形式较复杂, 不利于广泛的应用.同时原算法文献[14]中设置经验的迭代次数作为迭代停止条件, 虽然效果不错, 但始终存在适应性[22-23]的隐患.
2. 基于正态分布阈值的视频噪声估计
本文视频噪声估计算法首先通过前后帧块匹配寻找相似块, 对匹配效果最佳的块(弱纹理块)进行噪声估计, 并进行前后帧的差分运算以消除视频运动的影响.其次修改了选择弱纹理块的阈值函数, 使得判断标准更加精确, 减少图像纹理信息对估计结果的干扰.
2.1 基于帧间块匹配的视频噪声估计
视频图像序列前后两帧图像在时间上具有很强的相关性.原本拥有很多纹理和细节信息的块, 如果它在前后两帧具有较强的相关性, 那么差分的结果仍然会产生一个平滑块, 降低了图像信息对噪声估计的影响, 同时降低了噪声水平对估计结果的影响.算法首先对当前帧图像进行块划分, 然后对于每一图像块在前一帧图像内进行块匹配寻找相似块, 并根据最小代价得到最佳匹配块, 所有块与最佳匹配块的差值块合并得到帧间差分图像, 接下来将差分图像作为原始含噪图像进行噪声估计.较朱磊等[24]对整幅图像进行差分运算, 本文算法的效率和精确度得到了提高.
假设观察到的视频图像为
$ \begin{equation} \label{eq10} I(i, j, n)=S(i, j, n)+N(i, j, n) \end{equation} $
(10) 其中, $S(i, j, n)$为原始不含噪的视频帧, $N(i, j, n)$为噪声信号, $n$为帧编号, $i$, $j$是像素坐标.经过块匹配, 我们选择的是匹配效果最佳的块(弱纹理块)进行噪声估计.通过选择弱纹理块, 降低了图像纹理对噪声估计的干扰, 对于最佳匹配块有:
$ \begin{equation} \label{eq11} S(i, j, n)=S({{i}^\prime}, {{j}^\prime}, n+1) \end{equation} $
(11) 此时的差分图像可以表示为:
$ \begin{align} \label{eq12} D(i, j, n)=\, &I(i, j, n)-I({{i}^\prime}, {{j}^\prime}, n+1)= \nonumber\\ &N(i, j, n)-N({{i}^\prime}, {{j}^\prime}, n+1) \end{align} $
(12) 假如原始图像的实际噪声方差为$\sigma _N^2$, 根据概率计算式(12)中差分图像的噪声方差$\sigma _D^2$有:
$ \begin{equation} \label{eq13} \sigma _{D}^{2}=2\sigma _{N}^{2} \end{equation} $
(13) 因此, 如果原始图像中前后两帧的最佳匹配块足够接近, 那么差分图像块将会变为平滑块, 该平滑块的方差可以认为是噪声造成的, 可以用式(13)进行噪声方差的估计.
2.2 基于正态分布的阈值函数
对于伽马(Gamma)分布, 通过如下图 1所示可以得到:当形状参数$\alpha $越大其峰值越远离$Y$轴, 同时越逼近正态分布.当$\alpha$为正整数时, 分布可看作$\alpha $个独立的指数分布之和, 当$\alpha $趋向于较大数值时, 分布近似于正态分布.普通参数的Gamma分布可以看作多个独立的Gamma分布之和.按照中心极限定理, 独立同分布的随机变量之和趋于正态分布[25].
由图 1, $\alpha $, $\beta$的变化也可看出当$\alpha$足够大时Gamma分布近似正态分布.通过计算可以得到:
$ \begin{eqnarray*} \label{eq14} \underset{\alpha \to \infty }{\mathop{\lim}}\Gamma(\alpha, \beta ) =N(\mu, {{\sigma }^{2}}), \mu=\alpha \beta, \sigma ^2=\alpha \beta ^2 \end{eqnarray*} $
(14) 由于梯度算子的大小只与块的大小有关, 不受含噪图像的影响, 因此当用3阶滤波算子时, 水平和垂直梯度算子为常矩阵, $D_{h}^{\rm T}{{D}_{h}}+D_{v}^{\rm T}{{D}_{v}}$也为常矩阵.本文中, $\alpha$值为${N}^{2}/{2}$, 块的大小为5, 可以用正态分布近似Gamma分布, 于是由式(9)和(14)可得到正态分布的均值和方差为
$ \begin{equation} \label{eq15} \mu =\sigma_{n}^{2}{{N}^{2}}, {{\sigma }^{2}}=2{{N}^{2}}\sigma _{n}^{4} \end{equation} $
(15) 可得到本文的阈值为
$ \begin{equation} \label{eq16} \tau =\sigma _n^2{{F}^{-1}}(\delta, {{N}^{2}}, \sqrt{2}N) \end{equation} $
(16) 其中, $F^{-1}(\delta, \alpha, \beta)$是正态分布的逆累加分布函数, $\delta$是人为给定的显著性水平(本文为0.99).当显著性水平和噪声水平给定时, 阈值随之确定.这里经过推导简化了Gamma分布的形状参数$\alpha $和尺度参数$\beta$, 同时用正态分布替换了Gamma分布, 对算法的运算函数也进行了简化.而当图像块梯度协方差矩阵的最大特征值小于上述阈值时, 即为选定的弱纹理块, 再对图像中的弱纹理区域利用PCA进行噪声估计.实验结果表明当块大小小于5时, 同样可以达到较好的估计效果.改进的正态分布函数和Gamma分布的噪声估计准确度(单位: dB)对比如下表所示:
表 1 不同分布函数噪声估计对比Table 1 Comparison of noise estimation for different functionNoise level (dB) Lena Akiyo Bus Coastguard ${{\sigma }_{n}}=10$ Liu等[14] 9.68 9.88 9.69 9.79 ${{\sigma }_{n}}=10$ Proposed 9.86 9.79 9.97 9.93 ${{\sigma }_{n}}=20$ Liu等[14] 19.56 19.61 19.64 19.67 ${{\sigma }_{n}}=20$ Proposed 19.72 19.65 19.78 19.74 ${{\sigma }_{n}}=30$ Liu等[14] 29.54 29.54 29.13 29.59 ${{\sigma }_{n}}=30$ Proposed 29.65 29.81 29.50 29.67 ${{\sigma }_{n}}=40$ Liu等[14] 38.43 39.34 38.99 39.37 ${{\sigma }_{n}}=40$ Proposed 39.50 39.38 39.64 39.60 由上表可以看出, 替换后的函数估计效果更好.因此噪声估计采用的分布函数改为正态分布完全可行且取得更好的估计效果.大量实验结果表明迭代次数达到6次时, 噪声水平可基本达到稳定.但是为了进一步提高噪声估计算法的稳定性, 对于迭代次数的设置, 本文采用经验次数和前后两次噪声估计水平的差值比例也可确定来决定迭代停止条件.下面将讨论一下针对不同噪声水平, 改进算法相对于其他算法噪声估计的效果.当噪声强度小于10 dB时, 大部分图像算法的有效性都会降低, 但Shin等[26]算法例外, 它仅在低噪环境下工作稳定可靠.由于Shin等提出的自适应高斯滤波的算法只适用于低噪环境, 因此仅在$\sigma<15$的情况下比较Liu等[14]、Pyatykh等[16]、Shin等[26]和本文算法的实验结果.在低噪声强度下噪声估计对比结果如图 2所示, 噪声估计的误差定义为$\delta (\sigma )=|\hat{\sigma }-\sigma |$ (dB).分别选取了Lena (含有细节较少)和Baboon (含有细节较多)等图片进行测试.由图可以看出本文算法比Pyatykh等[16]、Aditya等[18]和Shin等[26]误差较小.对于Liu等[14], 本文算法在$\sigma <10$时也明显误差较小.当图像含有复杂的纹理结构, 图像块的最小特征值大于0, 估计误差较大.由图 2 (a)和(b)对比看出, 细节较少的图片噪声估计更为精确.本文算法的噪声强度估计结果对细节较少和细节较多的图片均较对比算法精确, 说明本文的噪声估计算法在低噪条件下有较高的准确性.
在较高噪声水平情况下, Pyatykh等[16]是目前广为应用的基于主成分分析的噪声估计方法, 有较高的精确性和较快的速度.由曲线图可以看出, Pyatykh等[16]估计误差随着噪声水平增加, 当误差大于40 dB时逐渐减小, Aditya等[18]估计误差相对较稳定, Liu等[14]算法估计误差较小, 本文算法估计误差比这3种算法小.因此, 本文算法在高噪声水平下对噪声的估计结果较其他算法精确, 受噪声强度的影响较小.通常一段视频噪声的分布是均匀的, 每帧的噪声水平是类似的.考虑到视频噪声的突变情况, 本文在对视频进行噪声估计时, 利用前后帧信息和PCA得到当前帧的噪声水平, 因此当下一帧出现噪声突变时, 对估计结果没有影响.
2.3 算法整体流程
本文视频噪声估计算法首先通过前后帧块匹配寻找相似块, 充分利用了视频序列的相关性, 并进行前后帧的差分运算以消除视频运动的影响.其次修改了选择弱纹理块的阈值函数, 用正态分布函数简化了计算复杂度降低.最后设置了明确的迭代指标, 使得估计结果更加精确.本文的视频噪声水平估计过程如下图 4所示:
3. 实验结果
为验证本文算法对视频进行噪声估计的效果, 使用两个CIF格式的标准测试视频, 两个测试视频为: Flowergarden和Football.算法运行环境为Windows XP, CPU-Intel Core i5-2500 K, 主频3.30 GHz, 内存3 GB, 32 bit.由于Shin等[26]数据取自原文, 因此本文对这两个测试视频同样加入均值为0, 标准差为20, 30, 40的高斯白噪声与算法Amer等[15]、Pyatykh等[16]、Liu等[14]进行对比. 图 5~图 7是本文算法和其他算法在视频序列前40帧不同噪声水平的估计误差, 对于不同的视频序列和噪声水平, 本文算法的估计误差较低.
PSNR和SSIM是两个比较常用的评价去噪效果的客观指标, 本文选用这两个指标来对VBM3D算法、PID算法、VBM4D算法和文献[6]算法加噪声估计进行对比.由于VBM3D和VBM4D未加入噪声估计, 因此测试程序中设定随机取真实值附近的噪声水平进行视频去噪.不同噪声水平下各算法的去噪效果的PSNR和SSIM对比如表 2所示:
表 2 VBM3D、PID、VBM4D和本文算法的PSNR和SSIM对比Table 2 The comparisons of PSNR and SSIM results of VBM3D, PID, VBM4D and proposed algorithmNoise level (dB) Algorithm Akiyo PSNR/SSIM Mobile PSNR/SSIM Flowergarden PSNR/SSIM Foreman PSNR/SSIM Football PSNR/SSIM ${{\sigma }_{n}}=10$ VBM3D 35.488/0.877 32.374/0.954 34.250/0.984 34.313/0.902 33.048/0.951 ${{\sigma }_{n}}=10$ PID 31.396/0.763 29.538/0.917 31.276/0.962 31.094/0.844 30.048/0.921 ${{\sigma }_{n}}=10$ VBM4D 30.290/0.730 29.727/0.915 29.972/0.842 30.078/0.813 29.833/0.923 ${{\sigma }_{n}}=10$ Proposed 37.842/0.944 32.454/0.972 33.675/0.983 36.295/0.938 33.488/0.960 ${{\sigma }_{n}}=20$ VBM3D 30.239 /0.715 27.653/0.897 29.444/0.961 29.587/0.786 28.171/0.868 ${{\sigma }_{n}}=20$ PID 26.011/0.836 24.572/0.833 25.945/0.896 25.937/0.675 24.889/0.793 ${{\sigma }_{n}}=20$ VBM4D 29.594/0.767 27.249/0.898 27.599/0.852 28.904/0.797 27.727/0.885 ${{\sigma }_{n}}=20$ Proposed 34.986/0.925 28.322/0.936 29.386/0.957 33.098/0.878 29.890/0.894 ${{\sigma }_{n}}=30$ VBM3D 27.463/0.609 25.025/0.853 26.611/0.932 26.934/0.698 25.406/0.783 ${{\sigma }_{n}}=30$ PID 23.051/0.815 21.803/0.769 22.895/0.825 23.017/0.565 21.929/0.676 ${{\sigma }_{n}}=30$ VBM4D 29.026/0.780 25.884/0.883 26.185/0.848 28.208/0.782 26.557/0.842 ${{\sigma }_{n}}=30$ Proposed 32.579/0.866 26.045/0.898 27.098/0.932 31.379/0.835 27.995/0.825 从表 2中的对比结果可以看出, 本文算法的PSNR和SSIM比VBM3D算法在大多数情况下高出很多, 主要是因为VBM3D处理过后像素值减小, 图像的亮度降低, 导致PSNR与SSIM均较低.对于Flowergarden视频序列, 本文客观效果在噪声水平较低情况下比VBM3D略低, 主要因为在对视频去噪时, 本文指定的是真实噪声水平利用VBM3D进行测试, 而实际情况中并不可能准确获取图像的真实噪声水平. PID算法中加入了噪声估计, 但综合而言, 本文的客观指标在各种噪声水平均比PID略高.上述表格表明, 本文算法与VBM3D、PID、VBM4D进行对比时, 客观效果优势较明显.因此说明本文算法不仅去除了图像中的噪声, 而且较好地保持了图像本身结构的信息, 去噪效果较为优秀, 同时加入了噪声估计应用范围更广.
4. 结论
本文提出了一种新颖的视频噪声估计算法, 充分利用了视频序列的相关性, 利用帧间进行相似块的搜索, 基于最小代价准则获得帧间的差分图像, 消除了视频运动的影响, 得到初步的弱纹理差分图像:引入基于块的噪声估计, 能自适应地获取噪声水平参数, 并提出正态分布函数作为文中选择弱纹理块的阈值函数, 降低了计算复杂度, 另设置了明确的迭代指标使得估计的噪声水平更加精确.最后考虑像素会受到噪声饱和效应的影响, 避免了在高噪声水平下的低估现象.通过理论分析和实验结果表明本文提出的视频噪声估计算法估计精确, 可运用到盲视频去噪领域, 具有广阔的应用前景.
-
[1] Caetano T S, Caelli T, Schuurmans D, Barone D. Graphical models and point pattern matching. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10):1646-1663 [2] [2] Cootes T F, Taylor C J, Cooper D H, Graham J. Active shape modelstheir training and applications. Computer Vision and Image Understanding, 1995, 61(1):38-59 [3] [3] Czogiel I, Dryden I, Brignell C. Bayesian matching of unlabeled marked point sets using random fields with application to molecular alignment. Annals of Applied Statistics, 2011, 5(4):2603-2629 [4] [4] Schmidler S C. Fast Bayesian shape matching using geometric algorithms. Bayesian Statistics, 2007, 8:471-490 [5] [5] Pilet J, Lepetit V, Fua P. Real-time non-rigid surface detection. In:Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, USA:IEEE, 2005. 822-828 [6] [6] Simpson I J A, Schnabel J A, Groves A R, Andersson J L R, Woolrich M W. Probabilistic inference of regularisation in non-rigid registration. NeuroImage, 2012, 59(3):2438-2451 [7] [7] Gu L, Kanade T. A generative shape regularization model for robust face alignment. In:Proceedings of the 10th European Conference on Computer Vision. Marseille, France:Springer, 2008. 413-426 [8] [8] Wamelen P B V, Li Z, Iyengar S. A fast expected time algorithm for the 2-D point pattern matching problem. Pattern Recognition, 2004, 37(8):1699-1711 [9] Zhou Zhi-Yong, Li Li-Hua, Zheng Jian, Kuai Duo-Jie, Hu Su, Zhang Tao. Point sets non-rigid registration using student's-t mixture model with spatial constraints. Acta Automatica Sinica, 2014, 40(4):683-696(周志勇, 李莉华, 郑健, 蒯多杰, 胡粟, 张涛. 含局部空间约束的t分布混合模型的点集配准. 自动化学报, 2014, 40(4):683-696) [10] Besl P J, McKay N D. A method for registration of 3-D shapes. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1992, 14(2):239-256 [11] Lu C P, Mjolsness E. Two-dimensional object localization by coarse-to-fine correlation matching. Advances in Neural Information Processing Systems, 1994, 6:985-992 [12] Zhang Z. Iterative point matching for registration of freeform curves and surfaces. International Journal of Computer Vision, 1994, 13(2):119-152 [13] Lowe D G. Object recognition from local scale-invariant features. In:Proceedings of the 7th International Conference on Computer Vision. Kerkyra, Greece:IEEE, 1999, 2:1150 -1157 [14] Bay H, Tuytelaars T, van Gool L. SURF:speeded up robust features. In:Proceedings of the 9th European Conference on Computer Vision. Graz, Austria:Springer, 2006. 404-417 [15] Pachauri D, Kondor R, Singh V. Solving the multiway matching problem by permutation synchronization. Advances in Neural Information Processing Systems, 2013, 26:1860-1868 [16] Pizarro D, Bartoli A. Feature-based deformable surface detection with self-occlusion reasoning. International Journal of Computer Vision, 2012, 97(1):54-70 [17] Zhao J, Ma J Y, Tian J W, Ma J, Zhang D Z. A robust method for vector field learning with application to mismatch removing. In:Proceedings of the 2011 Computer Vision and Pattern Recognition. Colorado Springs, USA:IEEE, 2011. 2977-2984 [18] Mardia K V, Nyirongo V B, Fallaize C J, Barber S, Jackson R M. Hierarchical Bayesian modelling of pharmacophores in Bioinformatics. Biometrics, 2011, 67(2):617-619 [19] Mardia K V, Fallaize C J, Barber S, Jackson R M, Theobald D L. Bayesian alignment of similarity shapes. Annals of Applied Statistics, 2013, 7(2):989-1009 [20] Liu Y. Automatic 3D free form shape matching using the graduated assignment algorithm. Pattern Recognition, 2005, 38(10):1615-1631 [21] Tsin T, Kanade T. A correlation-based approach to robust point set registration. In:Proceedings of the 8th European Conference on Computer Vision. Prague, Czech:Springer, 2004. 558-569 [22] Chui H, Rangarajan A. A new point matching algorithm for non-rigid registration. Computer Vision and Image Understanding, 2003, 89(2-3):114-141 [23] Jian B, Vemuri C C. Robust point set registration using Gaussian mixture models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8):1633-1645 [24] Ma J Y, Zhao J, Tian J W, Tu Z W, Yuille A. Robust estimation of nonrigid transformation for point set registration. In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, Ohio, USA:IEEE, 2013. 2147-2154 [25] Myronenko A, Song X. Point set registration:coherent point drift. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(12):2262-2275 [26] Horaud R P, Forbes F, Yguel M, Dewaele G D, Zhang J. Rigid and articulated point registration with expectation conditional maximization. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3):587-602 [27] Almhdie A, Lger C, Deriche M, Lde R. 3D registration using a new implementation of the ICP algorithm based on a comprehensive lookup matrix:application to medical imaging. Pattern Recognition Letters, 2007, 28(12):1523-1533 [28] Dorai C, Wang G, Jain A, Mercer C. From images to models:automatic 3D object model construction from multiple views. In:Proceedings of the 13th International Conference on Pattern Recognition. Vienna, Austria:IEEE, 1996. 770-774 [29] Hahnel D, Thrun S, Burgard W. An extension of the ICP algorithm for modelling nonrigid objects with mobile robots. In:Proceedings of the 18th International Conference on Artificial Intelligence. Acapulco, Mexico:Morgan Kaufmann, 2003. 915-920 [30] Liu Y. Automatic registration of overlapping 3D point clouds using closest points. Image and Vision Computing, 2006, 24(7):762-781 [31] Chui H, Rangarajan A. A feature registration framework using mixture models. In:Proceedings of the 2000 IEEE Workshop on Mathematical Methods in Biomedical Image Analysis. Hilton Head Island, USA:IEEE, 2000. 190-197 [32] Hou S, Galata A. Robust estimation of Gaussian mixtures from noisy input data. In:Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, Alaska, USA:IEEE, 2008. 1-8 [33] Govindu V M, Werman M. On using priors in affine matching. Image and Vision Computing, 2004, 22(14):1157-1164 [34] Hastie T J, Tibshirani R J. Generalized Additive Models. London, UK:Chapman and Hall, 1990. [35] D'Souza A, Vijayakumar S, Schaal S. The Bayesian backfitting relevance vector machine. In:Proceedings of the 21st International Conference on Machine Learning. Banff, Alberta, Canada:ACM, 2004. 31 [36] Hu B G, Qu H B, Wang Y, Yang S H. A generalized-constraint neural network model:associating partially known relationships for nonlinear regression. Information Sciences, 2009, 179(12):1929-1943 [37] Qu H B, Hu B G. Variational Bayes inference for generalized associative functional networks. In:Proceedings of the 2007 International Joint Conference on Neural Networks. Orlando, FL, USA:IEEE, 2007. 184-189 [38] Roberts S J, Penny W D. Variational Bayes for generalized autoregressive models. IEEE Transactions on Signal Processing, 2002, 50(9):2245-2257 [39] Bishop C M. Pattern Recognition and Machine Learning. Spring Street, NY:Springer, 2006. [40] Beal M J. Variational Algorithms for Approximate Bayesian Inference [Ph.D. dissertation], University of Cambridge, UK, 2003. [41] MacKay D J C. Bayesian non-linear modeling for the prediction competition. Maximum Entropy and Bayesian Methods, 1996, 62:221-234 [42] Lawrence N D, Bishop C M. Variational Bayesian Independent Component Analysis. Technical Report, Computer Laboratory, University of Cambridge, UK, 2000. [43] Beal M, Ghahramani Z. The variational Bayesian EM algorithm for incomplete data:with application to scoring graphical model structures. Bayesian Statistics, 2003, 7:453 -464 [44] Choudrey R A. Variational Methods for Bayesian Independent Component Analysis [Ph.D. dissertation], University of Oxford, UK, 2002. [45] Hensman J, Rattray M, Lawrence N. Fast variational inference in the conjugate exponential family. Advances in Neural Information Processing Systems, 2012, 25:2897-2905 [46] Valpola H, Honkela A. Hyperparameter Adaptation in Variational Bayes for the Gamma Distribution. Technical Report, Laboratory of Computer and Information Science, Helsinki University of Technology, FI, 2006. [47] Kaji D, Watanabe S. Two design methods of hyperparameters in variational Bayes learning for Bernoulli mixtures. Neuralcomputing, 2011, 74(11):2002-2007 [48] Bergstra J B, Bengio Y. Random search for hyperparameter optimization. Journal of Machine Learning Research, 2012, 13(1):281-305 期刊类型引用(8)
1. 董良振,田建艳,杨胜强,陈海滨. 基于光照校正和图像融合的零件表面图像增强. 计算机工程. 2024(06): 245-254 . 百度学术
2. 王琛,张凌云,刘波,张航. 基于无人机图像的城市道路停车巡检方法. 交通信息与安全. 2024(04): 90-101 . 百度学术
3. 徐少平,林珍玉,陈孝国,李芬,杨晓辉. 采用多通道浅层CNN构建的多降噪器最优组合模型. 自动化学报. 2022(11): 2797-2811 . 本站查看
4. 苏素平,李虹,孙志毅,孙前来,王银. 无人机图像的输电线断股检测方法研究. 太原科技大学学报. 2021(01): 32-36 . 百度学术
5. 索岩,崔智勇. 基于中国剩余定理的高动态图像可逆数据隐藏. 计算机仿真. 2021(01): 167-171 . 百度学术
6. 张媛媛,张红英. 结合饱和度调节的单曝光HDR图像生成方法. 吉林大学学报(理学版). 2021(02): 309-318 . 百度学术
7. 曹义亲,何恬,刘龙标. 基于改进LSD直线检测算法的钢轨表面边界提取. 华东交通大学学报. 2021(03): 95-101 . 百度学术
8. 吴卓钊,范科峰,莫玮. 多尺度权重评估的MSRCR混合曝光成像算法. 计算机工程与应用. 2021(17): 224-229 . 百度学术
其他类型引用(14)
-
计量
- 文章访问数: 2139
- HTML全文浏览量: 171
- PDF下载量: 2034
- 被引次数: 22