-
摘要: 针对现有在线笔迹匹配算法鲁棒性不强的问题,本文提出将合并规则和跳跃规则引入到动态规划的迭代过程,以跳跃规则应对书写中的多、漏笔现象,以合并规则应对因多种书写不一致造成的分割点多提取、漏提取现象.在累计差异矩阵计算中,提出以笔画特征,特别是笔画形状信息来度量笔画间的差异.在SVC2004和SUSIG签名数据库上与现有主要在线笔迹匹配算法进行比较.实验结果表明,本文方法能较好应对多种局部书写和分割的不一致,从而获得更准确、鲁棒的笔画对应关系.Abstract: To solve the robustness problem of online handwriting matching, a novel method is proposed in which the jumping and merging rules are introduced to the iterative step of dynamic programming. Specifically, jumping rules are used to deal with the superfluous and loss strokes while merging rules are used to deal with inconsistent handwriting segmentation caused by jerk, hesitating, compound-strokes, etc. In calculation of the cumulative difference matrix, a new measurement is proposed in which stroke shape information is applied to measuring stroke differences. The matching results calculated by the proposed method are compared to those of the existing main methods on SVC2004 and SUSIG public signatures databases. It is shown that the new method can obtain better accuracy and more robust stroke correspondence with respect to various local writings and segmentation inconsistency.
-
混响环境下的声源定位技术在很多领域有着广泛并且极其重要的应用, 例如, 在室内服务机器人或者视频会议系统中, 语音识别、语音增强和助听器装置等方面的应用.
在各种复杂环境下, 人耳都能精确地进行声源定位.这一事实表明可以通过模仿人耳听觉系统的机制, 实现有效的人工双耳声源定位[1-2].基于生理科学以及物理科学的研究都表明, 听觉定位中的全部线索形成于声波从声源到鼓膜之间的传递过程之中[3].主要的定位线索是声波到达双耳时的时间差(Interaural time difference, ITD)、强度差(Interaural level difference, ILD)以及声波中包含的频率成分[4-5], 这些要素可以统一用头部相关传递函数(Headrelated transfer function, HRTF)来描述.定位所包含的信息形成是在耳膜以前完成的, 因而HRTF包含了所有物理上的定位信息[6].头部脉冲响应(Headrelated impulse response, HRIR)是HRTF的时域表示.混响环境下, 双耳房间脉冲响应(Binaural room impulse response, BRIR)是通过HRIR与房间脉冲响应(Room impulse response, RIR)卷积获取, 表示从声源到左右耳接收信号的脉冲响应.目前有很多定位算法都是通过最大化双耳互相关值[7], 或者是ITD/ILD估计来确定声源的位置[8-9].虽然这些方法在无干扰环境下有很好的定位效果, 但是在混响环境下的定位性能急剧下降[10-12].Stèphenne等[13]提出在提取ITD前采用倒谱预滤波方法, 有效地减少了混响对声源定位的影响.该算法对接收信号进行最小相位分解消去混响分量[14], 提高了双耳声源定位方法对混响的鲁棒性.Mosayyebpour等[15]在Stèphenne的基础上改进了广义互相关算法提取ITD.然而, 接收信号的倒谱参数主要体现语音的基音和共振峰特性, 大多用于语音识别中, 并不能反映HRTF方位信息的特征[16], 而且在倒谱域中会丢失相位信息, 以致丢失ITD的信息, 造成声源定位误差.
本文提出了一种基于倒谱BRIR的双耳互相关声源定位算法.仿真实验证明, 该算法在混响环境下具有更好的定位效果.
1. 系统模型
在混响环境下, 左右耳接收到的信号在离散时间域表示为
${{x}_{l}}\left( n \right)=s\left( n \right)*{{h}_{l}}\left( n \right)+{{n}_{l}}\left( n \right)$
(1) ${{x}_{r}}\left( n \right)=s\left( n \right)*{{h}_{r}}\left( n \right)+{{n}_{r}}\left( n \right)$
(2) 式中, ${h_i}\left( n \right)$为双耳房间脉冲响应, 包含了所有的混响成分, $s\left( n \right)$表示声源信号, ${n_i}\left(n \right)$表示加性噪声, 通常为一个与源信号不相关的、零均值的平稳高斯随机噪声.
2. 倒谱预处理
离散信号$x\left( n \right)$的倒谱形式表示为
$\hat{x}\left( k \right)={{F}^{-1}}\left\{ \log X\left( W \right) \right\}$
(3) 式中, $X\left( W \right)$为$x\left( n \right)$的傅里叶变换, ${F^{ -1}}\left\{ \cdot\right\}$为反傅里叶变换, $\log$是对数运算, $k$是倒谱域变量.在时域中, 信号的卷积在倒谱域相当于信号相加.
${{\hat{x}}_{i}}\left( k \right)={{\hat{h}}_{i}}\left( k \right)+{{\hat{n}}_{i}}\left( k \right)+\hat{s}\left( k \right)$
(4) 式中, ${\widehat h_i}\left( k \right)$和$\widehat s\left( k\right)$分别是脉冲响应和声源信号的倒谱. ${\widehat n_i}\left( k\right)$是加性噪声的倒谱, 可表示为
\begin{align} {\widehat n_i}\left( k \right) = {F^{ - 1}}\left\{ {\log \left\{ {1 + \frac{{{N_i}\left( W \right)}}{{{H_i}\left( W \right)S\left( W \right)}}} \right\}} \right\} \end{align}
(5) 式中, ${N_i}(W)$, ${H_i}(W)$和$S(W)$分别为${n_i}(n)$, ${h_i}(n)$和$s(n)$的傅里叶变换.为后文分析方便, 假设背景噪声足够低, 忽略噪声的影响.但在评价定位性能时包括噪声的影响.
在倒谱域中, 脉冲响应${\widehat h_i}\left( k\right)$可由一个最小相位分量(Minimum-phase component, MPC)${\widehat h}_{i,mpc}\left( k \right)$和一个全通分量${{\hat{h}}_{i,apc}}\left( k \right)$级联组成.式(4)可以表示为
\begin{align} {\widehat x_i}\left( k \right) = {\widehat h}_{i,mpc}\left( k \right) + {\widehat h}_{i,apc}\left( k \right) + {\widehat n_i}\left( k \right)+ \widehat s\left( k \right) \end{align}
(6) 倒谱滤波是在每一帧的基础上进行的, 假设声源信号的倒谱MPC是在帧与帧之间变化的, 而且均值为零.信道倒谱MPC是缓慢变化的, 可以通过时间平均获取.
3. 基于倒谱BRIR的互相关法
为了避免倒谱法的不足以及接收信号倒谱对定位的作用, 并且充分体现HRTF中的定位信息, 本文在文献[13]中Stèphenne算法的基础上提出基于倒谱BRIR的双耳互相关声源定位算法.
3.1 倒谱BRIR互相关法
基于倒谱BRIR的双耳互相关声源定位的基本步骤为:
步骤1.在接收信号${x_l}\left( n \right)$和${x_r}\left(n \right)$的每一帧上加上指数窗$\omega \left( n \right) = {\alpha^n}$, $0 \le n \le K - 1$, 其中$K$是窗长, $0 < \alpha \le 1$;
步骤2.对各信号进行倒谱处理, 并计算倒谱域接收信号和BRIR的最小相位分量
\begin{align} {\widehat h}_{i,mpc}\left( k \right) = \begin{cases} 0,&k < 0\\ {{\widehat h}_i}\left( 0 \right),&k = 0\\ {{\widehat h}_i}\left( k \right) + {{\widehat h}_i}\left({- k} \right),&k > 0 \end{cases} \end{align}
(7) 步骤3.通过连续信号帧递归获得估计的混响分量, 即${\overline h _{i,mpc}}\left({k;m} \right)$
\begin{align} {\overline h _{i,mpc}}\left( {k;m} \right) = \begin{cases} {{\widehat x}_{i,mpc}}\left( {k;m} \right),\qquad\qquad~~~m = 1\\ \left( {1 - \mu } \right){\widehat h}_{i,mpc}\left( k;m - 1 \right)+\\ \qquad \mu {{\widehat x}_{i,mpc}}\left( k;m \right),\quad~~~~~m >1 \end{cases} \end{align}
(8) 其中, $0 < \mu < 1$, $m$表示帧数.
步骤4.从倒谱BRIR中减去混响分量, 得到去混后的倒谱BRIR, 即${\widetilde {{h}}_i}\left( {k;m} \right)$
\begin{align} {\widetilde {{h}}_i}\left( {k;m} \right) = {\widehat h_i}\left( {k;m} \right) - {\overline h _{i,mpc}}\left( {k;m} \right) \end{align}
(9) 步骤5.将${\widetilde {{h}}_i}\left( {k;m}\right)$变换到时域${h_{ei}}\left( n \right)$, 并与已知数据库中HRIR${h_i}\left( n \right)$进行互相关运算;
步骤6.设置适当的互相关阈值, 其中最大互相关值相对应的方位角即为所求.
3.2 倒谱BRIR互相关方位角估计
为了得到有效的倒谱预处理效果, 在倒谱预处理前, 为将$X\left( W\right)$的零极点移动到单位圆内, 在每一帧上加上一个指数窗函数.指数窗的目的是尽可能地集中最小相位分量, 以便尽可能多地减去混响分量, 减少混响对声源定位的影响.针对Stèphenne算法中接收信号的倒谱参数并不能反映HRTF方位信息的特征的问题, 在基于倒谱BRIR的互相关定位算法中得到${\widetilde {h}_i}\left( {k;m}\right)$后, 反变换到时域${h_{ei}}\left( n \right)$, 与数据库中选择的HRIR ${h_i}\left( {n,\theta }\right)$进行互相关运算.
$P\left( \theta \right)={{h}_{ei}}\left( n \right)\oplus {{h}_{i}}\left( n,\theta \right)$
(10) $\begin{align} & {{h}_{ei}}\left( n \right)=[{{h}_{el}}\left( {{n}_{a}} \right),\cdots ,{{h}_{el}}\left( {{n}_{b}} \right),\\ & {{h}_{er}}\left( {{n}_{a}} \right),\cdots ,{{h}_{er}}\left( {{n}_{b}} \right)] \\ \end{align}$
(11) $\begin{align} & {{h}_{i}}\left( n,\theta \right)=[{{h}_{l}}\left( {{n}_{a}},\theta \right),\cdots ,{{h}_{l}}\left( {{n}_{b}},\theta \right),\\ & {{h}_{r}}\left( {{n}_{a}},\theta \right),\cdots ,{{h}_{r}}\left( {{n}_{b}},\theta \right)] \\ \end{align}$
(12) 其中, $n \in \left\{ {{n_a},\cdots,{n_b}} \right\}$, $ \oplus $为互相关运算符号, 因此声源方位角为
$\hat{\theta }=\arg \underset{\theta }{\mathop{\max }} \left\{ P\left( \theta \right)\ge \gamma \right\}$
(13) $\gamma =\max \left\{ 0.95\cdot \max \left\{ P\left( \theta \right) \right\},0.5 \right\}$
(14) 考虑到噪声的影响, 选择阈值来确定频谱的峰值及相关声源位置.
4. 仿真实验及分析
本研究描述的系统直接引用CIPIC数据库中subject003仰角为0时的各个方位角的HRTF数据库, 其中采样率为44.1 kHz.使用PASCAL CHiMESpeech Separation and Recognition Challenge的语音信号建立语音库, 采样率为16 kHz, 16 bit的信号.双耳信号则为源信号与RIR和HRIR相卷积所得.
经验值数据如下: $\mu=0.08$, $\alpha$的取值取决于窗长$K$的值, $K=1 024$, 同时相对应的经验值$\alpha=0.994$.本实验分别在混响时间RT为0 s, 0.30 s, 0.50 s, 0.70 s, 0.90 s的混响环境下, 同时在信噪比(Signal noise ratio, SNR)为20 dB的环境下进行仿真实验.图 1~5是在不同混响时间下, 三种声源定位算法在方位角${15^\circ}$时的定位效果比较.其中, 图(a)表示的是文献[13]倒谱滤波后基于互相关时延估计定位法(CEP-CC-ITD), 图(b)表示的是文献15]倒谱滤波后基于广义互相关时延估计定位法(CEP-GCC-ITD), 图(c)表示基于倒谱BRIR的双耳互相关声源定位法(CEP-BRIR-CC).横坐标表示方位角, 纵坐标表示时间, 灰度深浅表示归一化互相关值的大小.${0^\circ}$表示声源在正前方, 正角度表示声源在右边, 负角度表示声源在左边.
从图 1~5可以看出, 在不同混响时间下, CEP-BRIR-CC声源定位法较CEP-CC-ITD和CEP-GCC-ITD声源定位法的图像能更突出地显示出方位角的位置.此外, 随着混响时间的增大, 图像显示越来越模糊, 定位精度有所降低, 但CEP-BRIR-CC声源定位法的图像依然比较稳定, 具有一定的鲁棒性.这是由于CEP-BRIR-CC声源定位法的互相关运算是比较两个脉冲响应的相似性, 克服了倒谱法中丢失ITD的缺点, 稳定性比较好, 而且避开了接收信号倒谱对定位的作用, 充分利用HRTF中的定位信息, 提高了在混响环境中的定位性能.
图 6所示为声源方位角${15^\circ }$时, 混响时间分别为0 s, 0.30 s, 0.50 s, 0.70 s, 0.90 s时, CEP-BRIR-CC、CEP-CC-ITD和CEP-GCC-ITD声源定位法的均方值误差图.从图 6可以看出, CEP-BRIR-CC声源定位法的均方值误差小于CEP-CC-ITD和CEP-GCC-ITD声源定位法的均方值误差, 表明CEP-BRIR-CC声源定位法估计的方位角与实际方位角的偏差更小, 具有更好的定位精度.
表 1是混响时间分别为0 s, 0.3 s, 0.5 s, 目标声源在方位角为${0^\circ }$, ${10^\circ }$, ${15^\circ}$, ${20^\circ }$, ${30^\circ }$和${35^\circ }$时, CEP-BRIR-CC、CEP-GCC-ITD和CEP-CC-ITD声源定位法的声源方位估计和绝对定位误差实验数据.由表 1中可知, CEP-BRIR-CC声源定位法在混响时间分别为0 s, 0.3 s, 0.5 s时的绝对定位误差平均值分别为0.165, 0.842, 1.17.CEP-GCC-ITD声源定位法在混响时间分别为0 s, 0.3 s, 0.5 s时的绝对定位误差平均值分别为0.553, 1.707, 2.728.CEP-CC-ITD声源定位法在混响时间分别为0 s, 0.3 s, 0.5 s时的绝对定位误差平均值分别为0.78, 1.94, 3.385.
从表 1可以看出, 在不同混响环境下, 两种方法的定位绝对误差随着混响时间的增大而增大; 在相同的混响环境下, CEP-BRIR-CC声源定位法定位误差相对较小.同时CEP-BRIR-CC声源定位法估计的声源方位角度的绝对误差都在${2^\circ}$范围以内.因为CEP-CC-ITD和CEP-GCC-ITD声源定位法都涉及到接收信号的倒谱和时延估计的互相关计算, 会对定位造成一定的影响.而CEP-BRIR-CC声源定位法很好地避免了这些问题, 具有更准确的定位精度和更好的鲁棒性.
表 1 在不同混响时间下三种定位方法的声源方位估计Table 1 Sound source azimuth estimation of three location methods in different reverberation time实际角度(°) 0 10 15 20 30 35 CEP-BRIR-CC
声源定位法RT=0s 估计角度(°) 0.08 10.24 15.06 20.23 30.15 35.23 绝对误差(°) 0.08 0.24 0.06 0.23 0.15 0.23 RT=0.3s 估计角度(°) 0.17 9.03 14.82 21.09 30.25 36.39 绝对误差(°) 0.17 0.97 1.18 1.09 0.25 1.39 RT=0.5s 估计角度(°) -0.29 8.79 13.67 18.69 30.69 36.87 绝对误差(°) 0.29 1.21 1.33 1.31 0.69 1.87 CEP-GCC-ITD
声源定位法RT=0s 估计角度(°) -0.08 10.67 15.92 20.86 30.42 35.37 绝对误差(°) 0.08 0.67 0.92 0.86 0.42 0.37 RT=0.3s 估计角度(°) 0.39 8.11 12.81 17.23 28.85 33.14 绝对误差(°) 0.39 1.89 2.19 2.77 1.14 1.86 RT=0.5s 估计角度(°) -1.69 7.06 11.91 16.14 28.15 32.06 绝对误差(°) 1.69 2.94 3.09 3.86 1.85 2.94 CEP-CC-ITD
声源定位法RT=0s 估计角度(°) 0.07 10.73 15.95 21.46 30.85 35.62 绝对误差(°) 0.07 0.73 0.95 1.46 0.85 0.62 RT=0.3 s 估计角度(°) 0.63 8.68 12.78 23.06 27.62 32.97 绝对误差(°) 0.63 1.32 2.22 3.06 2.38 2.03 RT=0.5s 估计角度(°) -2.06 6.12 11.66 15.89 26.85 38.77 绝对误差(°) 2.06 3.88 3.34 4.11 3.15 3.77 5. 真实场景实验分析
为验证算法的实际性能, 用两个麦克风连接同一计算机采集语音进行场景测试. 图 7为实验环境示意图.实验房间大小为2.2 m $\times$ 2.2 m $\times$ 3 m, 两个麦克风位置分别为$(0.8,0.5,1.3)$和$(1.04,0.5,1.3)$, 声源位置距离两麦克风连线中点1 m, 测试角度为$- {75^\circ}$~${75^\circ }$, 测试间隔为${15^\circ }$, 声源与麦克风在同一水平面上并且位于麦克风前方, 此房间的混响时间大约0.3 s.使用Adobe Audition进行语音采集, 信号采样率为16 kHz/s.
实验中对三种方法分别进行了多次测试, 统计的平均结果如表 2所示.从表 2可以看出, CEP-BRIR-CC、CEP-GCC-ITD和CEP-CC-ITD声源定位法在实际场景中的平均定位误差分别为${4.38^\circ}$, ${7.42^\circ }$和${8.72^\circ }$.CEP-BRIR-CC定位法的定位误差相对较小, 能够进行更准确的定位, 这一结论与理论计算趋势是一致的.与仿真结果相比, 真实场景下各定位法的定位误差都相对较大, 这是由于测试并非是在纯净环境下进行的, 实际环境中的信噪比问题有可能对实验造成一定的影响.
表 2 三种定位方法的统计结果Table 2 The statistical results of three localization methods角度
方法—60° —15° 0° 30° 45° 估计值 误差 估计值 误差 估计值 误差 估计值 误差 估计值 误差 CEP-BRIR-CC —54.8° 5.2° —19.6° 4.6° —3° 3° 35.2° 5.2° 41.1° 3.9° CEP-GCC-ITD —67.6° 7.6° —22.3° 7.3° 7.5° 7.5° 36.9° 6.9° 52.8° 7.8° CEP-CC-ITD —50.9° 9.1° —23.5° 8.5° 8.8° 8.8° 22.0° 8.0° 54.2° 9.2° 6. 结语
本文研究了一种在混响环境中声源定位方法, 在仿真和真实场景中建立了一个完整的声源定位系统模型.与CEP-GCC-ITD和CEP-CC-ITD声源定位法相比, 本文的CEP-BRIR-CC声源定位法有较高的定位精度, 且鲁棒性较好.然而, 如何在强混响环境下精确定位仍然是个难点.本文提出的方法虽然在混响环境下有一定的定位效果, 但计算量比较大, 还有很多可以改进的地方.同时该模型在如何进行运动声源定位和多源定位以及三维定位方面仍需继续探索研究.
-
表 1 $\beta$ 取值对平均匹配错误率(%)的影响
Table 1 Average matching error rate (%) for various values of $\beta$
β 平均匹配错误率 0.075 9.53 0.10 8.93 0.125 8.23 0.15 7.92 0.175 7.91 0.20 7.96 0.225 8.32 0.25 8.53 表 2 $\eta$ 取值对平均匹配错误率 (%) 的影响
Table 2 Average matching error rate (%) for various values of $\eta$
η 平均匹配错误率 0.05 8.26 0.075 8.07 0.10 7.91 0.125 7.99 0.15 8.03 1.175 8.57 表 3 $\alpha$ 取值对平均匹配错误率(%)的影响
Table 3 Average matching error rate (%) for various values of $\alpha$
α 平均匹配错误率 –0.5 12.13 0 11.26 0.5 10.54 1 9.56 1.5 8.33 2 7.06 2.5 7.31 3 7.91 3.5 8.42 4 8.79 表 4 不同合并规则对匹配错误率 (%) 的影响
Table 4 Average matching error rate (%) for different merging rule combination schemes
组合方案 合并规则序号集合 平均匹配错误率 方案 1 [a] 11.21 方案 2 [a] ~ [c] 8.33 方案 3 [a] ~ [e] 7.12 方案 4 [a] ~ [f ] 6.04 方案 5 [a] ~ [h] 6.52 方案 6 [a] ~ [j] 7.31 表 5 本文笔画差异度量方法与已有方法比较
Table 5 Comparison of the proposed stroke difference measurement method and the existing method
表 6 SVC2004的签名分组表
Table 6 SVC2004 signature group table
组号 签名组序号 1 3, 4, 6, 13, 15, 16, 27, 29, 31, 40 2 2, 5, 9, 11, 12, 14, 17, 18, 28, 30 3 1, 8, 19, 20, 22, 24, 25, 32, 36, 38 4 7, 10, 21, 23, 26, 33, 34, 35, 37, 39 表 7 SUSIG的签名分组表
Table 7 SUSIG signature group table
组号 签名组序号 1 9, 11, 13, 14, 16, 18, 19, 20, 23, 24, 25, 28, 36, 37, 46, 53, 54, 65, 69, 88, 105, 106, 113 2 1, 2, 4, 8, 10, 22, 39, 44, 55, 56, 67, 70, 71, 73, 80, 82, 84, 85, 90, 92, 93, 108, 109, 114 3 3, 21, 26, 38, 40, 53, 59, 61, 64, 66, 74, 76, 77, 83, 86, 89, 91, 94, 97, 99, 100, 101, 103, 111 4 15, 29, 32, 34, 42, 57, 58, 60, 62, 63, 64, 72, 75, 78, 79, 81, 87, 95, 96, 98, 107, 110, 115 表 8 在SVC2004和SUSIG上,本文方法与已有方法在4组笔迹上平均匹配错误率 (%) 比较
Table 8 Average matching error rate (%) comparison on four group signatures between our method and existing methods on SVC2004 and SUSIG
第 1 组 第 2 组 第 3 组 第 4 组 SVC2004 SUSIG SVC2004 SUSIG SVC2004 SUSIG SVC2004 SUSIG Cpalka et al.[30] 8.96 10.17 15.76 16.56 18.85 20.96 23.42 26.85 Barkoula et al.[25] 10.12 11.85 15.73 16.98 19.31 21.21 23.27 26.23 Mohammadi et al.[21] 9.54 10.32 16.53 17.34 20.14 24.44 25.21 29.45 Wang et al.[12] 8.72 9.97 16.23 17.85 20.81 20.64 24.83 23.80 Lee et al.[23] 8.14 9.07 15.13 17.57 19.62 25.17 27.04 28.12 Quan et al.[20] 19.14 20.18 26.31 26.21 31.25 30.47 35.21 34.19 Li et al.[22] 12.34 13.97 20.14 19.39 18.93 25.32 25.31 29.93 Hao et al.[24] 9.31 13.83 17.01 17.63 17.48 20.85 23.18 26.21 本文方法 4.56 5.48 5.14 6.52 5.57 7.41 8.89 10.32 -
[1] Mohammed R A, Nabi R M, Mahmood S M R, Nabi R M. State-of-the-art in handwritten signature verification system. In: Proceedings of the 2015 International Conference on Computational Science and Computational Intelligence. Las Vegas, NV: IEEE, 2015. 519-525 [2] Yu J, Wang Z F. A video, text, and speech-driven realistic 3-D virtual head for human-machine interface. IEEE Transactions on Cybernetics, 2015, 45(5): 991-1002 doi: 10.1109/TCYB.2014.2341737 [3] 李昕, 丁晓青, 彭良瑞. 一种基于微结构特征的多文种文本无关笔迹鉴别方法. 自动化学报, 2009, 35(9): 1199-1208 doi: 10.3724/SP.J.1004.2009.01199Li Xin, Ding Xiao-Qing, Peng Liang-Rui. A microstructure feature based text-independent method of writer identification for multilingual handwritings. Acta Automatica Sinica, 2009, 35(9): 1199-1208 doi: 10.3724/SP.J.1004.2009.01199 [4] 陈晓苏, 吴振华, 肖道举. 一种基于签名分段和HMM的离线中文签名验证方法. 自动化学报, 2007, 32(2): 205-210 http://www.aas.net.cn/CN/abstract/abstract13566.shtmlChen Xiao-Su, Wu Zhen-Hua, Xiao Dao-Ju. Off-line Chinese signature verification based on segmentation and HMM. Acta Automatica Sinica, 2007, 32(2): 205-210 http://www.aas.net.cn/CN/abstract/abstract13566.shtml [5] Liu Y S, Yang Z H, Yang L H. Online signature verification based on DCT and sparse representation. IEEE Transactions on Cybernetics, 2015, 45(11): 2498-2511 doi: 10.1109/TCYB.2014.2375959 [6] Parodi M, Gómez J C. Legendre polynomials based feature extraction for online signature verification. Consistency analysis of feature combinations. Pattern Recognition, 2014, 47(1): 128-140 [7] Nautsch A, Rathgeb C, Busch C. Bridging gaps: an application of feature warping to online signature verification. In: Proceedings of the 2014 International Carnahan Conference on Security Technology (ICCST). Rome, Italy: IEEE, 2014. 1-6 [8] 焦慧敏, 王党校, 张玉茹, 方磊. 基于书写摩擦力的签名识别方法. 自动化学报, 2011, 37(7): 883-890 http://www.aas.net.cn/CN/abstract/abstract17500.shtmlJiao Hui-Min, Wang Dang-Xiao, Zhang Yu-Ru, Fang Lei. Signature verification using handwriting friction force. Acta Automatica Sinica, 2011, 37(7): 883-890 http://www.aas.net.cn/CN/abstract/abstract17500.shtml [9] Pirlo G, Cuccovillo V, Impedovo D, Mignone P. On-line signature verification by multi-domain classification. In: Proceedings of the 14th International Conference on Frontiers in Handwriting Recognition (ICFHR). Heraklion, Greece: IEEE, 2014. 67-72 [10] 王梓合. 练习摹仿笔迹鉴定研究 [硕士学位论文], 西南政法大学, 中国, 2010.Wang Zi-He. Identification of Practicing Imitating Handwriting [Master dissertation], Southwest University of Political Science and Law, China, 2010. [11] Ansari A Q, Kour J. Uniform segmentation in online signature verification. In: Proceedings of the 2015 Annual IEEE India Conference. New Delhi, India: IEEE, 2015. 1-6 [12] Wang K Y, Wang Y H, Zhang Z X. On-line signature verification using segment-to-segment graph matching. In: Proceedings of the 2011 International Conference on Document Analysis and Recognition. Beijing, China: IEEE, 2011. 804 -808 [13] Wirotius M, Ramel J Y, Vincent N. Selection of points for on-line signature comparison. In: Proceedings of the 9th International Workshop on Frontiers in Handwriting Recognition (IWFHR). Tokyo, Japan: IEEE, 2004. 503-508 [14] 蔡洪滨, 施泽生, 范晓峰, 黄浩, 尹社广. 一种基于小波变换提取拐点的手写签名认证方法. 中国图象图形学报, 2003, 8(3): 261- 265 http://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB200303004.htmCai Hong-Bin, Shi Ze-Sheng, Fan Xiao-Feng, Huang Hao, Yin She-Guang. A handwritten signature verification method based on wavelet transform to pick up inflection points. Journal of Image and Graphics, 2003, 8(3): 261-265 http://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB200303004.htm [15] Cpalka K, Zalasiński M, Rutkowski L. A new algorithm for identity verification based on the analysis of a handwritten dynamic signature. Applied Soft Computing, 2016, 43: 47- 56 doi: 10.1016/j.asoc.2016.02.017 [16] Cpalka K, Zalasiński M. On-line signature verification using vertical signature partitioning. Expert Systems with Applications, 2014, 41(9): 4170-4180 doi: 10.1016/j.eswa.2013.12.047 [17] 郭宏, 金先级. 一种基于签名动态特征的特殊点提取算法. 武汉科技大学学报(自然科学版), 2001, 24(2): 186-188 http://www.cnki.com.cn/Article/CJFDTOTAL-YEKJ200102024.htmGuo Hong, Jin Xian-Ji. The extract algorithm of special points in signature based on dynamic information. Journal of Wuhan University of Science and Technology (Natural Science Edition), 2001, 24(2): 186-188 http://www.cnki.com.cn/Article/CJFDTOTAL-YEKJ200102024.htm [18] Brault J J, Plamondon R. Segmenting handwritten signatures at their perceptually important points. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1993, 15(9): 953-957 doi: 10.1109/34.232079 [19] 全中华. 基于动态手写签名的身份认证研究 [博士学位论文], 中国科学技术大学, 中国, 2007.Quan Zhong-Hua. A Study of the Authentication Based on Online Signatures [Ph.D. dissertation], University of Science and Technology of China, China, 2007. [20] Quan Z H, Ji H W. Aligning and segmenting signatures at their crucial points through DTW. In: Proceedings of the 2005 International Conference on Intelligent Computing. Hefei, China: Springer, 2005. 49-58 [21] Mohammadi M H, Faez K. Matching between important points using dynamic time warping for online signature verification [Online], available: http://www.cyberjournals.com/ Papers/Jan2012/01.pdf, June 24, 2016 [22] Li B, Zhang D, Wang K Q. Improved critical point correspondence for on-line signature verification. International Journal of Information Technology, 2006, 12(7): 45-56 http://cn.bing.com/academic/profile?id=179725273&encoded=0&v=paper_preview&mkt=zh-cn [23] Lee J, Yoon H S, Soh J, Chun B T, Chung Y K. Using geometric extrema for segment-to-segment characteristics comparison in online signature verification. Pattern Recognition, 2004, 37(1): 93-103 doi: 10.1016/S0031-3203(03)00229-2 [24] Hao F, Chan C W. Online signature verification using a new extreme points warping technique. Pattern Recognition Letter, 2003, 24(16): 2943-2951 doi: 10.1016/S0167-8655(03)00155-7 [25] Barkoula K, Economou G, Fotopoulos S. Online signature verification based on signatures turning angle representation using longest common subsequence matching. International Journal on Document Analysis and Recognition, 2013, 16(3): 261-272 doi: 10.1007/s10032-012-0193-9 [26] Zhang K, Pratikakis I, Cornelis J, Nyssen E. Using landmarks to establish a point-to-point correspondence between signatures. Pattern Analysis and Applications, 2000, 3(1): 69-75 doi: 10.1007/s100440050007 [27] Ansari A Q, Hanmandlu M, Kour J, Singh A K. Online signature verification using segment-level fuzzy modelling. IET Biometrics, 2014, 3(3): 113-127 doi: 10.1049/iet-bmt.2012.0048 [28] 李彬. 联机手写签名鉴别技术的研究 [博士学位论文], 哈尔滨工业大学, 中国, 2006.Li Bin. Research on the Technology of Online Handwritten Signature Verification. [Ph.D. dissertation], Harbin Institute of Technology, China, 2006. [29] Ibrahim M T, Khan M A, Alimgeer K S, Khan M K, Taj I A, Guan L. Velocity and pressure-based partitions of horizontal and vertical trajectories for on-line signature verification. Pattern Recognition, 2010, 43(8): 2817-2832 doi: 10.1016/j.patcog.2010.02.011 [30] Cpalka K, Zalasiński M, Rutkowski L. New method for the on-line signature verification based on horizontal partitioning. Pattern Recognition, 2014, 47(8): 2652-2661 doi: 10.1016/j.patcog.2014.02.012 [31] Kholmatov A, Yanikoglu B. Identity authentication using improved online signature verification method. Pattern Recognition Letters, 2005, 26(15): 2400-2408 doi: 10.1016/j.patrec.2005.04.017 [32] Kar B, Dutta P K, Basu T K, VielHauer C, Dittmann J. DTW based verification scheme of biometric signatures. In: Proceedings of the 2006 IEEE International Conference on Industrial Technology. Mumbai, India: IEEE, 2006. 381- 386 [33] Yeung D Y, George S, Kashi R, Matsumoto T, Rigoll G. SVC 2004: first international signature verification competition [Online], available: http://www.cse.ust.hk/svc2004, June 24, 2016 [34] Kholmatov A, Yanikoglu B. SUSIG: an on-line signature database, associated protocols and benchmark results. Pattern Analysis and Applications, 2009, 12(3): 227-236 doi: 10.1007/s10044-008-0118-x [35] Sakoe H, Chiba S. Dynamic programming algorithm optimization for spoken word recognition. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1978, 26(1): 43-49 doi: 10.1109/TASSP.1978.1163055 [36] Fischer A, Diaz M, Plamondon R, Ferrer M A. Robust score normalization for DTW-based on-line signature verification. In: Proceedings of the 13th International Conference on Document Analysis and Recognition (ICDAR). Tunis, Italy: IEEE, 2015. 241-245 [37] Fang P, Wu Z C, Meng M, Ge Y J, Yu Y. A novel tablet for on-line handwriting signal capture. In: Proceedings of the 5th World Congress on Intelligent Control and Automation. Hangzhou, China: IEEE, 2004. 3714-3717 期刊类型引用(6)
1. 林超群,王大寒,肖顺鑫,池雪可,王驰明,张煦尧,朱顺痣. 基于孪生网络与多重通道融合的脱机笔迹鉴别. 自动化学报. 2024(08): 1660-1670 . 本站查看
2. 王乐乐,栾方军,师金钢,袁帅. 基于DTW的注意力机制BLSTM在线手写签名认证. 小型微型计算机系统. 2023(07): 1529-1534 . 百度学术
3. 陈使明,王以松. 一种鲁棒的离线笔迹鉴别方法. 自动化学报. 2020(01): 108-116 . 本站查看
4. 黄飞腾,郝红光,陈维娜,孙佳艺,史文韬,张璐野,王子夫. 基于动态特征的电子签名笔迹分类识别研究. 现代计算机. 2020(07): 84-88 . 百度学术
5. 李佳,李庆武,马云鹏,丁惠洋. 基于时序特征融合的动态签名鉴伪算法. 计算机应用研究. 2020(07): 2032-2036 . 百度学术
6. 刘莉,詹恩奇,郑建彬,汪阳. 基于曲线分段相似匹配的在线签名认证. 计算机应用. 2018(04): 1046-1050+1133 . 百度学术
其他类型引用(10)
-