2.765

2022影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于动态贝叶斯网络的音视频联合说话人跟踪

金乃高 殷福亮 陈喆

金乃高, 殷福亮, 陈喆. 基于动态贝叶斯网络的音视频联合说话人跟踪. 自动化学报, 2008, 34(9): 1083-1089. doi: 10.3724/SP.J.1004.2008.01083
引用本文: 金乃高, 殷福亮, 陈喆. 基于动态贝叶斯网络的音视频联合说话人跟踪. 自动化学报, 2008, 34(9): 1083-1089. doi: 10.3724/SP.J.1004.2008.01083
JIN Nai-Gao, YIN Fu-Liang, CHEN Zhe. Audio-visual Speaker Tracking Based on Dynamic Bayesian Network. ACTA AUTOMATICA SINICA, 2008, 34(9): 1083-1089. doi: 10.3724/SP.J.1004.2008.01083
Citation: JIN Nai-Gao, YIN Fu-Liang, CHEN Zhe. Audio-visual Speaker Tracking Based on Dynamic Bayesian Network. ACTA AUTOMATICA SINICA, 2008, 34(9): 1083-1089. doi: 10.3724/SP.J.1004.2008.01083

基于动态贝叶斯网络的音视频联合说话人跟踪

doi: 10.3724/SP.J.1004.2008.01083
详细信息
    通讯作者:

    金乃高

  • 中图分类号: TP391

Audio-visual Speaker Tracking Based on Dynamic Bayesian Network

More Information
    Corresponding author: JIN Nai-Gao
  • 摘要: 将多传感器信息融合技术用于说话人跟踪问题, 提出了一种基于动态贝叶斯网络的音视频联合说话人跟踪方法. 在动态贝叶斯网络中, 该方法分别采用麦克风阵列声源定位、人脸肤色检测以及音视频互信息最大化三种感知方式获取与说话人位置相关的量测信息; 然后采用粒子滤波对这些信息进行融合, 通过贝叶斯推理实现说话人的有效跟踪; 并运用信息熵理论对三种感知方式进行动态管理, 以提高跟踪系统的整体性能. 实验结果验证了本文方法的有效性.
  • 加载中
计量
  • 文章访问数:  2247
  • HTML全文浏览量:  65
  • PDF下载量:  1587
  • 被引次数: 0
出版历程
  • 收稿日期:  2007-07-09
  • 修回日期:  2007-11-26
  • 刊出日期:  2008-09-20

目录

    /

    返回文章
    返回