2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

面向知识自动化的自动问答研究进展

曾帅 王帅 袁勇 倪晓春 欧阳永基

黄博学, 周彤. 利用Block-StOMP的一种改进算法高效重构块稀疏信号. 自动化学报, 2017, 43(9): 1607-1618. doi: 10.16383/j.aas.2017.e150116
引用本文: 曾帅, 王帅, 袁勇, 倪晓春, 欧阳永基. 面向知识自动化的自动问答研究进展. 自动化学报, 2017, 43(9): 1491-1508. doi: 10.16383/j.aas.2017.c160667
Huang Boxue, Zhou Tong. Efficient Recovery of Block Sparse Signals by an Improved Algorithm of Block-StOMP. ACTA AUTOMATICA SINICA, 2017, 43(9): 1607-1618. doi: 10.16383/j.aas.2017.e150116
Citation: ZENG Shuai, WANG Shuai, YUAN Yong, NI Xiao-Chun, OUYANG Yong-Ji. Towards Knowledge Automation: A Survey on Question Answering Systems. ACTA AUTOMATICA SINICA, 2017, 43(9): 1491-1508. doi: 10.16383/j.aas.2017.c160667

面向知识自动化的自动问答研究进展

doi: 10.16383/j.aas.2017.c160667
基金项目: 

国家自然科学基金 61533019

国家自然科学基金 71402178

国家自然科学基金 61233001

国家自然科学基金 71102117

国家自然科学基金 71472174

国家自然科学基金 71702182

国家自然科学基金 71232006

详细信息
    作者简介:

    王帅    中国科学院大学博士研究生.主要研究方向为社会计算与平行管理.E-mail:wangshuai2015@ia.ac.cn

    袁勇    中国科学院自动化研究所复杂系统管理与控制国家重点实验室副研究员.2008年于山东科技大学获得计算机软件与理论专业博士学位.主要研究方向为商务智能与计算广告学. E-mail: yong.yuan@ia.ac.cn

    倪晓春    中国科学院自动化研究所复杂系统管理与控制国家重点实验室工程师.2008年于大连海事大学获得管理科学与工程专业硕士学位.主要研究方向为商务智能与知识自动化. E-mail:xiaochun.ni@ia.ac.cn

    欧阳永基    解放军61786部队工程师.2015年于解放军信息工程大学获得计算机软件与理论专业博士学位.主要研究方向为网络安全

    通讯作者:

    曾帅    中国科学院自动化研究所复杂系统管理与控制国家重点实验室助理研究员.2011年于北京邮电大学获得信号与信息处理专业博士学位.主要研究方向为社会计算与策略优化.本文通信作者. E-mail:shuai.zeng@ia.ac.cn

Towards Knowledge Automation: A Survey on Question Answering Systems

Funds: 

National Natural Science Foundation of China 61533019

National Natural Science Foundation of China 71402178

National Natural Science Foundation of China 61233001

National Natural Science Foundation of China 71102117

National Natural Science Foundation of China 71472174

National Natural Science Foundation of China 71702182

National Natural Science Foundation of China 71232006

More Information
    Author Bio:

       Ph.D. candidate at the University of Chinese Academy of Sciences. His research interest covers social computing and parallel management.E-mail:

       Associate professor at the State Key Laboratory of Management and Control for Complex Systems, Institute of Automation, Chinese Academy of Sciences. He received his Ph.D. degree in computer software and theory from Shandong University of Science and Technology in 2008. His research interest covers business intelligence and computational advertising.E-mail:

       Engineer at the State Key Laboratory of Management and Control for Complex Systems, Institute of Automation, Chinese Academy of Sciences. He received his master degree in management science and engineering at Dalian Maritime University in 2008. His research interest covers business intelligence and knowledge automation .E-mail:

       Engineer at the Troops 61786 of People$'$s Liberation Army. He received his Ph.D. degree in computer software and theory from PLA Information Engineering University in 2015. His main research interest is network security

    Corresponding author: ZENG Shuai    Assistant professor at the State Key Laboratory of Management and Control for Complex Systems, Institute of Automation, Chinese Academy of Sciences. She received her Ph.D. degree in signal and information processing from Beijing University of Post & Telecommunication in 2011. Her research interest covers social computing and strategy optimaization. Corresponding author of this paper.E-mail:shuai.zeng@ia.ac.cn
  • 摘要: 将自动问答系统从基于文本关键词的层面,提升到基于知识的层面,实现个性化、智能化的知识机器人,已成为自动问答系统未来的发展趋势与目标.本文从知识管理的角度出发,分析和总结自动问答领域的最新研究成果.按照知识表示方法,对代表性自动问答系统及关键问题进行了描述和分析;并对主流的英文、中文自动问答应用和主要评测方法进行了介绍.
  • 分类问题是机器学习的一个主要领域,其目标是通过对于给定数据集的学习,获得能够对未来数据进行有效分类的分类器 [1]. 基于不同的构造思路,已经有很多分类学习方法得到了深入的研究和广泛的应用,如贝叶斯方法、决策树方法、神经网络等.其中,支持向量机(Support vector machine,SVM) [2] 作为其中比较好的分类方法,得到了广泛的关注和应用. SVM将数据空间的数据通过映射到高维的特征空间,并在特征空间里面利用超平面作为决策平面,因此具有了稀疏性、效率高、准确性高等特点 [1-3].

    最小二乘支持向量机(Least squares support vector machine,LS-SVM) [4]作为SVM的一种主要变形,通过将SVM中的罚函数替换为二次函数并将约 束条件转化为等式约束,使得LS-SVM的解可以通过求解一个线性系统来得到,简化了求解过程.实验表明,LS-SVM在实际应用中具有和SVM相类似的泛化能力,因此在很多领域取得广泛的应用 [5]. 但是,随着训练集数据量的增加,LS-SVM的弱点也越来越突出地表现出来.由于LS-SVM的支持向量几乎包含了全 部训练集的数据,随着数据量的增加,计算用时也会大量增加,从而限制了LS-SVM的进一步应用.因此,对LS-SVM进行支持向量数量的消减,继续保持SVMs的稀疏性特征,是LS-SVM适应新的要求必须要研究的问题 [6-8].

    在LS-SVM稀疏化的研究中,基于迭代过程形成稀疏LS-SVM的支持向量集是目前研究的主要思路,可以分为删除式稀疏化方法和增量式稀疏化方法. 2000年,Suykens 等 [6]首先利用删除式稀疏化方法对LS-SVM进行稀疏化.在稀疏化过程中,每一步将支持向量集中最靠近当前决策超平面的若干个支持向量进行消减. 但是由于每次都要根据当前支持向量集进行求解线性系统,因此,在数据量较大的时候,其计算复杂性会非常高.随后,Suykens等 [7]在支持向量的选择中不仅考虑了LS-SVM模型的最优化,同时考虑了泛化能力. 在文献 [8]中,选择被消减支持向量的准则变为寻找并消减具有最小偏差的点,进一步提高了消减后的准确性. Hoegaerts等 [9]在文献[6]的基础上提出了一种轻量级变种稀疏化算法并改进了原算法的性能. 文献 [10] 在序列最小优化求解LS-SVM算法基础上,在每一步迭代中,将影响对偶目标函数值最小的数据点进行消减,从而达到稀疏化的目标. Carvalho等 [11]给出了一个两阶段消减算法,在已知LS-SVM决策超平面的前提下,利用碎片化指标度量每个支持向量的可消减性,进而进行稀疏化. de Brabanter等 [12]使用基于熵核频带宽度选择策略和快速交叉验证方法,对LS-SVM进行消减. Kars-makers等 [13]利用过决定线性系统的稀疏共轭方向寻踪稀疏化方法来对LS-SVM进行支持向量集的消减并取得了良好的效果. Lopez等 [14]在文献 [15]对 $L_0$ 范式进行迭代优化的基础上,将分类LS-SVM和回归LS-SVM都统一在一个稀疏化算法中. Liu等 [16]和Wei等 [17]在引入适应性Lp LS-SVM的基础上,用进化算法对其求解以实现LS-SVM的稀疏化.增量式稀疏化LS-SVM的研究也出现了许多成果. Jiao等 [18]在建立基于核的支持向量词典基础上,每次都将一个基本支持向量加入到支持向量集合中,在控制计算复杂度的前提下取得了良好的效果. Zhao等 [19]在假设后增加支持向量不影响当前支持向量的前提下,构造了一个增量式LS-SVM稀疏化算法,从空集开始,每一次都将剩余数据点中使得目标函数增长最少的点作为支持向量加入支持向量集中. Yang等 [20]利用迭代方法,在尽量保持信息不损失的情况下,交替使用增加和减少支持向量数量的方法,达到对LS-SVM的稀疏化的目标. Zhao等 [21]在文献[19]的基础上考虑到支持向量集变化对非支持向量的影响,通过重新计算剩余数据点对目标函数下降的贡献,选择其中使得目标函数下降最大的数据点进入支持向量集.除了传统稀疏化方法以外,数据压缩传感理论也被应用到了LS-SVM 的稀疏化上. Yang等 [22]提出了使用正交匹配追踪算法对训练数据集进行压缩,从而实现LS-SVM 的稀疏化. Yang等 [23]在上述研究的基础上,用非随机矩阵代替原有的随机高斯矩阵,进一步提高了算法的效率.从目前的研究来看,基于迭代的算法依然是主要研究的方向,但是存在计算复杂性较高,在数据量大的时候,其表现不能满足实际要求的情况.综上所述,LS-SVM的稀疏化是从原来几乎包含所有训练数据点的支持向量集中选择若干数据点,并通过计算使得基于选择数据点的决策超平面具有类似于未稀疏化LS-SVM的泛化能力. 因此,LS-SVM的稀疏化可以看作是数据点抽取并求解近似决策超平面的过程.基于数据 点抽取的思路,在本文中我们给出了一种非迭代的LS-SVM稀疏化方法.

    在本文中,我们首先给出了基于支持向量数量约束的LS-SVM稀疏化优化模型.在此基础上,提出基于数据特征空间全局代表性的支持向量集非迭代选择策略,并提出了基于全局代表点的LS-SVM稀疏化算法(Global-representation-based sparse least squares support vector machine,GRS-LSSVM).该算法的主要思路是,首先计算特征空间中数据点之间的距离,在此基础上计算每个数据点的全局代表性,然后按照给定的稀疏化后LS-SVM支持向量集的数量约束,一次性选择最具代表性的数据点并构成稀疏化后的支持向量集,最后在该支持向量集的基础上,求得稀疏化后的LS-SVM的决策超平面.实验表明,GRS-LSSVM具有稀疏度高、稳定性好、计算复杂度低等优点.

    本文下文组织如下:首先,对LS-SVM的相关模型进行回顾和总结;其次,给出基于全局代表性的稀疏化算法;然后,给出相关算法的实验结果,并对结果进行分析;最后,对本文加以总结,并进一步提出工作的方向.

    LS-SVM是在SVM的基础上通过改变其罚函数而得到的.简单起见,设 $({ x},y)$ , $x \in {R^d}$ 为给定的一个数据及其标号或者函数值,如果是标号,对应的就是分类问题,如果是函数值,对应的就是回归问题. N个已知数据形成的集合 $X=\{{ x}_i\}$ 和 $Y=\{y_i\}$ 共同构成了训练集. SVM的目标是通过对训练集的学习,获得如下形式的决策超平面:

    $f( x):\quad { \omega}^{\rm T}\cdot\phi({ x})+b=0 $

    (1)

    其中, $\phi (\cdot)$ 是从Rd到特征空间$H$的映射函数,ω是特征空间中的一个向量,b是一个实数. LS-SVM通过求解如下优化模型得到决策超平面:

    $\matrix{ {\mathop {\min }\limits_{\omega ,b,e} {\rm{ }}J = {1 \over 2}{{\left\| \omega \right\|}^2} + {C \over 2}\sum\limits_{i = 1}^N {e_i^2} } \hfill \cr {s.t.{\omega ^{\rm{T}}} \cdot \phi ({x_i}) + b = {y_i} - {e_i},i = 1, \cdots ,N} \hfill \cr } $

    (2)

    其中,C是惩罚参数.

    通过构造式(2)所对应的拉格朗日函数,并根据KKT (Karush-Kuhn-Tucker)条件,可得下式:

    $\omega = \mathop \sum \limits_{i = 1}^N {\alpha _i}\phi ({x_i})$

    (3)

    $\left[ {\matrix{ {K\left( {X,Y} \right)} & {\overline 1 } \cr {{{\overline 1 }^T}} & 0 \cr } } \right]\left[ \matrix{ \alpha \hfill \cr b \hfill \cr} \right] = \left[ \matrix{ Y \hfill \cr 0 \hfill \cr} \right]$

    (4)

    其中 $K(\Omega ,\Lambda ) = {[k({x_i},{x_j})]_{|\Omega | \times |\Lambda |}},{x_i} \in \Omega ,{x_j} \in \Lambda ,k( \cdot , \cdot )$ 是预先确定的核函数,1=(1,…,1)N×1,IN阶单位矩阵.

    由式(4)可以看出,决策超平面的系数通过求解线性系统获得,并且,求得的决策超平面是式(2)的最优解.因此,相对于SVM,LS-SVM的求解比较简单.但是,由于几乎全部αi都不为零,LS-SVM也失去了SVMs的稀疏性.在实际应用中,LS-SVM的非稀疏性妨碍了其进一步的应用和推广.因此,对LS-SVM进行稀疏化是扩展LS-SVM应用的必然选择.

    LS-SVM稀疏化是在尽可能保持LS-SVM原有泛化能力的前提下,将大量支持向量进行消减的过程.在本节讨论基于全局代表性的非迭代稀疏化算法.

    LS-SVM稀疏化的目标就是用如下函数g(x)代替f(x)并尽量保持原有决策超平面的性质:

    $g({ x}): \overline{{ \omega}}^{\rm T}\cdot\phi({ x})+b=y $

    (5)

    其中 $\overline{{ \omega}}=\sum_{i=1}^L\beta_i\phi({ s}_i)$ ,${s_i} \in X,L < N$ ,L是稀疏化后支持向量的个数.

    令 $S=\{{ s}_1,\cdots,{ s}_L\}$ 为稀疏化后LS-SVM的支持向量集.由于通过式(4)求解的决策超平面f(x)是式(2)的最优解.因此,在给定稀疏化后支持向量个数L的前提下,用g(x)代替f(x)进行LS-SVM稀疏化的优化模型为如下形式:

    $\eqalign{ & \mathop {\min }\limits_S \quad {J_g} - {J_f} \cr & s.t.|S| \le L,\quad S \subset X \cr} $

    (6)

    其中,JfJg分别表示用f(x)g(x)作为决策超平面时的J函数值.

    由于Jf为一定值,因此,式(6)等价于如下模型:

    $\begin{align} & {{\min }_{S}}\quad {{J}_{g}} \\ & s.t.\quad |S|\le L,\quad S\subset X \\ \end{align}$

    (7)

    其中,目标函数经过整理并省略常数部分后可得如下形式:

    $\eqalign{ & {J_g} = {1 \over 2}{\left\| {\bar \omega } \right\|^2} + {C \over 2}\sum\limits_{i = 1}^N {{{({y_i} - {{\bar \omega }^{\rm{T}}} \cdot \phi ({x_i}) - b)}^2}} = \cr & {1 \over 2}({\beta ^{\rm{T}}}K(S,S)\beta ) + \cr & {C \over 2}\sum\limits_{i = 1} N ({\mu ^{\rm{T}}}\left[ \matrix{ K(S,{x_i})K({x_i},S){\rm{ }}K(S,{x_i}) \hfill \cr K({x_i},S){\rm{ 1}} \hfill \cr} \right]\mu - \left[ {2{y_i}K({x_i},S{\rm{ }}2{y_i})} \right]\mu ) = \cr & {1 \over 2}{\mu ^{\rm{T}}}A\mu - B\mu \cr} $

    (8)

    其中

    $A = \left[ {\matrix{ {K(S,S)(1 + C\sum\limits_{i = 1}^N k ({x_i},{x_i})} & {C\sum\limits_{i = 1}^N K (S,{x_i})} \cr {C\sum\limits_{i = 1}^N K ({x_i},S)} & {CN} \cr } } \right]$

    (9)

    $B=\left[ \begin{align} & C\sum\limits_{i=1}^{N}{{{y}_{i}}}K(S,{{x}_{i}}) \\ & \sum\limits_{i=1}^{N}{C{{y}_{i}}} \\ \end{align} \right]$

    (10)

    $\mu =\left[ \begin{matrix} \begin{align} & \beta \\ & b \\ \end{align} \\ \end{matrix} \right]$

    (11)

    S确定时,式(7)在如下情况下达到最小值:

    $\mu ={{A}^{-1}}B$

    (12)

    由上面的讨论可知,对于任意给定的一组向量S,只要S使得式(9)满秩,则存在唯一的一组系数值为式(8)的最优解.因此,选择S集合是LS-SVM进行稀疏化的根本问题.

    由于从X中选取S集的问题是一个组合优化问题,很难找到全局最优解. 因此,当给定L的前提下,我们希望通过对LS-SVM特征进行分析,得到一种快速S集合选取方法.为了方便讨论,我们首先给出密度和离散度的定义.

    由于在特征空间中,任意两点间的距离可以通过下式进行计算:

    $d({{x}_{1}},{{x}_{2}})=\sqrt{k({{x}_{1}},{{x}_{1}})+k({{x}_{2}},{{x}_{2}})-2k({{x}_{1}},{{x}_{2}})}$

    (13)

    数据点x的密度大小可以用数据点特定邻域内点的个数来进行衡量.

    定义 1  (数据密度). 特征空间中任一点xθ邻域内的密度ρ定义为:

    $\rho =\sum\limits_{j=1}^{N}{\delta }(d(x,{{x}_{j}}))$

    (14)

    其中

    $\delta (z)=\left\{ \begin{array}{*{35}{l}} \begin{align} & 1,\quad z\le \theta \\ & 0,\quad 其他 \\ \end{align} \\ \end{array} \right.$

    (15)

    数据点x的离散度大小ζ采用文献[24]的相关公式进行衡量.

    定义 2 (离散度). 任一点xi的离散度ζ定义为该点到比该点密度更大的其他点的最小距离,即:

    ${\zeta _i} = \mathop {\min }\limits_{{\rho _{{x_i}}} < {\rho _{{x_j}}}} d({x_i},{x_j}),\forall {x_j} \in X$

    (16)

    可以看出,两个指标中,密度具有局部性,离散度具有全局性.下面给出利用这两个指标对数据集进行LS-SVM消减的基本思路.

    图 1给出了利用密度和离散度进行LS-SVM稀疏化的支持向量集选择示意图. 其中,图 1 (a)为原始LS-SVM的决策超平面f(x)(图中细实线)及两个类中心超平面(f(x)=+1及 f(x)=-1,图中长划线),图 1 (b)为稀疏化后LS-SVM的决策超平面g(x) (图中点划线)及两个类中心超平面(g(x)=+1及g(x)=-1,图中双点划线).由于决策超平面由两个类中心超平面决定,因此,只要找到可以确定两个中心超平面的数据点并将其纳入到S集合中,就可以实现LS-SVM的稀疏化.由于稀疏化后需要的支持向量数量比较少,因此将高密度点作为支持向量可以使得类中心超平面的定位更具有精确性.所以,尽量选取高密度点(如黑色数据点)进入S集合是很合理的思路.但是,若仅考虑密度,则容易造成集中在某个高密度区域的点(如灰色点)大量进入S集合从而使得S集合丧失全局性.与之对应,如果选取密度虽然较小但是在离散度上更大的点(如条纹点)代替灰色点,就能够使得稀疏化后的决策超平面更接近原始超平面.因此,同时考虑密度和离散度是选择S集合元素的关键依据.若将同时具有高密度和离散度的点称为全局代表点,则选择全局代表点作为S集合元素的算法是本文的主要贡献之一.

    图 1  稀疏化LS-SVM的支持向量选择示意图
    Fig. 1  Description of support vector selection of sparse LS-SVM

    若将ρζ看作两个维度,那么全部数据在该二维空间中主要分布在3块区域. 图 2给出了一个二维数据在ρ-ζ空间中的分布示意图. 其中,图 2 (a)表示的是数据在原始空间中的分布,图 2 (b)表示的是数据在ρ-ζ 空间中的分布.明显地,分布在I区的数据点的特征是密度和离散度都比较大,是具有全局代表性的数据点.分布在II区的数据点的特征是密度很小离散度很高,一般是离群点或者是噪声点.在III区的数据点,其特征是密度比较高,但是离散度较低,一般是在全局代表性点附近的点.因此,合理划分3个区域并且尽量将I区的数据点选择出来作为S集是下面要讨论的问题.

    图 2  全局代表性数据点
    Fig. 2  Description of global representative data

    图 2可以看出,全局代表性点比较稀疏,可以采用离群点发现算法进行获取. 但是,相应算法的时间复杂性较高,很难适应大数据量的要求.为此,我们通过设计全局代表性指标τ来进行全局代表点的选取.

    由于ρζ的单位不同,因此首先进行归一化处理,即将ρζ映射到预先给定的区间 $[\eta_{\min},\eta_{\max}] (\eta_{\min},\eta_{\max}>0)$ ,并设映射后的值为 ρζ.则任一点xi 的全局代表性指标τi 可以按照如下两式之一进行计算:

    ${{\tau }_{i}}=\min ({{{\bar{\rho }}}_{i}},{{{\bar{\zeta }}}_{i}})$

    (17)

    ${{\tau }_{i}}={{{\bar{\rho }}}_{i}}\times {{{\bar{\zeta }}}_{i}}$

    (18)

    可知,τi越大,对应的xi的全局代表性就越高.在此基础上,我们给出全局代表点选取算法(Global representative point selection,GFPS),具体过程描述如算法1所示.

    算法 1. GFPS

    输入:数据集X,核函数k,阈值θ,数量L;

    输出:选出的代表点集合S;

    1) 根据式(13)计算 $d({ x}_i,{ x}_j)$ ;

    2) 根据式(14),(16)计算ρ,ζ;

    3) 归一化ρ,ζ;

    4) 根据式(17)或(18)计算τ;

    5) 按照从大到小对τ排序;

    6) 取前L个数据形成S;

    7) return S.

    可以看出,算法GFPS的计算过程是一个非迭代过程,其主要过程包括3个顺序步骤:一是计算特征空间中任意两个点之间的距离,时间复杂度为 ${\rm O}(N^2)$ ;二是计算每个点的ρζ,时间复杂度为 ${\rm O}(N^2)$ ;三是对序列τ进行排序,并一次性地抽取序列中最前面L个数据点形成支持向量集,在使用快速排序等较快的排序算法的情况下,其时间复杂度是 ${\rm O}(N{\rm log}N)$ .因此,算法GFPS的时间复杂度是 ${\rm O}(N^2)$ .

    在分类问题的LS-SVM稀疏化过程中,由于各类数据的分布差异较大,为了防止出现S集中仅包含某一类数据的情况,我们按照训练集全部数据的类别比例来分配S集合中各类代表点的数量.具体计算公式如下:

    $L_i=\max(1,\text{round}(L\times \frac{N_i}{N})) $

    (19)

    其中,Li表示第i类数据中选择的代表点的数量, $\text{round}(\cdot)$ 表示四舍五入函数,Ni表示第i类数据的数量,N表示全体训练集的数量.

    综合上面的讨论,我们给出基于全局代表性点选取的LS-SVM消减算法,具体过程描述如 算法2所示.

    算法 2. GRS-LSSVM

    输入:训练集X,Y,参数C,核函数k,阈值θ+,θ-,稀疏化后的支持向量集的大小L;

    输出:消减后的支持向量集S,对应的系数β,b;

    1) 根据式(19)计算两类数据点在S集中的数据量L+,L-;

    2) $S_+=\text{GFPS}(X_+,k,L_+,\theta_+)$ ;

    3) $S_-=\text{GFPS}(X_-,k,L_-,\theta_-)$ ;

    4) $S=S_+\cup S_-$ ;

    5) 根据式(12)计算β,b;

    6) return S,β,b.}

    算法2中,X+,X-分别是训练集中属于正负类的数据集,θ+,θ-是分别用于正负类的距离阈值.明显地,虽然GRS-LSSVM算法没有采用迭代方式来构造S集合,但随着L的增加,S集合包含的重要数据点的数量将逐步增加最终包含全部数据点从而收敛于LS-SVM.

    从计算复杂度来看,该算法的主体是2次GFPS算法的调用和1次求解支持向量系数.由上述分析知,GFPS算法的时间复杂度为 ${\rm O}(N^2)$ .求解支持向量系数主要是进行1次矩阵逆计算,时间复杂度是 ${\rm O}(L^3)$ . 由于L<<N,这部分的计算对总体时间复杂度的影响很小,可以忽略不计.因此,GRS-LSSVM算法的总体时间复杂度为 ${\rm O}(N^2)$ .

    为了测试本文提出的算法性能,我们利用UCI中的真实数据集对各种算法进行测试并对结果进行分析.

    我们使用表 1中来自UCI (University of California Irvine machine learning repository)的4个数据集作为实验分析的数据集.这4个数据集的数据都来自真实数据,具有实际应用背景.其中,由于LR数据集包含多类数据,因此在本文中,采用一对多的分类方式,取字母B作为一类,其他数据作为另一类进行测试.

    表 1  数据集描述表
    Table 1  Description of datasets
    数据集名称数据量数据维度两类比例
    Breast cancer wisconsin (BCW) 6849445 : 239
    Banknote authentication (BA) 1 372 4610 : 762
    Musk (MK) 7 074 1661 224 : 5 850
    Letter recognition (LR) 20 000 16789 : 19 211
    下载: 导出CSV 
    | 显示表格

    在分析对照的指标上,我们选择运行时间(Time)和错误率(Error ratio)作为算法性能的衡量指标.其中,运行时间是指全部计算数据加载入内 存到算法给出稀疏化后的支持向量集S及对应的系数βb的时间跨度,单位为秒(s).错误率是指分类错误的数据 数量占全部数据量的百分比,在本文中采用10- 折交叉确认误差来进行衡量.稀疏度也是衡量一个算法的重要指标,其定义为稀疏化后的支持向量的个数与训练集大小的比值.当训练集大小固定时,稀疏度和文中使用的稀疏化后保留的支持向量的个数L具有等价性.因此,为了方便比较不同算法在各种稀疏度要求下的性能,将L作为算法的控制参数对各个算法进行试验测试.

    在本文的实验中,我们使用SLS-SVM (Sparse LS-SVM) [6]和RR-LSSVR (Recursive reduced least squares support vector regression) [12]以及ISLS-SVM (Iterative sparse LS-SVM) [14]作为对照算法. 同时,为了进一步分析算法的特点,我们使用SVM及LS-SVM作为稀疏支持向量机及非稀疏支持向量机的基准算法,进行对照分析. 其中,SLS-SVM算法中每一步消减的支持向量的数量设为1 %,RR-LSSVR中ε=0.00001.

    为了正确衡量各个算法的性能,对所有数据集都采用了10- 折交叉验证方法进行测试. 核函数采用RBF kernel.各个参数针对不同的算法进行了优化调整,以便比较不同算法在最优情况下的性能特点.由于每个数据集包含的数据量相差很大,同时考虑到计算机的内存容量限制及对照方便,在将数据集划分为训练集和测试集后,从训练集中按照等概率原则抽取预定数量的数据形成计算时的训练集.其中,BCW的预定数量为500,BA为1 000,MK为2 000,LR为4 000.针对每一个数据集都进行10次10- 折交叉验证并使用各个指标的平均值作为结果进行对比.

    全部算法在Matlab 2010a环境中编程实现,并运行在一台内存为4 GB,CPU为i5 3270的机器上.

    图 3给出了不同算法在不同数据集上的错误率,图 4给出了错误率的标准差,图 5是各个算法的运行时间结果,由于各个算法的时间差异比较大,为了能够显示在一张图中,我们使用了对数坐标,图 6是每个算法运行时间的标准差.在各图中,(a) ~ (d)分别对应数据集BCW、BA、MK和LR.

    图 3  错误率比较
    Fig. 3  Comparison of error ratio
    图 4  错误率标准方差比较
    Fig. 4  Comparison of standard deviation of error ratio
    图 5  运行时间比较
    Fig. 5  Comparison of run time
    图 6  运行时间标准方差比较
    Fig. 6  Comparison of standard deviation of run time

    SVM和LS-SVM在各个数据集上的实验结果如表 2所示,其中NS是指算法获得的决策超平面包含的支持向量的个数.从表 2可知,SVM和LS-SVM的泛化能力基本相同,对于同一数据集的错误率基本保持一致.在运行时间上虽然LS-SVM比SVM略长,但是基本还保持在同一数量级.但是,支持向量个数差别很大,LS-SVM包含了训练集的全部向量,SVM包含的支持向量的个数相对比较稀疏.虽然SVM具有稀疏性,但是稀疏度也基本维持在20 %至40 %左右.

    表 2  SVM和LS-SVM结果
    Table 2  Results of SVM and LS-SVM
    数据集SVMLS-SVM
    Error ratio (%) Time (s) NS Error ratio (%) Time (s) NS
    BCW 3.0 (±0.01) 0.02 (±0.005) 93.2 (±0.85) 3.0 (±0.010) 0.020 (±0.001) 500 (±0)
    BA 2.4 (±0.01) 0.09 (±0.005) 418.8 (±1.96) 1.0 (±0.010) 0.072 (±0.007) 1 000 (±0)
    MK 5.7 (±0.04) 0.30 (±0.010) 642.2 (±6.40) 5.1 (±0.100) 0.380 (±0.020) 2 000 (±0)
    LR 1.0 (±0.04) 1.32 (±0.050) 1706.0 (±79.0) 1.0 (±0.035) 1.780 (±0.050) 4 000 (±0)
    下载: 导出CSV 
    | 显示表格

    首先,从稀疏度来看各个算法的特征. SLS-SVM,RR-LSSVR以及GRS-LSSVM都可以根据给定的L进行稀疏化,使得稀疏化后的支持向量的个数达到任意指定的值. 但是ISLS-SVM不具有这种能力,当给定的L小于某一阈值时,该算法不能给出结果.换句话说,ISLS-SVM具有最大稀疏度限制,该限制使得该算法在稀疏度要求比较高的情况下不能使用.观察算法到达稳定错误率时所需要的稀疏度大小,一般来讲,其需要的稀疏度大小为GRS-LSSVM < ISLS-SVM < SLS-SVM < RR-LSSVR.这说明GRS-LSSVM在一个非常小的稀疏度要求时就可以达到其稳定状态,即该算法稳定时的稀疏度阈值要小于其他算法.在实际应用中给定的稀疏度要求非常高的情况下,该算法能最先达到其稳定值.虽然该算法在稳定时的错误率并不是最小,但是其错误率的大小也已经在一个可以接受的范围内.这表明,GRS-LSSVM算法的稀疏化能力比较出色.在很多的实际应用中,对于错误率的要求不是那么强烈,但是对于稀疏化后的支持向量集的大小要求比较高,这种情况下,尤其是要求稀疏度特别大的情况下,其他算法往往不能胜任,而GRS-LSSVM还可以满足要求.出现这种情况的原因在于,该算法选取的是最具有全局代表性的数据点作为支持向量,即便稀疏度要求比较高,由于选择的点具有全局代表性,因此依然能够达到较好的效果.

    其次,从错误率方面来看各个算法的特征.全部算法首先表现出几个共同的特征.首先,当给定的支持向量的个数达到某个阈值时,全部算法都能下降到一个非常低的接近LS-SVM的错误率水平.其次,在达到该阈值后,即便支持向量的个数增加,每个算法在错误率上也没有很大的提高,并保持在一个非常稳定的错误率上.最后,错误率标准差的变化和错误率的变化相类似,在达到并超过阈值后,将维持在一个非常小的范围内并保持稳定. 在未达到稳定值之前,SLS-SVM的错误率最高,RR-LSSVR次之,GRS-LSSVM最小,且比较接近稳定值.这表明即便要求的稀疏度高于算法的稀疏度阈值,GRS-LSSVM也可以提供具有相对较好错误率的决策函数. ISLS-SVM由于在高稀疏度下不能计算,所以不参与比较.当达到稳定值后,4个算法的错误率的排序一般保持SLS-SVM < ISLS-SVM < GRS-LSSVM < RR-LSSVR.虽然GRS-LSSVM的错误率不是最低,但是其错误率也已经接近LS-SVM的错误率,并且和其他算法的错误率相差不大.总体来讲,当稀疏度要求比较低的时候,该算法在错误率的表现上并不突出,但是当稀疏度要求比较高时,尤其是稀疏度要求的值不能满足其他算法达到稳定性值的情况下,该算法达到的错误率要比其他方法要好.原因在于GRS-LSSVM用最具有全局代表性的数据点构成支持向量集,在稀疏度高的情况下,可以通过较少的数据点来达到相对较好的分类效果,但是在达到稳定后,新增的节点对其决策超平面的改变贡献会很小,所以相比较其他算法,效果相对稍弱.

    最后,从计算复杂性上来进行分析.明显的,4个算法的表现完全不同. SLS-SVM总体上呈现出随稀疏度下降,计算时间缓慢降低的趋势.原因是SLS-SVM采用的是向量消去方法,稀疏度下降,说明最终的支持向量集包含的向量数量比较多,被消减的向量比较少.因此,所需要的计算时间也会减少. RR-LSSVR的计算时间随着稀疏度的下降,时间呈爆炸式增长.原因在于RR-LSSVR采用的是增量式稀疏化模式,由于每次只能向支持向量集添加一个向量,导致其计算复杂度随着训练集的增长而增长,同时,稀疏度的下降,也导致其计算复杂度的增长. 对于ISLS-SVM,其计算时间会随着稀疏度的下降而降低,其主要原因是该算法本质上是一种删除式稀疏化方法,在稀疏度要求比较高的时候,需要删除的向量数量比较大,这样迭代的次数会比较多,同时,在迭代中矩阵运算出现奇异矩阵的可能性也比较大,这些都会让运算时间比较长. 对于GRS-LSSVM,其运算时间表现出3个特征: 1)在训练集固定的情况下,其运算时间并没有随稀疏度的变化而发生变化; 2)不同数据集的数据量虽然差别很大,但是,该算法的运算时间并没有巨大的变化; 3)该算法的时间稳定性比较好,计算时间的标准差比较小.具有这3个特征的原因在于该 算法没有采用迭代方式进行支持向量的选择,而是在计算出全部数据点的全局代表性值后,一 次性地根据代表性的大小选择支持向量集,因此其计算时间会比较短.

    在本文中,我们针对LS-SVM稀疏化问题,提出了一种基于全局代表点提取的稀疏化算法. 该算法的思想是通过数据点的局部密度和全局分布性来确定数据的代表性,然后按照代表性的大小直接选择稀疏化后的支持向量,并在这些支持向量的基础上计算稀 疏化后的决策超平面.由于不需要迭代选择支持向量,因此,该方法具有计算复杂性低、 性能稳定、稀疏度高等特点.对LS-SVM稀疏化研究提供了新的思路.实验研究也证明了该算法的特点.


  • 本文责任编委 王飞跃
  • 图  1  自动问答与知识管理生命周期的关联关系

    Fig.  1  The relationship between QA & knowledge management life cycle

    图  2  基本架构

    Fig.  2  System architecture

    图  3  问题的逻辑表示

    Fig.  3  The logic form of an example question

    图  4  图结构的问答规则[40]

    Fig.  4  An example QA rule represented as a graph{[40]

    图  5  概念Binding-event的框架表示[44]

    Fig.  5  The frame of Binding-event[44]

    图  6  语义网络示例[52]

    Fig.  6  An example of semantic networks[52]

    图  7  问题查询示例[52]

    Fig.  7  An example of logic form query[52]

    图  8  基于本体的问答系统: Pythia[54]

    Fig.  8  An example QA system based on ontology: Pythia[54]

    图  9  卷积神经网络模型[59]

    Fig.  9  An example CNN model[59]

    图  10  注意力模型[60]

    Fig.  10  An example attention model[60]

    表  1  典型英文自动问答系统

    Table  1  A list of English QA systems

    问答系统问题类型数据源答案形式相关技术
    STARTWhat, Who, When等开头的事实型或者定义型问题START KB、Internet Public Library一句话或者一段文字自然语言注释(Natural language annotations)、句子级别的自然语言处理(Sentence-level NLP)
    AnswerBus开放领域问答系统互联网按照相关程度返回若干个可能的候选答案语句命名实体抽取(Named entities extraction)
    Evi开放领域问答系统自有结构化知识库(Structured knowledge base), Yelp和第三方网站的数据和API类似人类语言风格的简明回答知识表示
    AskJeeves开放领域问答系统自有问答数据库、互联网文本、文档链接以及内容摘要自然语言检索技术(NLP)、人工操作目录索引
    Wolfram Alpha开放领域问答系统内置的结构化知识库包含答案信息的各种数据和图表计算知识引擎(Computational knowledge)
    Watson开放领域问答系统定义了自身的知识框架, 并从海量结构化和半结构化资料中抽取知识构建知识体系针对用户提问的精准回答统计机器学习、句法分析、主题分析、信息抽取、知识库集成和知识推理
    下载: 导出CSV

    表  2  典型中文自动问答系统

    Table  2  A list of Chinese QA systems

    问答系统问题类型数据源答案形式相关技术
    微软小冰日常聊天伴侣海量网民聊天语料库拟人化回答情感计算、自主知识学习、意图对接对话引擎
    京东JIMI电商售前、售后咨询自有问答库文本深度神经网络、意图识别、命名实体识别
    小i机器人业务咨询语言知识库以及业务知识库文本知识表示、本体理论、分领域的语义网络
    度秘生活服务类咨询互联网服务推荐(如餐厅、影院)全网数据挖掘和聚合
    阿里小蜜导购咨询自有语料库文本、语音、网页链接等知识图谱、语义理解、个性化推荐、深度学习
    下载: 导出CSV
  • [1] 王飞跃.软件定义的系统与知识自动化:从牛顿到默顿的平行升华.自动化学报, 2013, 41(1): 1-8 http://www.aas.net.cn/CN/abstract/abstract18578.shtml

    Wang Fei-Yue. Software-defined systems and knowledge automation: a parallel paradigm shift from newton to merton. Acta Automatica Sinica, 2013, 41(1): 1-8 http://www.aas.net.cn/CN/abstract/abstract18578.shtml
    [2] 王飞跃.机器人的未来发展:从工业自动化到知识自动化.科技导报, 2015, 33(21): 39-44 http://www.cnki.com.cn/Article/CJFDTOTAL-KJDB201521012.htm

    Wang Fei-Yue. On future development of robotics: from industrial automation to knowledge automation. Science & Technology Review, 2015, 33(21): 39-44 http://www.cnki.com.cn/Article/CJFDTOTAL-KJDB201521012.htm
    [3] Bidian C, Evans M M, Dalkir K. A holistic view of the knowledge life cycle: The Knowledge Management Cycle (KMC) model. Electronic Journal of Knowledge Management, 2014, 12: 85-97 http://www.ejkm.com/issue/download.html?idArticle=563
    [4] Simmons R. Answering English questions by computer: a survey. Communications of the ACM, 1965, 8(1): 53-70 doi: 10.1145/363707.363732
    [5] Androutsopoulos I, Ritchie G D, Thanisch P. Natural language interfaces to databases—an introduction. Natural Language Engineering, 1995, 1(1): 29-81 http://journals.cambridge.org/action/displayFulltext?type=1&pdftype=1&fid=1313064&volumeId=1&issueId=01&aid=1313056
    [6] Indurkhya N, Damerau F J. Handbook of Natural Language Processing (Second Edition). Florida: CRC Press, 2010
    [7] 郑实福, 刘挺, 秦兵, 李生.自动问答综述.中文信息学报, 2002, 16(6): 46-52 http://www.cnki.com.cn/Article/CJFDTOTAL-SDKY200704020.htm

    Zheng Shi-Fu, Liu Ting, Qin Bing, Li Sheng. Overview of question-answering. Journal of Chinese Information Processing, 2002, 16(6): 46-52 http://www.cnki.com.cn/Article/CJFDTOTAL-SDKY200704020.htm
    [8] 汤庸, 林鹭贤, 罗烨敏, 潘炎.基于自动问答系统的信息检索技术研究进展.计算机应用, 2008, 28(11): 2745-2748 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJY200811005.htm

    Tang Yong, Lin Lu-Xian, Luo Ye-Min, Pan Yan. Survey on information retrieval system based on question answering system. Computer Applications, 2008, 28(11): 2745-2748 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJY200811005.htm
    [9] Bouziane A, Bouchiha D, Doumi N, Malki M. Question answering systems: survey and trends. Procedia Computer Science, 2015, 73: 366-375 doi: 10.1016/j.procs.2015.12.005
    [10] Mishra A, Jain S K. A survey on question answering systems with classification. Journal of King Saud University-Computer and Information Sciences, 2016, 28 (3): 345-361 doi: 10.1016/j.jksuci.2014.10.007
    [11] Burger J, Cardie C, Chaudhri V, Gaizauskas R, Harabagiu S, Israel D, Jacquemin C, Lin C Y, Maiorano S, Miller G, Moldovan D, Ogden B, Prager J, Riloff E, Singhal A, Shrihari R, Strzalkowski T, Voorhees E M, Weishedel R. Issues, tasks and program structures to roadmap research in question & answering (Q&A). Document Understanding Conferences Roadmapping Documents, 2001. 1-35
    [12] 黄昌宁.从IBM深度问答系统战胜顶尖人类选手所想到的.中文信息学报, 2011, 25(6): 21-25 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS201106002.htm

    Huang Chang-Ning. Thinking about DeepQA beating human champions. Journal of Chinese Information Processing, 2011, 25(6): 21-25 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS201106002.htm
    [13] 毛先领, 李晓明.问答系统研究综述.计算机科学与探索, 2012, 6(3): 193-207 http://cpfd.cnki.com.cn/Article/CPFDTOTAL-ZGZR200208001041.htm

    Mao Xian-Ling, Li Xiao-Ming. A survey on question and answering systems. Journal of Frontiers of Computer Science and Technology, 2012, 6(3): 193-207 http://cpfd.cnki.com.cn/Article/CPFDTOTAL-ZGZR200208001041.htm
    [14] 崔桓, 蔡东风, 苗雪雷.基于网络的中文问答系统及信息抽取算法研究.中文信息学报, 2004, 18(3): 24-31 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS200403003.htm

    Cui Huan, Cai Dong-Feng, Miao Xue-Lei. Research on web-based Chinese question answering system and answer extraction. Journal of Chinese Information Processing, 2004, 18(3): 24-31 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS200403003.htm
    [15] Green B F, Wolf A K, Chomsky C, Laughery K. Baseball, an automatic question-answerer. In: Proceedings of the Western Joint IRE-AIEE-ACM Computer Conference. Los Angeles, California, USA: ACM, 1961. 219-224
    [16] Woods W A, Kaplan A M, Nash-Webber B. The lunar sciences natural language information system. Journal of Neuroimmunology, 1972, 174(1-2): 32-38
    [17] Hendrix G G, Sacerdoti E D, Sagalowicz D, Slocum J. Developing a natural language interface to complex data. ACM Transactions on Database Systems, 1978, 3(2): 105-147 doi: 10.1145/320251.320253
    [18] Warren D H D, Pereira F C N. An efficient easily adaptable system for interpreting natural language queries. Computational Linguistics, 1982, 8(3-4): 110-122 http://dl.acm.org/citation.cfm?id=972944&picked=formats
    [19] Thompson B H, Thompson F B. Introducing ask, a simple knowledgeable system. In: Proceedings of the 1st Conference on Applied Natural Language Processing. Santa Monica, USA: ACL, 1983. 17-24
    [20] Grosz B J, Appelt D E, Martin P A, Pereira F C N. Team: an experiment in the design of transportable natural-language interfaces. Artificial Intelligence, 1987, 32(2): 173-243 doi: 10.1016/0004-3702(87)90011-7
    [21] Ott N. Aspects of the automatic generation of SQL statements in a natural language query interface. Information Systems, 1992, 17(2): 147-159 doi: 10.1016/0306-4379(92)90009-C
    [22] Hindle D. An analogical parser for restricted domains. In: Proceedings of the Workshop on Speech and Natural Language. New York, USA: ACL, 1992. 150-154
    [23] Popescu A M, Armanasu A, Etzioni O, Ko D, Yates A. Modern natural language interfaces to databases: composing statistical parsing with semantic tractability. In: Proceedings of the 20th international conference on Computational Linguistics. Geneva, Switzerland: ACL, 2004. Article No.141
    [24] Li F, Jagadish H V. Constructing an interactive natural language interface for relational databases. Proceedings of the VLDB Endowment, 2014, 8(1): 73-84 doi: 10.14778/2735461
    [25] Llopis M, Ferrández A. How to make a natural language interface to query databases accessible to everyone: an example. Computer Standards and Interfaces, 2013, 35(5): 470-481 doi: 10.1016/j.csi.2012.09.005
    [26] Wang S, Meng X F, Liu S. Nchiql: a Chinese natural language query system to databases. In: Proceedings of the 1999 International Symposium on Database Applications in Non-Traditional Environments. Kyoto, Japan: IEEE, 1999.
    [27] Kupiec J. Murax: a robust linguistic approach for question answering using an on-line encyclopedia. In: Proceedings of the International ACM SIGIR Conference on Research and Development in Information Retrieval. New Orleans, USA: ACM, 2001. 181-190
    [28] Katz B. Annotating the World Wide Web using natural language. In: Proceedings of the 5th RIAO Conference on Computer Assisted Information Searching on the Internet. Montreal, Quebec, Canada: ACM, 1997. 136-155
    [29] Katz B, Borchardt G C, Felshin S. Natural language annotations for question answering. In: Proceedings of the 19th International Florida Artificial Intelligence Research Society Conference. Florida, USA: AAAI, 2006. 303-306
    [30] Burke R D, Hammond K J, Kulyukin V A, Lytinen S L, Tomuro N, Schoenberg S. Question answering from frequently asked question files: experiences with the FAQ finder system. AI Magazine, 1997, 18(2): 57-66 http://www.aaai.org/ojs/index.php/aimagazine/article/view/1294/1195
    [31] Hovy E, Gerber L, Hermjakob U, Junk M, Lin C Y. Question answering in webclopedia. In: Proceedings of the TREC-9 Conference. Gaithersburg, USA: NIST, 2000. 655
    [32] Ittycheriah A, Franz M, Zhu W J, Ratnaparkhi A, Mammone R J. Ibm's statistical question answering system. Experimental Techniques, 2000, 33(6): 30-37(38) http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.9.9839&rep=rep1&type=pdf
    [33] Kwok C, Etzioni O, Weld D S. Scaling question answering to the web. ACM Transactions on Information Systems, 2001, 19(3): 242-262 doi: 10.1145/502115.502117
    [34] Dumais S, Banko M, Brill E, Lin J, Ng A. Web question answering: is more always better? In: Proceedings of the 25th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. Tampere, Finland: ACM, 2002. 291-298 http://dl.acm.org/citation.cfm?id=996350.996430
    [35] Khalid M A, Jijkoun V, Rijke M D. The impact of named entity normalization on information retrieval for question answering. In: Proceedings of the 30th European conference on Advances in information retrieval. Berlin, Heidelberg: Springer-Verlag, 2008: 705-710
    [36] 刘亚军, 徐易.一种基于加权语义相似度模型的自动问答系统.东南大学学报(自然科学版), 2004, 34(5): 609-612 doi: 10.3969/j.issn.1001-0505.2004.05.011

    Liu Ya-Jun, Xu Yi. Automatic question answering system based on weighted semantic similarity model. Journal of Southeast University (Natural Science Edition), 2004, 34(5): 609-612 doi: 10.3969/j.issn.1001-0505.2004.05.011
    [37] 周法国, 杨炳儒.句子相似度计算新方法及在问答系统中的应用.计算机工程与应用, 2008, 44(1): 165-167 http://www.cnki.com.cn/Article/CJFDTOTAL-JSGG200801052.htm

    Zhou Fa-Guo, Yang Bing-Ru. New method for sentence similarity computing and its application in question answering system. Computer Engineering and Applications, 2008, 44(1): 165-167 http://www.cnki.com.cn/Article/CJFDTOTAL-JSGG200801052.htm
    [38] Soubbotin M M. Patterns of potential answer expressions as clues to the right answers. In: Proceedings of the 10th Text Retrieval Conference. Gaithersburg, USA: NIST, 2001. 293-302
    [39] Lin D K, Pantel P. Discovery of inference rules for question-answering. Natural Language Engineering, 2001, 7(4): 343-360 http://www.patrickpantel.com/download/Papers/2001/jnle01.pdf
    [40] Mollá D. Learning of graph-based question answering rules. In: Proceedings of the 1st Workshop on Graph Based Methods for Natural Language Processing. New York, USA: ACL, 2006. 37-44
    [41] Moldovan D, Clark C, Harabagiu S M, Maiorano S J. Cogex: a logic prover for question answering. In: Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology. Edmonton, Canada: ACL, 2003. 87-93
    [42] Tang L R, Mooney R J. Using multiple clause constructors in inductive logic programming for semantic parsing. In: Proceedings of the European Conference on Machine Learning. Freiburg, Germany: Springer, 2001. 466-477
    [43] Zadeh L A. Fuzzy logic = computing with words. IEEE Transactions on Fuzzy Systems, 1996, 4(2): 103-111 doi: 10.1109/91.493904
    [44] Clark P, Thompson J, Porter B. A knowledge-based approach to question-answering. In: Proceedings of the 6th National Conference on Artificial Intelligence. Orlando, USA: AAAI, 1999. 43-51
    [45] Barker K, Chaudhri V K, Chaw S Y, Clark P E, FAN J, Israel D, Mishra S, Porter B, Romero P, Tecuci D, Yeh P. A question-answering system for AP chemistry. In: Proceedings of the 9th International Conference on Knowledge Representation and Reasoning. Whistler, Canada: AAAI, 2004. 488-497
    [46] 刘开瑛.汉语框架语义网构建及其应用技术研究.中文信息学报, 2011, 25(6): 46-53 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS201106006.htm

    Liu Kai-Ying. Research on Chinese FrameNet construction and application technologies. Journal of Chinese Information Processing, 2011, 25(6): 46-53 http://www.cnki.com.cn/Article/CJFDTOTAL-MESS201106006.htm
    [47] 王智强, 李茹, 梁吉业, 张旭华, 武娟, 苏娜.基于汉语篇章框架语义分析的阅读理解问答研究.计算机学报, 2016, 38(4): 795-807 doi: 10.11897/SP.J.1016.2016.00795

    Wang Zhi-Qiang, Li Ru, Liang Ji-Ye, Zhang Xu-Hua, Wu Juan, Su Na. Research on question answering for reading comprehension based on Chinese discourse frame semantic parsing. Chinese Journal of Computers, 2016, 38(4): 795-807 doi: 10.11897/SP.J.1016.2016.00795
    [48] Bollacker K, Evans C, Paritosh P, Sturge T, Taylor J. Freebase: a collaboratively created graph database for structuring human knowledge. In: Proceedings of the ACM SIGMOD International Conference on Management of Data. Vancouver, Canada: ACM, 2008. 1247-1250
    [49] Suchanek F M, Kasneci G, Weikum G. Yago: a core of semantic knowledge. In: Proceedings of the 16th International Conference on World Wide Web. Banff, Canada: WWW, 2007. 697-706
    [50] Hoffart J, Suchanek F M, Berberich K, Weikum G. Yago2: a spatially and temporally enhanced knowledge base from wikipedia. Artificial Intelligence, 2013, 194: 28-61 doi: 10.1016/j.artint.2012.06.001
    [51] Yao X C, Van Durme B. Information extraction over structured data: question answering with freebase. In: Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Baltimore, USA: ACL, 2014. 956-966
    [52] Yih W T, Chang M W, He X D, Gao J F. Semantic parsing via staged query graph generation: question answering with knowledge base. In: Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing of the AFNLP. Beijing, China: ACL, 2015.1321-1331
    [53] West R, Gabrilovich E, Murphy K, Sun S, Gupta R, Lin D K. Knowledge base completion via search-based question answering. In: Proceedings of the 23rd International Conference on Worldwide Web. Seoul, Korea: ACM, 2014. 515-526
    [54] Unger C, Cimiano P. Pythia: compositional meaning construction for ontology-based question answering on the semantic web. In: Proceedings of the Natural Language Processing and Information Systems-International Conference on Applications of Natural Language to Information Systems. Alicante, Spain: Springer, 2011. 153-160
    [55] 周永梅, 陶红, 陈姣姣, 张再跃.自动问答系统中的句子相似度算法的研究.计算机技术与发展, 2012, 22(5): 75-78 http://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ201205020.htm

    Zhou Yong-Mei, Tao Hong, Chen Jiao-Jiao, Zhang Zai-Yue. Study on sentence similarity approach of Automatic Ask & Answer System. Computer Technology and Development, 2012, 22(5): 75-78 http://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ201205020.htm
    [56] 杜文华.本体构建方法比较研究.情报杂志, 2005, 24(10): 24-25 doi: 10.3969/j.issn.1002-1965.2005.10.008

    Du Wen-Hua. Comparative study of ontology construction methods. Journal of Information, 2005, 24(10): 24-25 doi: 10.3969/j.issn.1002-1965.2005.10.008
    [57] 魏顺平, 何克抗.基于文本挖掘的领域本体半自动构建方法研究——以教学设计学科领域本体建设为例.开放教育研究, 2008, 14(5): 95-101 http://www.cnki.com.cn/Article/CJFDTOTAL-JFJJ200805019.htm

    Wei Shun-Ping, He Ke-Kang. Semi-automatic building approach of domain ontology based on text mining——a case study of building instructional design domain ontology. Open Education Research, 2008, 14(5): 95-101 http://www.cnki.com.cn/Article/CJFDTOTAL-JFJJ200805019.htm
    [58] Iyyer M, Boyd-Graber J, Claudino L, Socher R, Iii H D. A neural network for factoid question answering over paragraphs. In: Proceedings of the Conference on Empirical Methods in Natural Language Processing. Doha, Qatar: ACL, 2014. 633-644
    [59] Yih W T, He X D, Meek C. Semantic parsing for single-relation question answering. In: Proceedings of the Meeting of the Association for Computational Linguistics. Baltimore, USA: ACL, 2014. 643-648
    [60] Zhang Y Z, Liu K, He S Z, Ji G L, Liu Z Y, Wu H, Zhao J. Question answering over knowledge base with neural attention combining global knowledge information. arXiv: 1606.00979, 2016.
    [61] Werbos P J. Beyond Regression: new Tools for Prediction and Analysis in the Behavioral Science [Ph.D. dissertation], Harvard University, USA, 1974
    [62] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7): 1527-1554 doi: 10.1162/neco.2006.18.7.1527
    [63] Silver D, Huang A, Maddison C J, Guez A, Sifre L, Van Den Driessche G, Schrittwieser J, Antonoglou I, Panneershelvam V, Lanctot M, Dieleman S, Grewe D, Nham J, Kalchbrenner N, Sutskever I, Lillicrap T, Leach M, Kavukcuoglu K, Graepel T, Hassabis D. Mastering the game of go with deep neural networks and tree search. Nature, 2016, 529(7587): 484-489 doi: 10.1038/nature16961
    [64] 刘康, 张元哲, 纪国良, 来斯惟, 赵军.基于表示学习的知识库问答研究进展与展望.自动化学报, 2016, 42(6): 807-818 http://www.aas.net.cn/CN/abstract/abstract18872.shtml

    Liu Kang, Zhang Yuan-Zhe, Ji Guo-Liang, Lai Si-Wei, Zhao Jun. Representation learning for question answering over knowledge base: an overview. Acta Automatica Sinica, 2016, 42(6): 807-818 http://www.aas.net.cn/CN/abstract/abstract18872.shtml
    [65] Zheng Z P. AnswerBus question answering system. In: Proceedings of the 2nd International Conference on Human Language Technology Research. San Diego, USA: ACM, 2002. 399-404
    [66] Tunstall-Pedoe W. True knowledge: open-domain question answering using structured knowledge and inference. AI Magazine, 2010, 31(3): 80-92 doi: 10.1609/aimag.v31i3.2298
    [67] Hajishirzi H, Mueller E T. Question answering in natural language narratives using symbolic probabilistic reasoning. In: Proceedings of the 25th International Florida Articial Intelligence Research Society Conference. Marco Island, USA: AAAI, 2012. 38-43
    [68] Lally A, Prager J M, McCord M C, Boguraev B K, Patwardhan S, Fan J, FODOR P, Chu-Ca J. Question analysis: how watson reads a clue. IBM Journal of Research and Development, 2012, 56(3-4): 2:1-2:14 http://ieeexplore.ieee.org/xpl/articleDetails.jsp?reload=true&tp=&arnumber=6177727
    [69] Kalyanpur A, Patwardhan S, Boguraev B K, Lally A, Chu-Carroll J. Fact-based question decomposition in DeePQA. IBM Journal of Research and Development, 2012, 56(3): 388-389 http://ieeexplore.ieee.org/xpl/abstractKeywords.jsp?reload=true&arnumber=6177726&filter%3DAND%28p_IS_Number%3A6177717%29
    [70] Gondek D C, Lally A, Kalyanpur A, Murdock J W, Duboue P A, Zhang L, Pan Y, Qiu Z M. A framework for merging and ranking of answers in DeePQA. IBM Journal of Research and Development, 2012, 56(3-4): 14:1-14:12 http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6177810&
    [71] Dang H T, Kelly D, Lin J J. Overview of the TREC 2007 question answering track. In: Proceedings of the 16th Text Retrieval Conference. Gaithersburg, USA: NIST, 2007. 115-123
    [72] Olvera-Lobo M D, Gutiérrez-Artacho J. Question answering track evaluation in TREC, CLEF and NTCIR. Advances in Intelligent Systems and Computing, 2015, 353: 13-22 doi: 10.1007/978-3-319-16486-1
    [73] Peñas A, Forner P, Sutcliffe R, Rodrigo Á, Forăscu C, Alegria I, Giampiccolo D, Moreau N, Osenova P. Overview of ResPubliQA 2009: question answering evaluation over European legislation. In: Proceedings of the 10th Cross-Language Evaluation Forum Conference on Multilingual Information Access Evaluation: text Retrieval Experiments. Corfu, Greece: Springer, 2010. 174-196
    [74] Agichtein E, Carmel D, Harman D, Pelleg D, Pinter Y. Overview of the TREC 2015 LiveQA track. In: Proceedings of the 24th TextREtrieval Conference. Gaithersburg, USA: NIST, 2015. 1-9
  • 期刊类型引用(17)

    1. 王润周,张新生. 基于混合动态掩码与多策略融合的医疗知识图谱问答. 计算机科学与探索. 2024(10): 2770-2786 . 百度学术
    2. 康乐,靳慧亮,傅康平,张波,刘严严. 一种反潜无人机指挥控制人机交互设计研究. 中国电子科学研究院学报. 2023(02): 119-128+153 . 百度学术
    3. 张虎,王宇杰,谭红叶,李茹. 基于MHSA和句法关系增强的机器阅读理解方法研究. 自动化学报. 2022(11): 2718-2728 . 本站查看
    4. 杜永萍,赵以梁,阎婧雅,郭文阳. 基于深度学习的机器阅读理解研究综述. 智能系统学报. 2022(06): 1074-1083 . 百度学术
    5. 杨骏,敬思远,项炜. 一种基于卷积神经网络的自动问答系统. 乐山师范学院学报. 2020(04): 40-44 . 百度学术
    6. 卞长云. 从高校图书馆网站建设的对比分析看图书馆建设——以江苏省南京地区高校图书馆为例. 情报探索. 2020(11): 99-105 . 百度学术
    7. 刘依红,杨波,孙宇宁,李伟,陈静. 基于BiLSTM的婚姻法自然语言问答. 计算机工程与设计. 2019(04): 1190-1195 . 百度学术
    8. 李启可,张克亮. 基于问答系统的知识推理技术. 电脑知识与技术. 2019(09): 155-156 . 百度学术
    9. 陆伟,戚越,胡潇戈,黄勇凯,程齐凯. 图书馆自动问答系统的设计与实现. 情报工程. 2019(02): 5-16 . 百度学术
    10. 吴宇豪,陈昕雯,计慧芳,梁叶. 壮族非物质文化遗产限定域问答系统. 电子技术与软件工程. 2019(13): 179 . 百度学术
    11. 黄宏涛,梁存良,李大鹏,叶海智. 基于近似子图的规则空间压缩算法. 自动化学报. 2019(08): 1586-1598 . 本站查看
    12. 刘哲宁,朱聪慧,郑德权,赵铁军. 面向特定标注数据稀缺领域的命名实体识别. 指挥信息系统与技术. 2019(05): 14-18 . 百度学术
    13. 翟社平,李兆兆,段宏宇,李婧,董迪迪. 基于词法、句法和语义的句子相似度计算方法. 东南大学学报(自然科学版). 2019(06): 1094-1100 . 百度学术
    14. 韩朝,苗夺谦,任福继. 基于粗糙集理论的中文知识问答的知识谓词分析. 计算机科学. 2018(06): 183-186 . 百度学术
    15. 董叶豪,柯宗武,熊旭辉,孙玉霞,夏端峰. 基于Seq2Seq的问答系统应用研究. 福建电脑. 2018(10): 122-123 . 百度学术
    16. 杨亚菲. 远程教育中自动问答系统相关技术探究. 中国教育信息化. 2018(20): 94-96 . 百度学术
    17. 袁勇,王飞跃. 平行区块链:概念、方法与内涵解析. 自动化学报. 2017(10): 1703-1712 . 本站查看

    其他类型引用(62)

  • 加载中
  • 图(10) / 表(2)
    计量
    • 文章访问数:  3624
    • HTML全文浏览量:  1074
    • PDF下载量:  2360
    • 被引次数: 79
    出版历程
    • 收稿日期:  2016-09-18
    • 录用日期:  2017-05-31
    • 刊出日期:  2017-09-20

    目录

    /

    返回文章
    返回