2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于MHSA和句法关系增强的机器阅读理解方法研究

张虎 王宇杰 谭红叶 李茹

白帅帅, 陈超, 魏玮, 代璐瑶, 刘烨, 邱爽, 何晖光. 基于单试次脑电解码的类自举法谎言预测研究. 自动化学报, 2023, 49(10): 2084−2093 doi: 10.16383/j.aas.c220341
引用本文: 张虎, 王宇杰, 谭红叶, 李茹. 基于MHSA和句法关系增强的机器阅读理解方法研究. 自动化学报, 2022, 48(11): 2718−2728 doi: 10.16383/j.aas.c200951
Bai Shuai-Shuai, Chen Chao, Wei Wei, Dai Lu-Yao, Liu Ye, Qiu Shuang, He Hui-Guang. Research on single-trial EEG decoding-based class bootstrap method for lie prediction. Acta Automatica Sinica, 2023, 49(10): 2084−2093 doi: 10.16383/j.aas.c220341
Citation: Zhang Hu, Wang Yu-Jie, Tan Hong-Ye, Li Ru. Research on machine reading comprehension method based on MHSA and syntactic relations enhancement. Acta Automatica Sinica, 2022, 48(11): 2718−2728 doi: 10.16383/j.aas.c200951

基于MHSA和句法关系增强的机器阅读理解方法研究

doi: 10.16383/j.aas.c200951
基金项目: 国家重点研发计划(2018YFB1005103), 国家自然科学基金(62176145), 山西省自然科学基金(201901D111028)资助
详细信息
    作者简介:

    张虎:山西大学计算机与信息技术学院副教授. 2014 年于山西大学计算机与信息技术学院获得工学博士学位. 主要研究方向为人工智能与自然语言处理. 本文通信作者. E-mail: zhanghu@sxu.edu.cn

    王宇杰:山西大学计算机与信息技术学院博士研究生. 主要研究方向为自然语言处理. E-mail: init_wang@foxmail.com

    谭红叶:山西大学计算机与信息技术学院教授. 2008年于哈尔滨工业大学计算机学院获得博士学位. 主要研究方向为人工智能, 自然语言处理. E-mail: tanhongye@sxu.edu.cn

    李茹:山西大学计算机与信息技术学院教授. 2011年于山西大学计算机与信息技术学院获得工学博士学位. 主要研究方向为人工智能与自然语言处理. E-mail: liru@sxu.edu.cn

Research on Machine Reading Comprehension Method Based on MHSA and Syntactic Relations Enhancement

Funds: Supported by National Key Research and Development Program of China (2018YFB1005103), National Natural Science Foundation of China (62176145), and Natural Science Foundation of Shanxi Province (201901D111028)
More Information
    Author Bio:

    ZHANG Hu Associate professor at the School of Computer and Information Technology, Shanxi University. He received his Ph.D. degree from the School of Computer and Information Technology, Shanxi University in 2014. His research interest covers artificial intelligence and natural language processing. Corresponding author of this paper

    WANG Yu-Jie Ph.D. candidate at the School of Computer and Information Technology, Shanxi University. His main research interest is natural language processing

    TAN Hong-Ye Professor at the School of Computer and Information Technology, Shanxi University. She received her Ph.D. degree from the School of Computer, Harbin Institute of Technology in 2008. Her research interest covers artificial intelligence and natural language processing

    LI Ru Professor at the School of Computer and Information Technology, Shanxi University. She received her Ph.D. degree from the School of Computer and Information Technology, Shanxi University in 2011. Her research interest covers artificial intelligence and natural language processing

  • 摘要: 机器阅读理解 (Machine reading comprehension, MRC)是自然语言处理领域中一项重要研究任务, 其目标是通过机器理解给定的阅读材料和问题, 最终实现自动答题. 目前联合观点类问题解答和答案依据挖掘的多任务联合学习研究在机器阅读理解应用中受到广泛关注, 它可以同时给出问题答案和支撑答案的相关证据, 然而现有观点类问题的答题方法在答案线索识别上表现还不是太好, 已有答案依据挖掘方法仍不能较好捕获段落中词语之间的依存关系. 基于此, 引入多头自注意力(Multi-head self-attention, MHSA)进一步挖掘阅读材料中观点类问题的文字线索, 改进了观点类问题的自动解答方法; 将句法关系融入到图构建过程中, 提出了基于关联要素关系图的多跳推理方法, 实现了答案支撑句挖掘; 通过联合优化两个子任务, 构建了基于多任务联合学习的阅读理解模型. 在2020中国“法研杯”司法人工智能挑战赛(China AI Law Challenge 2020, CAIL2020)和HotpotQA数据集上的实验结果表明, 本文提出的方法比已有基线模型的效果更好.
  • 说谎, 是人类特有的一种心理现象, 是指说话人主观刻意扭曲或隐瞒某些事实真相的行为. 合理高效且准确的谎言检测技术对于维护国防安全、社会稳定、司法公正等方面具有重大的现实意义[1]. 目前, 利用多导生理仪采集心电、血压、皮电等生理信号进行测谎的研究取得了长足的进步, 但仍存在结果容易受到外界环境干扰, 无法摆脱反测谎策略[2]的问题, 致使基于多导生理仪测谎的性能不稳定.

    近年来, 利用脑电(Electroencephalogram, EEG)信号的事件相关电位(Event-related potential, ERP)测谎技术获得了关注和研究. 脑电是脑神经活动产生的电信号, 反映了大脑的认知活动, 并具有时间分辨率高、便于采集等优势. 与外周生理信号相比, 基于脑电的测谎研究更有望从神经机制的层面揭示谎言的诱发过程[3]. P300电位[4] 是目前ERP测谎技术研究中较为广泛使用的一种ERP成分, 体现在波形上是一个在刺激产生后300 ms左右脑电幅值正向的偏移, 其波幅反映了工作记忆中背景更新的程度[5]. P300电位测谎技术基于上述背景更新理论, 犯罪者相对于无辜者而言, 往往掌握对案件更多的关键信息, 对于犯罪相关信息有更深刻的认知加工. 因此, 当案件相关信息作为探针刺激呈现时, 相比无关刺激会诱发犯罪者更显著的P300电位, 而对于无辜者则不会.

    事件相关电位测谎技术的研究主要包含测谎范式和脑电解码方法两个方面. 其中, 测谎范式的研究, 一方面是为了提高谎言检测的准确性, 另一方面是为了摆脱反测谎策略的影响. 在测谎研究中广泛使用的隐藏信息测试(Concealed information test, CIT)基于背景更新理论, 通过设置与犯罪情节相关或无关的多项选择问题来判断被试是否诱发了定向反应, 从而进行谎言检测, 但CIT范式仍然无法避免因被试通过对无关刺激与特定任务相关的反测谎策略造成的阳性率降低. Rosenfeld等[6]提出了一种复合反应范式(Complex trial protocol, CTP), 将单个刺激分成简单反应与辨别反应. 其中, 简单反应可以使被试诱发显著的P300电位; 辨别反应是为了确定被试的认知注意保持在实验任务之上, 从而摆脱反测谎策略的影响, 是近年来在测谎应用中研究更为广泛的范式. 2020年, Chang等[7]在CIT范式上加以改进, 开发了一种基于视听刺激的ERP谎言检测范式, 将被试姓名编辑为音频文件作为音频刺激, 与作为图片刺激的被试自传体信息共同呈现, 但是无法保证听觉刺激不被其他非探针被试所知悉, 导致其他非探针被试同样会诱发显著P300成分. 2022年, Wang等[8] 基于快速序列视觉呈现(Rapid serial visual presentation, RSVP)范式的隐藏信息测试方法, 提出了一种RCIT (RSVP-based concealed information test)测谎范式. 在此实验范式框架下, 高速出现的图像刺激使得被试无暇分配更多认知资源施加反测谎策略, 但同时作者也在原文中指出, 这种范式依然受制于探针刺激不易选取的问题.

    在事件相关电位测谎研究的脑电解码中, 传统方法是对多个试次脑电叠加得到的ERP成分的波幅、波面积和潜伏期等指标进行峰值检测、靴值分析等统计学分析. 之后, 基于机器学习与神经网络的方法在谎言检测中得到了研究和进步. 2019年, 彭丝雨等[9]将互信息分析方法应用至脑电分析领域, 采用CIT测谎范式, 通过量化构建说谎与诚实人群具有显著性差异的电极对的互信息作为特征分类依据, 构建出大脑功能网络. 2020年, Dodia等[10]提出了一种基于极限学习机(Extreme learning machine, ELM)的ERP谎言检测算法, 通过傅里叶变换提取脑电特征集, 采用ELM对特征集进行训练分类. 上述方法均涉及对脑电特征的手工设计, 近年来, 一些端到端的脑电分析方法在测谎应用中得到了研究. 同年, Baghel等[11]利用卷积神经网络在所采集的14导基于CIT范式的脑电信号数据集上进行谎言检测, 其正确率为84.44%. 2021 年, Bablani等[12]基于CIT范式, 采用Fuzzy系统, 提取EEG信号的空间特征进行分类, 取得了93.54%的平均预测正确率. 2022年, Javaid等[13]提出一种由EEG信号引导基于视听信息的多模态谎言检测模型, 采用卷积神经网络对视听信息分别在时域与频域提取特征, 利用一个双向长短时记忆网络对EEG信号进行表征, 采用权重赋值的后期融合方式将3种模态的特征信息进行融合, 最终得到83.5%的检测正确率.

    目前, 已有的基于脑电谎言检测的解码技术, 在方法层面, 传统方法依赖研究人员手工设计特征, 存在主观性, 无法摆脱因被试个体差异性造成个别被试的特征信息冗余或缺失[14]. 在数据层面, 仅使用一个或少量导联, 忽略了脑电在空间上的特性[15]. 近年来, 随着脑−机接口技术的发展, 新的端到端单试次脑电解码算法和全脑脑电采集都有了长足的进步, 在避免手工设计特征带来缺陷的同时提供了更丰富的脑电信息, 为推进测谎技术进一步发展提供了基础. 如基于神经网络的脑电解码算法[16-19], 可以在不同脑−机接口范式中实现准确的单试次脑电分类, 在谎言检测场景下也有相关研究. 由于脑电的个体差异性, 此类方法一般需要为每个个体训练对应的解码模型. 训练过程需要谎言相关信息作为标签用来进行有监督的模型训练, 但这一信息在应用中是无法获得的. 如记录了犯罪嫌疑人对$ {N} $条犯罪信息$( {N} $类刺激)的脑电响应, 但无从知晓其中哪些信息是与嫌疑人有关的(探针刺激), 哪些是无关的(无关刺激), 导致此类方法的训练和测试模式在实际中难以应用.

    基于背景更新[5]相关理论, 相较与被试无关的信息而言, 与被试有关的信息更能使被试诱发出显著的P300电位. 也就是说, 真正的探针刺激与真正的无关刺激所诱发的脑电样本存在显著差异; 而真正的无关刺激之间却没有这种差异性. 解码模型可以通过脑电样本的显著差异性实现探针刺激与无关刺激的分类. 基于此, 本文提出了类自举法, 从数据分布假设的角度, 解决了当前单试次脑电分类方法的训练和测试模式无法应用的问题.

    基于上述背景, 本研究开展基于CTP的自我面孔信息识别任务实验, 采集了18名被试的64导联全脑脑电信号. 研究近年提出的端到端P300脑电解码算法在测谎中的应用, 以及训练数据量对不同算法结果的影响. 针对当前单试次脑电解码训练和测试模式无法在测谎中实际应用的问题, 提出了一种类自举法, 基于不同的单试次脑电解码算法, 可以实现在少量数据情况下的准确谎言预测.

    本实验招募共计18名被试, 其中男性8名, 女性10名, 平均年龄为23.39$ \pm $2.5岁, 且均在18 ~ 29岁之间. 每名被试在实验开始前均签署知情同意书.

    自我面孔识别任务采用复合反应范式, 探针刺激是由被试提供的本人证件照, 无关刺激设置为4张由软件合成的现实世界并不存在的人脸图片(https://thispersondoesnotexist.com), 以避免被试对无关刺激的知晓. 探针刺激和无关刺激比例为1 : 4. 实验任务共10组, 每组任务包含60试次, 每个试次包含一个图片刺激(人脸)和一个数字刺激; 每张人脸图像随机呈现12次.

    单个试次流程如图1所示(图中人脸图片为软件合成), 每个试次包含一次简单反应和一次辨别反应. 每次反应呈现时间均为300 ms, 需要被试在接下来的空屏时间内进行特定行为学响应. 具体实验流程为: 图片刺激呈现300 ms, 紧接着呈现1300 ~1650 ms随机时长的空屏. 被试需要在空屏时间内按下按键“A”表示自己看到了人脸图片. 而后呈现数字刺激300 ms, 紧接着呈现1300 ~ 1650 ms随机时长的空屏, 若数字为“11111”, 被试需要在空屏时间内按下方向键“←”; 若为其他数字, 按下方向键“→”. 之后进入下一个试次呈现刺激图片, 依次循环. 其中随机时长的刺激间隔可以避免被试对即将出现的刺激产生固定预期. 为了强制被试关注图片刺激, 每组任务中, 每20 ~ 30试次会对被试进行随机测试, 要求被试识别上个试次的图片刺激. 每个试次时长约3.5 s, 每组任务时长约4 min, 组间强制被试休息超过30 s, 10组任务时长共计约45 min.

    图 1  单试次实验流程图
    Fig. 1  Flow chart of a single-trial experiment

    对于每名被试, 正式实验开始之前需要记录被试的静息脑电, 包括闭眼静息脑电和睁眼静息脑电. 完成静息后, 给予被试标准化任务指导语, 并利用一些日常用品图像让被试进行按键练习. 之后实验正式开始.

    本实验的脑电信号采集系统使用Neuroscan公司生产的64导脑电仪. 脑电电极按照10/20系统排布, 采用左侧乳突M1为参考电极, 前额GND电极为地电极, 电极与头皮之间的阻抗均降至$5\;{\rm{k}}\Omega $以下, 并通过SCAN软件同步记录脑电数据, 由放大器放大, 采样频率为1000 Hz. 在正式实验开始后, 被试均被要求不能频繁眨眼, 头部保持静止, 身体尽量保持不动, 且实验过程中保证实验环境静音.

    对于采集的脑电数据, 按照实验分组使用EEGLAB工具箱[20] 进行预处理. 首先进行通带为0.5 ~ 15 Hz的带通滤波, 采用3阶巴特沃斯线性相位滤波器实现. 接着将数据降采样为250 Hz. 最后进行数据分段, 选择每试次中图像刺激诱发的脑电, 从图像刺激发生时刻开始, 到之后的1000 ms进行数据分割, 获得一个单试次脑电样本. 由于基于神经网络的脑电解码方法对于输入的归一化需求, 对每个单试次脑电样本按照导联进行归一化(零均值、单位方差). 对于每名被试者, 可以获得60 × 10 (试次 × 组)个单试次脑电样本, 每个脑电样本大小为63 × 250 (导联 × 时间).

    在基于自我面孔信息的CTP实验中, 对数据进行预处理后, 每名被试有脑电数据$D=\{(x_{i}, y_{{\rm{pic}}_{i}})\}_{j=1}^{600}$, 其中, $ x_{i} $$ \in $$ \bf{R}^{63 \times 250} $为每张图片刺激诱发的单试次脑电样本, $ y_{{\rm{p i c}}_{i}}\in\{0,1, \cdots, 4\} $为诱发脑电的图像标签. 探针预测的基本任务是对于每名被试, 利用$ {D} $ 预测探针刺激的标签 $ Y \in\{0,1, \cdots, 4\} $. 对于单试次脑电任务而言, 需要对每个脑电样本$ {x_{i}} $, 预测对应的脑电标签$ y_{{\rm{eeg}}_{i}}\in\{0,1\} $, 0表示$ {x_{i}} $为无关刺激所诱发的脑电, 1表示$ {x_{i}} $为探针刺激所诱发的脑电. 单试次脑电分析模型的训练中, 需要每个脑电样本$ {x_{i}} $和对应的$ y_{{\rm{eeg}}_{i}} $. 但在实际测谎中, 一方面, 难以保证图像探针标签的正确选取或者泄露[8], 从而也无法获得对应$ y_{{\rm{eeg}}_{i}} $以训练脑电分类模型; 另一方面, 脑电信号信噪比低, 单试分类的结果往往不稳定[21] (如同一刺激, 在不同试次呈现所诱发的单试次脑电被分为不同类), 且探针预测任务需要正确判断某类刺激是否为探针刺激而往往并不关注单试分类的结果. 针对上述问题, 本研究提出一种基于单试次脑电分类的类自举算法, 旨在实现一种在测谎应用场景下实际可用的脑电解码方法.

    在本文进行的CTP实验任务中, 呈现给被试的刺激包括探针刺激与无关刺激. 探针刺激为被试的自我面孔信息, 无关刺激为现实世界并不存在的面孔, 对于被试而言是陌生且无意义的. 根据背景更新[5]理论, 相较于无关刺激, 探针刺激会诱发更为显著的P300. 从数据分布的角度, 在类别空间中, 探针刺激诱发的不同脑电样本属于同一分布, 无关刺激诱发的不同脑电样本属于同一分布, 而两者之间数据分布存在差异性. 如图2所示, 在此假设前提下, 若将自我面孔信息作为探针刺激标签, 构造脑电样本标签$ y_{{\rm{eeg}}_{i}} $训练分类算法时, 算法可以根据各类数据分布实现有效的模型训练和分类(图2(a)); 若将陌生人脸图像作为探针刺激的标签, 算法无法根据同分布数据实现有效训练, 模型不具备分类能力(图2(b)). 基于此数据分布假设, 类自举法分别将不同类的刺激视为探针刺激训练模型和测试, 依据分类性能对探针刺激进行预测.

    图 2  类自举法的分布假设示意图
    Fig. 2  Schematic diagram of distribution hypothesis of the class bootstrap method

    类自举法对被试进行探针刺激预测时, 输入数据$ {D} $, 输出预测的探针刺激对应的标签$ Y $. 算法的主要流程是将5种类别刺激依次视为探针刺激, 分别构建对应的脑电样本标签, 划分训练集和验证集; 在训练集上训练单试次脑电分类器, 并在验证集上进行测试, 获得分类均衡精度; 综合5种刺激分别作为探针刺激时验证集的分类均衡精度, 最高精度对应的图像刺激为探针刺激, 并将其输出.

    对应本文的实验场景, 类自举法实现的伪代码如算法1所示.

    输入为单试次脑电分类模型$ f(\cdot) $, 脑电数据$ X= \left\{x_{i}\right\}_{j=1}^{N} $ 对应图像标签$Y=\left\{y_{{\rm{pic}}_{i}}\right\}_{j=1}^{N}$, 其中, $y_{{\rm{pic}}_{i}}\in \{0, 1,2,3,4\}$; 输出为探针刺激.

      算法1. 类自举法

    1: for i in $ y_{{\rm{p i c}}} $ do

    2: $ X=X_{\text {train}} \cup X_{\text {val}}, Y=Y_{\text {train}} \cup Y_{\text {val}} $

    3:  if $y_{\rm{{p i c}}}$ == i then

    4:   $ y_{{\rm{e e g}}} $ == 1

    5:  else

    6:   $y_{{\rm{e e g}}}$ == 0

    7:   $Y_{\text{train}_{{\rm{eeg}}}}=\left\{y_{i}\right\}_{j=1}^{m} \text{and } Y_{\text{val}_{{\rm{eeg}}}}=\left\{y_{i}\right\}_{j=1}^{n}$

    8:   training: $f_{i}\left(X_{\text {train }}, Y_{\text {train}_{ {\rm{eeg}}}}\right)$

    9:   validation: $\hat{Y}_{{\rm{val}}_{{\rm{eeg}}}}=f_{i}\left(X_{{\rm{val}}}\right)$

    10:  $BA_{i}={BA}\left(\hat{Y}_{\text{val}_{{\rm{eeg}}}}, Y_{\text {val}_{{\rm{eeg}}}}\right)$

    11: end for

    12: 探针刺激 = $\operatorname{argmax}\;(B A)$

    13: return探针刺激

    在应用中, 每名被试者能获取的脑电数据有限, 导致训练数据十分稀有. 基于此, 在单试次脑电样本分类算法的选择上, 本文选择了几种在小训练数据量上有较好性能表现的端到端脑电分类算法, 包括传统机器学习方法(HDCA[22]、MDRM[23])及神经网络方法(EEGNet[24]、OCLNN[25]和PLNet[26]), 上述分类算法模型结构简单, 训练参数量小, 鲁棒性好. 此外, 采用常用的传统P300脑电分类算法作为对比方法.

    1)分层判别成分分析(Hierarchical discriminant component analysis, HDCA)[22]: 是一种在空间、时间维度依次提取脑电特征并进行分类的方法, 由Gerson等[22]于2006年提出, 应用在基于快速序列视觉呈现的目标检索任务的P300分类中. 对于单试次脑电样本(导联 × 时间), 在时间维度切分$ {k} $个时间窗, 对于每时间窗的数据分别训练一个线性判别分类器(Linear discriminant analysis, LDA), 计算在导联(空间)的投影, 将投影后的各时间窗拼接, 训练一个时间维度的LDA分类器, 并进行分类. HDCA算法具有简单、计算量小的优势.

    2)最小黎曼均值方法(Minimum distance to riemannian mean, MDRM)[23]: 是一种基于黎曼几何的P300分类方法, 由Barachant等[23]于2012年提出, 应用于P300 脑电二分类问题. 该方法在训练中构建包含P300的模板, 在导联维度拼接模板和单试次脑电, 通过计算样本协方差矩阵将脑电转换到黎曼流形空间, 在流形空间分布计算类别均值, 按照最近邻的思想进行分类. MDRM方法对P300不同的潜伏期和训练数据量具有较好的鲁棒性.

    3) EEGNet[24]: 是一种基于卷积神经网络的脑电分类方法, 由Lawhern等[24]于2018年提出, 可应用在脑电P300分类中. EEGNet中包含多个卷积层, 分别从导联、时间维度提取特征, 再利用深度卷积融合特征信息及全连接层进行分类. EEGNet具有网络结构紧凑、应用范式多样的优势.

    4) OCLNN (One convolutional lager nerual network)[25]: 是一种单层卷积神经网络的脑电分类方法, 由Shan等[25]于2018年提出, 应用于基于P300电位的脑−机接口拼写器中. 网络仅包含一个卷积层, 同时从时间和导联维度提取特征, 并使用全连接层进行分类. OCLNN具有网络结构简单、参数量小、易于训练的优势.

    5) PLNet[26]: 是一种基于卷积神经网络的脑电分类方法, 由Zang等[26]于2021年提出, 应用于基于快速序列视觉呈现的目标检索任务的P300分类中. 类似于EEGNet, 网络不同的卷积层分别对脑电的时间空间维度提取特征, 通过维度转换的方式实现不同维度特征的融合提取, 全连接层进行分类. PLNet是目前提出的最新的脑电P300分类算法, 并实现了优于EEGNet的性能.

    2.3.1   实验方法

    为了研究近年提出的P300脑电分类算法在谎言预测任务中的有效性以及类自举法的性能, 设计了两种实验: 单试次脑电分类和基于脑电的探针预测任务. 此外, 基于自我面孔信息的CTP实验中每名被试包含10组数据, 在脑电分析实验中也对使用数据量对方法性能的影响进行了分析.

    单试次脑电分类实验使用单试次脑电数据$ {x_{i}} $及对应的探针标签${y_{{{\rm{eeg}}}_i}}$训练脑电分类算法, 对测试样本进行二分类. 在单试次脑电分类实验中, 研究不同训练数据量及不同脑电分析方法的分类性能, 结果主要用于对不同算法在测谎应用中的有效性分析. 具体实现为, 对于每一名被试, 选择其前$ {P} $组($ {P} \in\{1,2,3,4,5\} $)作为训练集训练单试次脑电分类模型, 采用余下的$ {10}- {P} $组数据作为测试集, 测试模型分类性能. 实验对比了不同端到端单试次脑电分类方法: 传统机器学习方法HDCA、MDRM与基于神经网络的方法OCLNN、EEGNet和PLNet. 此外, 选择了不同的传统脑电分类算法进行对比, 分别使用时域特征、空域特征和小波域特征训练分类器(SVM (Support vector machine)或LDA)进行分类, 相关特征在基于脑电的测谎中已有研究[12, 27-28]. 在基于神经网络算法的单试次脑电分类实验中, 采用了10折交叉验证的方式对训练集进一步划分训练集和验证集, 最后分类结果为多折平均结果.

    在基于脑电的探针预测实验中, 使用探针预测算法对每名被试进行探针$ ({Y}) $预测. 研究不同数据量、不同方法对探针预测准确性的影响. 具体实现为, 分别使用每名被试脑电数据的前$ {P} $组($ {P} \in\{2,3, 4,5,6\} $)进行探针预测任务. 对于类自举法而言, 在算法执行中, 使用前$ [{P} /2]$组数据作为类自举法训练集, 余下的${P} -[ {P}/2] $组数据作为类自举法验证集, 每名被试进行一次探针预测. 其中, 基于神经网络的方法进行了10折交叉验证. 在基于脑电的探针预测实验中, 采用自举波幅差法(Bootstrapped amplitude difference, BAD)[6]作为对比方法. BAD是一种当前普遍采用的探针检测算法[26], 对所有刺激类别, 首先取该类刺激的P300波幅的峰峰值(P-P)或基峰值(B-P)平均值; 随后随机抽取与该类刺激同等样本量的剩余刺激并重复100 次, 逐次平均, 获得剩余刺激的P300波幅的峰峰值(P-P)或基峰值(B-P)池; 最后检测该类刺激的P300波幅值在剩余刺激的P300波幅值池中的百分位排名, 如该类刺激的P300 波幅值在剩余刺激P300波幅值池中的百分位排名大于95%, 则预测该类刺激为探针.

    2.3.2   实验参数

    表1列举了单试次脑电解码实验中所采用脑电分类方法的主要参数和代码来源.

    表 1  单试次脑电解码实验主要参数
    Table 1  Main parameters of single-trial EEG decoding experiment
    方法 主要参数 代码来源
    时域 + SVM 时域特征: Pz导联数据
    SVM分类器: C = 100; kernel = “rbf”
    利用python工具包sklearn实现
    小波 + SVM 连续小波变换; wavelet = “morl”;
    SVM分类器: C = 100; kernel = “rbf”
    利用python工具包pywt、sklearn实现
    CSP + LDA 空域特征: 全脑64 通道 利用python工具包pyRiemann、sklearn实现
    HDCA 时间窗: 100 ms 根据文献[22]复现
    MDRM xDAWN-Covariances + MDM python工具包pyRiemann复现
    OCLNN Batch size = 8; optimizer = “adam”
    lr = 0.0002; betas = (0.9, 0.999)
    weight_decay = 0.001
    根据文献[24]利用Pytorch包复现
    EEGNet Batch size = 64; lr = 0.001
    optimizer = “adam”; betas = (0.9, 0.99)
    https://github.com/vlawhern/arleegmodels
    PLNet Batch size = 16; lr = 0.001
    optimizer = “adam”; betas = (0.9, 0.99) early stop
    根据文献[26]利用tensorflow.keras库复现
    下载: 导出CSV 
    | 显示表格

    由于探针刺激与无关刺激的比例为1 : 4, 存在类不均衡问题. 因此, 对于神经网络方法(OCLNN、EEGNet和PLNet), 按类别比例对损失函数加权, 正样本权重为 1, 负样本权重为 0.25. 实验均在一台拥有12 GB内存和NVIDIA GeForce GTX 1080 Ti GPU的Linux服务器上进行.

    2.3.3   实验度量指标

    为了对比与分析方法性能, 本文采用两种度量指标: 均衡精度(Balanced accuracy, BA)及探针预测正确率. 均衡精度用于衡量单试次脑电分类任务的性能, 单试次脑电分类为脑电的二分类问题, 探针刺激诱发的脑电为正类, 无关刺激诱发的脑电为负类, 正负样本比例为1 : 4. 由于类别之间存在着数量上的不均衡性, 本研究采用均衡精度作为评价模型性能的指标. 均衡精度表示了正样本和负样本分类正确率的平均值, 是类别不均衡问题中更能反映模型正负样本均衡正确率的指标. 计算式为

    $$ { BA }= \frac{{TPR}+{TNR}}{2} $$ (1)
    $$ {TPR}=\frac{{TP}}{{TP}+{FN}} $$ (2)
    $$ {TNR}=\frac{{TN}}{{FP}+{TN}} $$ (3)

    其中, TPR为正样本的分类正确率, TNR为负样本的分类正确率. TP代表被分为正类的正样本数; TN代表被分为负类的负样本数; FN代表被分为负类的正样本数; FP代表被分为正类的负样本数.

    探针预测实验中, 对每一名被试进行一次探针预测, 即判定图像刺激中的某一个为探针刺激, 若判定的图像刺激确为探针刺激则预测正确. 探针预测正确率为正确预测探针被试数占所有被试的百分比.

    图3展示了本文所采集的18名被试的Pz导联的平均事件相关电位波形.

    图 3  事件相关电位波形图
    Fig. 3  Event-related potential waveform

    图3中实线为探针刺激所诱发的事件相关电位波形, 虚线为非目标刺激所诱发的事件相关电位波形, 对应阴影区域为两者标准差. 从图3中可以看出, 探针刺激和无关刺激均可以诱发包含P300成分的ERP. 探针刺激所诱发的P300电位峰值潜伏期为556 ms, 无关刺激所诱发的P300电位峰值潜伏期为604 ms, 探针刺激所诱发的P300电位幅值大于无关刺激. 图3 结果表明了所设计实验和采集数据的有效性.

    表2 (*表示在每个训练数据量下, 对比方法与最优性能方法均衡精度之间具有统计显著性差异性, *: $ p< $0.05; **: $ p< $0.01; ***: $ p< 0.001$, p表示显著性概率值)展示了不同方法在不同训练数据量下的单试次脑电样本分类均衡精度. 双因素重复测量方差分析的结果表明, 不同训练数据量和不同方法两种因素对于单试次脑电解码均具有显著性影响(不同方法: $F(4, 68)= $33.179, $ p< 0.01$; 不同数据量: $F(1.734, 29.470)= $77.438, $ p< 0.01$, F表示方差分析的F统计量), 且因素间存在显著的交互作用$(F(5.967, 101.447) = 4.902 $, $ p< $0.01). 在1组训练数据量下, EEGNet单试分类性能显著优于传统机器学习方法(所有$ p< 0.01)$, 显著优于OCLNN $ (p< 0.001)$, 性能高于PLNet (无统计显著). 在2 ~ 5 组训练数据量下, PLNet单试分类性能显著优于其他对比方法(均有$ p<0.05) $.

    表 2  不同方法在不同训练数据量下的分类均衡精度(均值±标准差) (%)
    Table 2  Balanced accuracy of different methods under different training data (mean±standard deviation) (%)
    方法 模型训练中采用的训练数据量(组)
    1 2 3 4 5
    时域 + SVM 57.31±5.21** 59.42±5.25*** 60.51±6.03*** 61.12±6.66*** 61.49±7.08***
    小波 + SVM 58.06±5.79*** 58.80±4.97*** 59.40±5.77*** 59.12±5.53*** 59.31±6.10***
    CSP + LDA 59.16±7.04* 63.06±9.14** 65.56±9.11*** 67.66±10.91*** 68.73±10.77***
    HDCA 56.80±5.41** 60.89±5.82** 62.69±7.09*** 64.68±7.34*** 67.42±7.88***
    MDRM 52.52±2.60*** 57.99±6.44*** 62.47±9.04*** 64.91±8.34*** 67.69±8.93***
    OCLNN 55.25±4.88*** 61.32±5.64*** 65.83±7.16*** 68.28±7.40*** 70.88±8.55***
    EEGNet 61.79±7.57 64.75±6.79* 68.72±7.39** 69.59±7.73** 71.71±7.80**
    PLNet 60.57±6.54 68.38±7.22 73.42±8.44 74.88±8.69 76.73±8.94
    下载: 导出CSV 
    | 显示表格

    表2的结果可见, 对于不同的单试次脑电分类方法, 均呈现了分类精度随着训练数据量增加而增加的趋势. 在一组训练数据量下, EEGNet取得了最佳的单试次脑电分类性能, 随着训练数据量的提升, 在2 ~ 5组训练数据量下, PLNet取得了优于其他算法的显著性能; 传统脑电解码方法在小训练数据量(1组)下, 单试分类性能要优于一般的端到端方法机器学习算法(HDCA、MDRM), 但是随着训练数据量的增加, 领先优势逐渐消失, 在3组训练数据量下, 基于传统机器学习的端到端方法的单试分类性能优于时域及小波域两种传统分类方法. 随着训练数据量的提升, 基于神经网络的方法均显著优于其他脑电分类方法. 此外, 随着训练数据量的增加, 在相同训练数据量提升下, 与传统方法相比, 基于神经网络的方法的分类精度提升更大.

    基于脑电的探针预测结果如表3所示. 从表3的结果可见, 在使用不同数量的脑电数据情况下, 基于PLNet的类自举法探针预测结果准确率最高, 并高于对比方法. 在仅使用2组数据情况下, 基于PLNet/OCLNN的类自举法探针预测可以实现88.89%的预测准确率; 随着使用的脑电数据量的增加, 探针预测的准确性随之提升, 在使用3 ~ 6组脑电数据情况下, 基于PLNet和EEGNet的类自举法探针预测性能相同且为对比方法中最优, 在6组数据量下, 可实现100.00%正确探针预测. 对比方法BAD (P-P)在使用3组数据的情况下可实现与基于神经网络的类自举探针预测方法相同的性能.

    表 3  不同方法在不同数据量下的探针预测正确率 (%)
    Table 3  Probe prediction accuracy of different methods under different data volume (%)
    方法 使用的总数据量(组)
    2 3 4 5 6
    BAD B-P 61.11 66.67 72.22 72.22 77.78
    P-P 61.11 72.22 77.78 77.78 77.78
    类自举法 HDCA 27.78 38.89 61.11 77.78 83.33
    MDRM 55.56 50.00 66.67 88.89 88.89
    OCLNN 88.89 72.22 83.33 88.89 88.89
    EEGNet 83.33 72.22 83.33 94.44 100.00
    PLNet 88.89 72.22 83.33 94.44 100.00
    下载: 导出CSV 
    | 显示表格

    随着使用数据量的增加, BAD方法的探针预测性能呈现了增加(2 ~ 4组数据)而后到达平台期(4 ~ 6组数据)的变化趋势. 类自举法的探针预测性能整体呈现了随使用数据量增加而增长的趋势. 基于神经网络的类自举法在仅需要更少的数据情况下(OCLNN、EEGNet和PLNet在2组数据下)便可以实现传统方法在更多训练数据情况下(如BAD、HDCA和MDRM在5组数据下)才得以实现的探针预测性能. 此外, 统计类自举法的算法耗时的结果表明, 在采用PLNet进行类自举探针预测的情况下, 使用不同数据量的情况下训练时间十分相近, 平均时长为17.5$ \pm $0.7 min. 采用BAD方法进行探针预测的算法耗时短, 平均时长为1.46$ \pm $1.39 s. 虽然BAD算法的计算复杂度低, 不需要额外训练模型的时间, 但其探针预测精度低于类自举法. 类自举法的实验结果表明, 使用越多的任务数据, 探针预测性能越高, 也会导致实际中任务实施时长的增加. 类自举法在实际应用中, 可以按照实际的时间与任务精度需求实施. 综合单试分类、探针预测准确率的结果看, 数据驱动的端到端脑电分类算法受到训练数据量的影响较大, 模型准确率随着训练数据量的增加而增加. 由于训练样本少, 单试次脑电分类性能较差; 而本文所提出的类自举法结合神经网络方法可以实现准确的探针预测.

    为验证本文所提出的类自举法的假设及方法的有效性, 本研究对模型输出特征进行了可视化分析, 图4展示了其中一名被试在类自举法使用5组数据情况下的可视化结果. 使用前3 组脑电数据, 分别将5类图像刺激视为探针刺激构造对应单试次脑电的二元标签(探针刺激: 1, 无关刺激: 0), 训练PLNet. 使用后2组数据作为输入, 将PLNet模型中卷积网络所提出的特征, 使用tSNE方法降至二维, 并绘制散点图.

    图 4  类自举法中不同脑电标签训练解码模型的特征可视化
    Fig. 4  Feature visualization of decoding models trained with different EEG labels in class bootstrap method

    图4(a)所示, 真正的探针刺激作为正样本构建脑电标签情况下, 所训练模型的特征空间中, 探针刺激所诱发的脑电样本分布集中, 且与无关刺激脑电样本具有一定的可分性. 而图4(b) ~ 4(e) 的结果表明, 在无关刺激被视为探针刺激构造单试次脑电标签进行训练后, 模型无法学习到有效的分类模式, 不同图像刺激所诱发脑电样本的分布十分混乱, 探针刺激与无关刺激之间不具有可分性. 上述结果也表明了类自举法的数据分布假设的正确性和方法的有效性.

    本文面向谎言预测的脑电信号解码研究, 设计了基于CTP的自我面孔信息任务, 开展实验采集了18名被试者的任务脑电数据, 研究分析了近年来广泛应用于脑−机接口领域的P300脑电分类方法在测谎场景下的应用. 针对当前单试次脑电分类方法的训练与测试模式无法应用等问题, 基于数据分布的假设, 提出了一种类自举法以实现实际可用的探针预测方法. 实验结果表明, 端到端的单试次脑电分类算法在测谎应用中具有可行性, 且分类性能受到训练数据量的影响; 所提出基于单试次脑电分类的类自举法可以实现准确的探针预测, 可视化分析的结果也表明了类自举法的前提假设与方法的有效性.

    在本研究所开展的基于CTP实验中, 每名被试均有自我面孔信息作为探针刺激, 因此, 被试中不包含无辜者. 虽然本文所进行的探针预测任务不包含对无辜者的甄别, 但是提出的类自举法可以通过设置分类性能的阈值来进行无辜者判定, 这也是我们后续继续推进的研究内容, 并将开展相关实验进行分析和验证. 此外, 针对知情无辜者的问题, 有研究证明[29], 早期后部负电位(Early posterior negativity, EPN)会在与自我相关的背景信息中得以显著诱发, 可作为区分有罪者与知情无罪者的一种ERP成分. 后续研究拟在P300-CTP组合测谎模式中加入对EPN成分的分析, 来进一步探究EPN成分的诱发效应与无辜者甄别能力.


  • 1 https://github.com/baidu/lac
  • 1 https://github.com/baidu/lac2 https://github.com/baidu/DDParser3 https://github.com/explosion/spaCy
  • 3 https://github.com/explosion/spaCy
  • 4 https://github.com/china-ai-law-challenge/CAIL2020/tree/master/ydlj5 https://github.com/neng245547874/cail2020-mrc6 https://github.com/hotpotqa/hotpot
  • 5 https://github.com/neng245547874/cail2020-mrc
  • 6 https://github.com/hotpotqa/hotpot
  • 图  1  CAIL2020阅读理解数据集样例

    Fig.  1  Sample of CAIL2020 MRC dataset

    图  2  MJL-model模型结构

    Fig.  2  Model architecture of MJL-model

    图  3  多跳推理层结构图

    Fig.  3  Model architecture of multi-hop reasoning layer

    图  4  注意力可视化样例

    Fig.  4  Sample of attention visualization

    图  5  关联要素关系图样例

    Fig.  5  Sample of related element graph

    图  6  多跳推理注意力可视化样例图

    Fig.  6  Visible sample of multi-hop reasoning attention

    表  1  CAIL2020数据集实验结果(%)

    Table  1  Results on the CAIL2020 dataset (%)

    模型Ans_F1Sup_F1Joint_F1
    Baseline_BERT 70.40 65.74 49.25
    Baseline_RoBERTa 71.81 71.11 55.74
    Baseline_DPCNN 77.43 75.07 61.80
    Cola 74.63 73.68 59.62
    DFGN_CAIL 68.79 72.34 53.82
    MJL-model 78.83 75.51 62.72
    下载: 导出CSV

    表  2  HotpotQA实验结果(%)

    Table  2  Results on the HotpotQA dataset (%)

    模型Ans_F1Sup_F1Joint_F1
    Baseline 58.28 66.66 40.86
    QFE 68.70 84.70 60.60
    DFGN 69.34 82.24 59.86
    SAE 74.81 85.27 66.45
    MJL-Model 70.92 85.96 62.87
    下载: 导出CSV

    表  3  消融实验结果(%)

    Table  3  Results of ablation experiments (%)

    模型Ans_F1Sup_F1Joint_F1
    MJL-model78.8375.5162.72
    Question_answering76.36
    Answer_evidence73.42
    –MHSA 76.28 75.11 61.16
    –RCNN 75.96 75.05 60.96
    –Syntax & Similarity 77.61 74.39 60.80
    下载: 导出CSV
  • [1] 曾帅, 王帅, 袁勇, 倪晓春, 欧阳永基. 面向知识自动化的自动问答研究进展. 自动化学报, 2017, 43(9): 1491-150.

    Zeng Shuai, Wang Shuai, Yuan Yong, Ni Xiao-Chun, Ouyang Yong-Ji. Towards knowledge automation: a survey on question answering systems. ACTA AUTOMATICA SINICA, 2017, 43(9): 1491-1508(in Chinese).
    [2] 奚雪峰, 周国栋. 面向自然语言处理的深度学习研究. 自动化学报, 2016, 42(10): 1445-1465.

    Xi Xue-Feng, Zhou Guo-Dong. A survey on deep learning for natural language processing. ACTA AUTOMATICA SINICA, 2016, 42(10): 1445-1465(in Chinese).
    [3] Devlin J, Chang M W, Lee K, Toutanova K. BERT: Pre-training of deep bidirectional transformers for language understanding. In: Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Minneapolis, USA: ACL, 2019. 4171−4186
    [4] Rajpurkar P, Zhang J, Lopyrev K, Liang P. SQUAD: 100 000+ questions for machine comprehension of text. In: Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, USA: ACL, 2016. 2383−2392
    [5] Rajpurkar P, Jia R, Liang P. Know what you don't know: Unanswerable questions for squad. In: Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne, Australia: ACL, 2018.784−789
    [6] Reddy S, Chen D Q, Manning C D, CoQA: A conversational question answering challenge. Transactions of the Association for Computational Linguistics, 2019, 7: 249−266
    [7] Duan X Y, Wang B X, Wang Z Y, Ma W T, Cui Y M, Wu D Y, et al. CJRC: A reliable human-annotated benchmark dataset for Chinese judicial reading comprehension. In: Proceedings of the 2019 China National Conference on Chinese Computational Linguistics. Kunming, China: Springer, 2019. 439−451
    [8] Yang Z L, Qi P, Zhang S Z, Bengio Y, Cohen W W, Salakhutdinov R, et al. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In: Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels, Belgium: ACL, 2018. 2369−2380
    [9] Lai S W, Xu L H, Liu K, Zhao J. Recurrent convolutional neural networks for text classification. In: Proceedings of the 2015 AAAI Conference on Artificial Intelligence. Austin, USA: AAAI, 2015. 2267−2273
    [10] Xiao Y X, Qu Y R, Qiu L, Zhou H, Li L, Zhang W N, Yu Y. Dynamically fused graph network for multi-hop reasoning. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, Italy: ACL, 2019. 6140−6150
    [11] Lai G K, Xie Q Z, Liu H X, Yang Y M, Hovy E. RACE: Large-scale reading comprehension dataset from examinations. In: Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, Denmark: ACL, 2017. 785−794
    [12] He W, Liu K, Liu J, Lv Y J, Zhao S Q, Xiao X Y, et al. Dureader: A Chinese machine reading comprehension dataset from real-world applications. In: Proceedings of the 2018 Workshop on Machine Reading for Question Answering. Melbourne, Australia: ACL, 2018. 37−46
    [13] Chen D Q, Bolton J, Manning C D. A thorough examination of the CNN/daily mail reading comprehension task. In: Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin, Germany: ACL, 2016. 2358−2376
    [14] Seo M, Kembhavi A, Farhadi A, Hajishirzi H. Bidirectional attention flow for machine comprehension. In: Proceedings of the 5th International Conference on Learning Representations. Toulon, France: ICLR, 2017.
    [15] Wang W H, Yang N, Wei F R, Chang B B, Zhou M. Gated self-matching networks for reading comprehension and question answering. In: Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver, Canada: ACL, 2017. 189−198
    [16] Yu A W, Dohan D, Luong M T. QANet: Combining local convolution with global self-attention for reading comprehension. In: Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada: ICLR, 2018.
    [17] Liu Y H, Ott M, Goyal N, Du J F, Joshi M, Chen D Q, et al. RoBERTa: A robustly optimized BERT pretraining approach. arXiv: 1907.11692, 2019.
    [18] Lan Z Z, Chen M D, Goodman S, Gimpel K, Sharma P, Soricut R. ALBERT: A lite BERT for self-supervised learning of language representations. In: Proceedings of the 8th International Conference on Learning Representations. Addis Ababa, Ethiopia: ICLR, 2020.
    [19] Sun Y, Wang S H, Li Y K, Feng S K, Chen X Y, Zhang H, et al. ERNIE: Enhanced representation through knowledge integration. arXiv: 1904.09223, 2019.
    [20] Cui Y M, Che W X, Liu T, Qin B, Yang Z Q. Pre-training with whole word masking for Chinese BERT. IEEE Transactions on Audio, Speech, and Language Processing, 2021, 29: 3504−3514
    [21] Ding M, Zhou C, Chen Q B, Yang H X, Tang J. Cognitive graph for multi-hop reading comprehension at scale. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, Italy: ACL, 2019. 2694−2703
    [22] Tu M, Wang G T, Huang J, Tang Y, He X D, Zhou B W. Multi-hop reading comprehension across multiple documents by reasoning over heterogeneous graphs. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, Italy: ACL, 2019. 2704−2713
    [23] Nishida K, Nishida K, Nagata M, Otsuka A, Saito I, Asano H, et al. Answering while summarizing: multi-task learning for multi-hop QA with evidence extraction. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, Italy: ACL, 2019. 2335−2345
    [24] Tu M, Huang K, Wang G T, Huang J, He X D, Zhou B W. Select, answer and explain: Interpretable multi-hop reading comprehension over multiple documents. In: Proceedings of the 32nd Innovative Applications of Artificial Intelligence Conference. New York, USA: AAAI, 2020. 9073−9080
    [25] Johnson R, Zhang T. Deep pyramid convolutional neural networks for text categorization. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver, Canada: ACL, 2017. 562−570
    [26] Pennington J, Socher R, Manning C D. GloVe: Global vectors for word representation. In: Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha, Qatar: ACL, 2014. 1532−1543
    [27] 刘康, 张元哲, 纪国良, 来斯惟, 赵军. 基于表示学习的知识库问答研究进展与展望. 自动化学报, 2016, 42(6): 807-818.

    Liu Kang, Zhang Yuan-Zhe, Ji Guo-Liang, Lai Si-Wei, Zhao Jun. Representation learning for question answering over knowledge base: An Overview. ACTA AUTOMATICA SINICA, 2016, 42(6): 807-818(in Chinese).
  • 期刊类型引用(5)

    1. 刘青,陈艳平,邹安琪,黄瑞章,秦永彬. 面向机器阅读理解的边界感知方法. 计算机应用. 2024(07): 2004-2010 . 百度学术
    2. 张虎,范越,李茹. 基于多任务联合学习的多片段机器阅读理解方法研究. 中文信息学报. 2024(11): 79-90 . 百度学术
    3. 李瑾晨,李艳玲,葛凤培,林民. 面向法律领域的智能系统研究综述. 计算机工程与应用. 2023(07): 31-50 . 百度学术
    4. 杨建喜,向芳悦,李韧,李东,蒋仕新,张露伊,肖桥. 长短答案分类指导的机器阅读理解方法. 中文信息学报. 2023(05): 112-121 . 百度学术
    5. 丁美荣,刘鸿业,徐马一,龚思雨,陈晓敏,曾碧卿. 面向机器阅读理解的多任务层次微调模型. 计算机系统应用. 2022(03): 212-219 . 百度学术

    其他类型引用(7)

  • 加载中
  • 图(6) / 表(3)
    计量
    • 文章访问数:  1620
    • HTML全文浏览量:  357
    • PDF下载量:  185
    • 被引次数: 12
    出版历程
    • 收稿日期:  2020-11-16
    • 网络出版日期:  2021-05-25
    • 刊出日期:  2022-11-22

    目录

    /

    返回文章
    返回