2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

一种基于UDP的电力广域保护系统可靠通信方法

袁凯 李俊娥 刘开培 陆秋余 倪明 罗剑波

侯丽微, 胡珀, 曹雯琳. 主题关键词信息融合的中文生成式自动摘要研究. 自动化学报, 2019, 45(3): 530-539. doi: 10.16383/j.aas.c170617
引用本文: 袁凯,  李俊娥,  刘开培,  陆秋余,  倪明,  罗剑波.  一种基于UDP的电力广域保护系统可靠通信方法.  自动化学报,  2021,  47(7): 1598−1609 doi: 10.16383/j.aas.c180641
HOU Li-Wei, HU Po, CAO Wen-Lin. Automatic Chinese Abstractive Summarization With Topical Keywords Fusion. ACTA AUTOMATICA SINICA, 2019, 45(3): 530-539. doi: 10.16383/j.aas.c170617
Citation: Yuan Kai,  Li Jun-E,  Liu Kai-Pei,  Lu Qiu-Yu,  Ni Ming,  Luo Jian-Bo.  A reliability communication approach for power wide area protection system based on UDP.  Acta Automatica Sinica,  2021,  47(7): 1598−1609 doi: 10.16383/j.aas.c180641

一种基于UDP的电力广域保护系统可靠通信方法

doi: 10.16383/j.aas.c180641
基金项目: 国家自然科学基金(51977155, 51377122), 国家电网公司科技项目(针对网络攻击的电网信息物理系统协同运行态势感知与主动防御方法研究)资助
详细信息
    作者简介:

    袁凯:武汉大学电气与自动化学院博士研究生. 主要研究方向为智能电网通信QoS保障与可靠性分析.E-mail: aishen890523@126.com

    李俊娥:武汉大学国家网络安全学院/空天信息安全与可信计算教育部重点实验室教授. 2004年获得武汉大学计算机应用技术专业博士学位. 主要研究方向为网络体系结构, 网络安全, 信息物理系统和电力工业控制安全. 本文通信作者.E-mail: jeli@whu.edu.cn

    刘开培:武汉大学电气与自动化学院教授. 2001年获武汉大学计算机应用技术专业博士学位. 主要研究方向为直流输电, 可再生能源和智能电网, 电能质量和数据分析.E-mail: kpliu@whu.edu.cn

    陆秋余:武汉大学国家网络安全学院硕士研究生. 主要研究方向为智能电网通信QoS保障和网络安全. E-mail: luqiuyu_0623@163.com

    倪明:国电南瑞科技股份有限公司研究员级高级工程师, 电网规划分析首席专家. 1996年获得东南大学电气工程博士学位. 主要研究方向为信息物理电力系统, 电力系统安全稳定控制. E-mail: ni-ming@sgepri.sgcc.com.cn

    罗剑波:南瑞集团有限公司/国家电网电力科学研究院研究员级高级工程师. 主要研究方向为电网安全稳定分析, 综合防御与控制.E-mail: luojianbo@sgepri.sgcc.com.cn

A Reliability Communication Approach for Power Wide Area Protection System Based on UDP

Funds: Supported by National Natural Science Foundation of China (51977155, 51377122) and the Science and Technology Project of State Grid Corporation of China (Research on Cooperative Situation Awareness and Active Defense Method of Cyber Physical Power System for Cyber Attack)
More Information
    Author Bio:

    YUAN Kai Ph.D. candidate at the School of Electrical Engineering and Automation, Wuhan University. His research interest covers QoS guarantee and reliability analysis for communications of smart grid

    LI Jun-E Professor at the School of Cyber Science and Engineering, Wuhan University. She received her Ph.D. degree in computer application technology from Wuhan University in 2004. Her research interest covers network architecture, cyber security, cyber-physical systems, and the security of power industrial control systems. Corresponding author of this paper

    LIU Kai-Pei Professor at the School of Electrical Engineering and Automation, Wuhan University. He received his Ph.D. degree in computer application technology from Wuhan University in 2001. His research interest covers DC transmission, renewable energy and smart grid, power quality, and data analysis

    LU Qiu-Yu Master student at the School of Cyber Science and Engineering, Wuhan University. Her research interest covers QoS guarantee for communications of smart grid and cyber security

    NI Ming Senior engineer at NARI Technology Co. Ltd. and principal expert for grid planning. He received his Ph.D. degree in electrical engineering from Southeast University in 1996. His research interest covers cyber physical power systems (CPPSs), and safety and stability control of power systems

    LUO Jian-Bo Senior engineer at NARI Group Corporation/State Grid Electric Power Research Institute. His research interest covers analysis, comprehensive defense, and control for safety and stability of power systems

  • 摘要:

    电力广域保护系统从点到点通信逐步走向网络化通信, 如何在拥塞状态下保障业务的实时性和可靠性, 成为亟待解决的问题. 针对传输控制协议(Transmission control protocol, TCP)不能保障实时性以及用户数据报协议(User datagram protocol, UDP)不能保障可靠性的问题, 本文提出一种联合应用层纠错、检错和重发机制的UDP传输方案, 在提供低时延传输服务的同时也能保障报文的可靠性. 考虑到算法的复杂性, 选择本原BCH (Bose-Chaudhuri-Hocquenghem)码作为纠错编码算法, 设计了编码分组方法, 并通过实验验证了分组方法的正确性; 对增加纠错机制后的报文实时性进行了理论分析和仿真验证; 为了解决突发误码和丢包情况下的可靠性问题, 进一步设计了应用层检错和重发机制, 并分析了时延. 分析表明, 在应用层增加本文所设计的纠错、检错和重发机制后增加的时延几乎可以忽略不计. 最后给出了所提方法的联合应用算法, 并进行了可靠性分析, 结果表明本文方案的可靠性高于其他UDP传输方案.

  • 自动摘要旨在从给定的文本中自动生成能表达原文主题的精简形式, 以缓解信息过载造成的阅读压力.自动摘要过程大致可分为抽取式和生成式两类, 抽取式摘要从原文中选取若干重要句子直接组合成摘要, 生成式摘要的产生则相对自由灵活, 有望生成更接近人工撰写的流畅摘要, 并且在技术实现上更具挑战性.

    目前, 随着大数据和人工智能技术的发展, 以及深度学习和表示学习在各个领域的推广渗透[1-3], 传统自动摘要方法逐渐从抽取式朝着生成式演化, 特别是基于循环神经网络(Recurrent neural network, RNN)的编码器–解码器模型正成为当前应用最广泛的生成式摘要模型, 并在句子级的摘要生成任务(新闻标题生成、句子压缩等)中取得了较显著的效果.近年来, 已有学者如Bahdanau等[4]提出在此模型的解码器部分加入对输入序列的注意力机制, 用于提取原始文本中丰富的上下文信息以避免信息覆盖问题, 导致该问题的原因是简单的RNN编码器解码器模型中的编码器是将信息从前到后一步步压缩成一个固定长度的上下文语义向量, 但这种信息传递编码方式会使得前面的信息被后面的信息覆盖而失效.此外, 因为该机制将注意力均匀分布在文本的所有内容上, 因而使得全文中的主题信息在摘要的生成过程中并没有被合理地区分利用, 同时主题关键词是主题信息常见的表示形式.鉴于此, 本文尝试提出了一种新的融合主题关键词信息的多注意力机制, 并融入到循环神经网络的编码器–解码器模型中以补充强化原文中的主题信息, 从而更好地引导摘要生成.具体而言, 先使用无监督方法识别文本的主题关键词, 然后综合主题关键词注意力机制, 输入序列注意力机制及输出序列注意力机制三者联合辅助最终的摘要生成.在NLPCC 2017的中文单文档摘要评测任务上, 本文提出的模型的实际摘要效果的ROUGE (Recall-oriented understudy for gisting evaluation)值比参赛队中第一名成绩还显著提高了2~3个百分点, 充分验证了本文模型的有效性和先进性.

    现有自动摘要方法主要分为抽取式和生成式.抽取式摘要根据特定的约束条件(如摘要长度)直接从原文中抽取若干重要的句子, 这些句子经重新排序后组成摘要.生成式摘要往往涉及对原文内容的语义理解和重构, 且多采用更灵活的表达方式(如新词、复述等)间接凝练出原文的主旨要点.相比于抽取式摘要, 生成式摘要更接近人类撰写摘要的形式.但由于生成式摘要通常需要复杂的自然语言生成技术, 因此过去的研究大多注重抽取式摘要模型设计或句子打分排序算法的设计.

    抽取式摘要首先给文本中的每个句子依重要度打分, 然后根据此分数来对句子排序, 进而选出得分最高且冗余小的句子组成摘要.现有方法中, 句子重要度计算通常会结合考虑各种统计学和语言学特征, 例如句子的位置、词频、词汇链等.句子抽取则大致分为无监督和有监督两种, 其中无监督方法主要包括基于质心的方法[5]、基于图模型的方法[6-8]以及基于隐含狄利克雷分布(Latent Dirichlet allocation, LDA)主题模型的方法[9-10]等, 有监督的方法则包括支持向量回归[11]和条件随机场模型[12]等.同时还有研究综合考虑了各种最优化的摘要生成目标函数, 例如整数线性规划[13]、子模函数最大化[14-15]等.除此之外, 还有些抽取式摘要研究结合了主题信息来辅助摘要的生成, 例如基于动态主题模型的Web论坛文档摘要[16], 也有研究提出使用超图模型来协同抽取文本关键词与摘要[17].同时, 有研究者还尝试了结合图像、视频以及文字来联合生成多模态的摘要[18].

    生成式摘要更接近人类自然撰写摘要的方式, 是高级摘要技术的追求目标.随着智能技术的发展以及数据量的不断增长, 当前对生成式摘要的需求和研究越来越多.近几年, 神经网络模型在生成式摘要的一些具体任务(如标题生成、单句式单文本摘要生成等)上取得了一定的效果. Rush等[19]在一个大型语料库上训练了神经注意力模型并用于单句式摘要, 之后Chopra等[20]在注意力机制的循环神经网络模型上扩展了Rush等的工作. Nallapati等[21]在基于循环神经网络的序列到序列模型上应用各种技术改善效果, 例如在解码器阶段采用的分层注意力机制和词表限制. Paulus等[22]将输出信息尝试融入到输出的隐藏层向量中, 以避免产生重复的信息, 同时提出使用强化学习的方式训练模型. Ma等[23]通过最大化原文本和摘要之间的语义相似性, 确保生成与原文本在语义上表达一致的摘要. Tan等[24]通过序列到序列模型与传统的图模型方法融合, 以增加对句子重要度的考虑来生成摘要. Li等[25]提出使用变分自动编码器(Variational auto-encoder, VAE)提取出生成的摘要中的高维信息, 然后让该信息辅助解码器对原文本进行注意力提取.还有一些工作在注意力机制、优化方法和原文信息的嵌入等方面进行了改进[26-29].然而, 值得注意的是以上模型的注意力机制均仅限于均匀考虑整个原文本的所有信息而忽视了原文本中隐藏的重要主题信息的影响.鉴于此, 本文提出将原文本中的主题关键词信息抽取出来, 并自然地融入神经网络中以更好地区分引导生成摘要, 模型中我们具体采用了多种注意力机制的联合策略.

    序列到序列模型又称为编码器–解码器模型, 核心是利用RNN学习一个序列的所有信息, 并浓缩到一个向量中, 再利用另一个循环神经网络将此信息解码出来, 进而生成另一个序列.具体结构如图 1所示.

    图 1  序列到序列模型
    Fig. 1  The sequence-to-sequence model

    现有的实践发现[30], 门控RNN比简单RNN效果更好, 如长短期记忆(Long short-term memory, LSTM), 双向门控RNN比单向RNN效果好.因此, 本研究提出的模型在编码阶段采用了双向LSTM, 在解码阶段采用了单向LSTM.

    该模型的基本目标是优化生成词的条件概率, 其中, $\boldsymbol{x}=\{\boldsymbol{x}_1, \boldsymbol{x}_2$, $\cdots$, 为输入词向量序列, 为对应的输出词向量序列.序列到序列模型的具体目标为

    $ \begin{align} &p(\boldsymbol{y}_1, \boldsymbol{y}_2, \cdots, \boldsymbol{ y}_{t'}|\boldsymbol{x}_1, \boldsymbol{x}_2, \cdots, \boldsymbol{x}_t) = \nonumber\\&\qquad\prod\limits_{i=2}^{t'}p(\boldsymbol{y}_i|c, \boldsymbol{y}_1, \boldsymbol{ y}_2, \cdots, \boldsymbol{y}_{i-1}) \end{align} $

    (1)

    其中, 编码器作用是将输入文档的信息映射为一个上下文语义向量, 每一个表示最新生成的词是由前${i-1}$个词联合嵌入的上下文语义向量生成的.具体过程为先对每一个文档$d$进行分词, 每个词${w}$被gensim工具包1中的word2vec训练为一个向量以作为输入序列.在该阶段, 每个输入序列通过LSTM生成一列蕴含高维信息的隐藏层向量.接下来, 通过这些隐藏层向量来计算上下文语义向量, 具体计算方式为

    1http://radimrehurek.com/gensim/

    $ \begin{align} \boldsymbol{h}_{j}^{e} = f(\boldsymbol{x}_j, \boldsymbol{h}_{j-1}^{e}), \quad \boldsymbol{c} = \boldsymbol{h}_{t}^{e} \end{align} $

    (2)

    其中, ${\boldsymbol{h}_j^e}$是在编码器第${j}$时刻的隐藏状态向量, ${f}$是LSTM的非线性方程.

    解码器的作用是生成输出序列.在此阶段, 解码器利用编码器压缩后的语义向量结合当前时间点解码器隐藏层的输出状态以及上一时间点中的输出词来生成候选词, 具体的条件概率计算方式为

    $ \boldsymbol{h}_{t'}^{d} = f(\boldsymbol{y}_{t'-1}, \boldsymbol{h}_{t'-1}^{d}, \boldsymbol{c}) $

    (3)

    $ p(\boldsymbol{y}_{t'}|\boldsymbol{y}_{<t'}, X) = g(\boldsymbol{y}_{t'-1}, \boldsymbol{ h}_{t'}^{d}, \boldsymbol{c}) $

    (4)

    其中, ${\boldsymbol{h}_{t'}^d}$是在${t'}$时刻的隐藏状态向量, 是$\boldsymbol{y}$在$t'-1$时刻的输出向量, 是$\boldsymbol{y}$在${t'}$时刻之前的所有时间段生成的输出向量, ${g}$是softmax函数.

    上述编码器–解码器模型虽然经典, 但局限性也很明显.由于解码器从编码器中获取信息的唯一途径是一个固定长度的上下文语义向量, 因而编码器需要将整个原文本的信息压缩到一个固定长度的向量中, 由此导致了三个弊端:1)仅靠一个固定长度的上下文语义向量往往无法完整地表示整个文本的全部信息, 因而自然会影响解码器的信息解码效果; 2)由式(2)可知, 一般上下文语义向量是由编码器最后一个LSTM输出的隐藏层状态向量获取的, 因此在编码器阶段先输入的内容所携带的信息会被后输入的信息稀释或覆盖, 且输入序列越长, 这个现象越严重; 3)由图(1)可见, 解码器在所有时间点上都共享了同一个固定长度的上下文语义向量, 因此解码器生成的序列信息不足且固化, 更合理的情况应该是解码器能根据输入序列$\boldsymbol{x}$中不同部分的不同语义信息来生成不同的输出结果.为了解决上述问题, Bahdanau等[4]提出了在序列到序列的模型中加入注意力机制, 该机制能在一定程度上缓解这些问题.

    引入注意力机制不仅为了减轻基本序列到序列模型中上下文语义向量的信息负担, 还要对后续生成内容有针对性地生成一组对应的注意力权重以改进模型的实际生成效果, 具体结构如图 2所示.

    图 2  注意力机制
    Fig. 2  The attention mechanism

    图 2可知, 在解码过程中, 注意力机制使用动态改变的上下文语义向量来获取编码器中的原文语义信息, 当生成每一个词的时候, 编码器会动态产生与之对应的语义向量.这里的关键是如何定义不同解码时间的注意力系数${\alpha_{ij}}$, 具体为

    $ \begin{align} {\alpha}_{ij} = \frac{{\rm exp}(\eta(\boldsymbol{h}_{i}^{d}, w, \boldsymbol{ h}_{j}^{e}))}{\sum\limits_{k=1}^{t}{\rm exp}(\eta(\boldsymbol{ h}_{i}^{d}, w, \boldsymbol{h}_{k}^{e}))} \end{align} $

    (5)

    其中, ${\eta}$由一个多层感知器实现, 采用${\rm tanh}$作为激活函数. ${\boldsymbol{h}_i^d}$代表在解码阶段时间${i}$的LSTM隐藏层向量, 代表在编码阶段时间${j}$的LSTM隐藏层向量, ${w}$为注意力权重矩阵.

    通过上述公式计算得到注意力系数之后, 便可结合编码器中所有隐藏层向量和注意力系数生成解码阶段时间${i}$的上下文语义向量, 具体为

    $ \begin{align} \pmb c_i = \sum\limits_{j=1}^{t}\alpha_{ij}\boldsymbol{h}_{j}^{e} \end{align} $

    (6)

    由于在每个时间点, 解码器会根据当前解码器的隐藏层向量来引导编码器产生的上下文语义向量生成对应的输出序列, 因此在生成摘要的某个部分时, 注意力机制将帮助模型选择与此部分高度相关的原文信息, 进而有望生成更好的相关摘要内容.

    通常训练好一个序列到序列模型需要较大规模的数据, 在数据量相对较少的情况下可能存在效果欠佳的情况, 在文本摘要领域, 虽然注意力机制的引入在一定程度上解决了一些问题并提升了模型的效果, 但生成的摘要离人类撰写的摘要还有一定差距, 因此如何将文本更深层次的信息有效地嵌入到模型中来生成更好的摘要仍需继续研究.为了解决上述问题, 本文提出在序列到序列模型中引入主题关键词信息来优化现有生成式摘要模型的效果, 并且提出了一种新的融入主题关键词信息的多注意力序列到序列模型, 通过联合注意力机制将文本中多维重要信息综合起来实现对摘要的引导性生成.通过在NLPCC 2017中文单文档摘要评测数据集上的实验, 本文提出的模型非常有效.目前, 在生成式摘要领域, 融合主题关键词信息以联合注意力方式优化摘要生成效果的设计思路尚未见文献报道.

    在现有模型基础上, 本文提出采用联合多注意力融合机制以提升摘要生成效果, 模型的具体结构如图 3所示.

    图 3  主题关键词信息融合的多注意力序列到序列模型
    Fig. 3  The multi-attention sequence-to-sequence model based on keywords information

    本节将对图 3中重要标识部分(主题关键词注意力机制和输入输出信息注意力机制)进行详细介绍, 首先介绍主题关键词抽取, 然后对模型中主题关键词注意力机制进行详细的说明.最后对模型中的输入输出信息注意力机制进行简要的介绍.

    1) 主题关键词抽取

    按照认知科学的观点, 人类必须先识别、学习和理解文本中的实体或概念, 才能理解自然语言文本, 而这些实体和概念大都是由文本句子中的名词或名词短语描述的[31].因此本文通过发掘文章中的重点实体和概念来辅助模型理解自然语言文本.一个词在文本中出现的频率越高, 产生的效力就越强, 对文本的表达能力也越强, 而这些实体或概念就称为文本的关键词.文本的主题关键词表征了文档主题性和关键性的内容, 是文档内容理解的最小单位[32].因此本文提出将主题关键词信息融入到序列到序列模型中以实现在主题信息引导下的摘要生成.

    本文使用的主题关键词抽取方法为HanLP开源工具包提供的主题关键词提取算法TextRank2, 并对每个文档提取出10个最重要的主题关键词. TextRank[33]是一种基于图模型的主题关键词抽取算法, 基本思想源自谷歌的PageRank算法, 核心是利用投票机制迭代计算图中每个结点的全局得分, 然后取出得分最高的若干词作为主题关键词.与LDA和隐马尔科夫模型(Hidden Markov model, HMM)等模型不同, TextRank不需要事先对多篇文本进行学习训练, 因简洁有效获得了较广泛的应用.

    2http://hanlp.linrunsoft.com/doc/_build/html/extract.html#extract-keyword

    2) 主题关键词注意力机制实现

    人类撰写文章或摘要, 都会预先设定一些内容框架并提取重要的实体信息, 然后根据框架和实体信息构建语言.受此启发, 本文通过自动提取文本的主题关键词组成一个文本的框架, 然后将模型对文本的注意力引到这些预先提取的主题关键词信息上, 由此生成基于主题信息的摘要.

    图 3右半部分对主题关键词注意力机制的基本结构进行了直观呈现.该机制将提取出的主题关键词通过注意力机制融入到模型中, 通过主题关键词中蕴含的语义信息来引导模型生成更完善的摘要.

    在编码阶段, 由于原文本的输入形式是使用word2vec训练得到的词向量, 因此为了保持词嵌入信息的一致性, 对从原文中抽取出的主题关键词, 直接利用word2vec训练出的词向量, $\cdots$, $\boldsymbol{k}_n\}$作为输入, 其中${n}$为主题关键词的数量.

    在解码阶段, 主题关键词注意力机制通过解码器解码当前输出的LSTM隐藏层状态向量中的信息来获得对所有主题关键词信息的不同注意程度.通过此机制, 该模型在生成摘要的过程中能自然融入文本中的主题信息来生成基于主题引导式摘要.本文提出的主题关键词注意力机制中注意力系数的具体计算方法为

    $ \begin{align} { \alpha}_{ij}^{k} = \dfrac{{\rm exp}(\eta_o(\boldsymbol{ h}_{i}^{d}, w_k, \boldsymbol{k}_j))}{\sum\limits_{a=1}^{n}{\rm exp}(\eta_o(\boldsymbol{h}_{i}^{d}, w_k, \boldsymbol{k}_a))} \end{align} $

    (7)

    其中, 表示在解码器时间点${i}$, 主题关键词注意力机制根据解码器的隐藏层向量对第${j}$个主题关键词分配的注意力系数, ${\eta_o}$是一个多层感知器, 采用tanh作为激活函数, 此多层感知器由解码器解码当前的隐藏层状态向量作为输入来对编码器嵌入的主题关键词的重要性进行感知, 然后通过一个softmax函数获得当前解码器时间点${i}$对主题关键词的注意力系数, ${n}$表示主题关键词个数, 表示第${j}$个主题关键词的向量表示, ${w_k}$表示注意力权重矩阵.

    通过式(7)得到当前解码器时间点${i}$对主题关键词的注意力系数后, 便可结合主题关键词的嵌入向量生成上下文语义向量${\boldsymbol{o}_j}$, 具体为

    $ \begin{align} \boldsymbol{o}_i = \sum\limits_{j=1}^{n}{ \alpha}_{ij}^{k}\boldsymbol{k}_j \end{align} $

    (8)

    其中, ${n}$表示主题关键词个数, 表示第${j}$个主题关键词的向量表示.

    图 2中的输入输出注意力机制是将输入序列和输出序列的注意力结合起来共同嵌入到解码器当前时间点的输出序列中, 这样既能考虑输入序列的信息, 又可以通过对输出序列信息的回顾来避免信息的冗余和重复.

    输入序列的注意力机制将原文中隐含的信息提取出来嵌入到输出序列中, 其上下文语义向量表示为.

    输出序列注意力机制与输入序列注意力机制的实现方式类似, 但意义不同, 解决的问题也不同.由于注意力机制的序列到序列模型在生成摘要的过程中存在重复信息的问题, 而在该模型中加入对输出序列的注意力机制可在一定程度上缓解此问题, 因此, 本模型也一并加入了输出序列的注意力机制来优化摘要的生成结果, 具体实现方法为

    $ {\alpha}_{ij}^{d} = \dfrac{{\rm exp}(\eta(\boldsymbol{ h}_{i}^{d}, w_d, \boldsymbol{h}_j^d))}{\sum\limits_{k=1}^{i-1}{\rm exp}(\eta(\boldsymbol{h}_{i}^{d}, w_d, \boldsymbol{h}_k^d))} $

    (9)

    $ \boldsymbol{c}_{i}^{d} = \sum\limits_{j=1}^{i-1}{ \alpha}_{ij}^{d}\boldsymbol{ h}_{j}^{d} $

    (10)

    其中, ${\boldsymbol{h}_{i}^{d}}$表示解码器当前时间点${i}$的隐藏层向量, ${w_d}$表示注意力权重矩阵.

    在获得主题关键词注意力和输入, 输出注意力之后, 我们将这两种注意力联合嵌入当前解码器的输出向量中以获得输出词的条件概率.通过此方法, 输出向量中不仅包含输出序列的信息, 也自然融入了原文本中的语义信息以及主题关键词信息, 结合这些信息有望输出更优质的摘要.为了不加重网络的训练负担, 本文仅采用线性加和的方式将多种注意力机制获得的上下文语义向量融合到一起, 实验证明该种融合方式有效.具体融合方式为:先利用线性组合将三个注意力机制获得的上下文语义向量联合嵌入到解码器的第${i}$个时间点隐藏状态中, 然后使用softmax层得出词表中词的输出概率, 具体计算方法为

    $ \begin{align} p(\boldsymbol{y}_i|\boldsymbol{y}_{<i}, \boldsymbol{X}) = {\rm softmax}(L(\boldsymbol{h}_{i}^{d}, \boldsymbol{o}_i, \boldsymbol{c}_i^d, \boldsymbol{c}_i^e)) \end{align} $

    (11)

    其中, ${L}$表示线性组合linear, 表示解码器当前时间点${i}$的隐藏层向量, 表示文章主题关键词通过主题关键词注意力机制计算得出的上下文语义向量, 表示之前所有输出向量通过输出信息注意力机制计算得出的上下文语义向量, 表示输入向量通过输入信息注意力机制计算得出的上下文语义向量.

    本研究的实验语料采用NLPCC 2017的中文单文档摘要评测数据集, 此数据集是今日头条提供的公开新闻数据, 包括50 000个文本–摘要对, 每篇文章的长度从10~10 000个中文字符不等, 每篇摘要的长度不超过60个中文字符.在实验中, 将其中49 500个文本–摘要对作为训练集和验证集, 另外500个作为测试集.

    评价方法采用自动摘要领域常用的基于召回率统计的摘要评价工具ROUGE (Recall-oriented understudy for gisting evaluation)[34]. ROUGE由ISI的Lin和Hovy提出, 基于机器摘要和人工标准摘要中的${n}$元词(即${n}$-gram)匹配情况来生成量化的评价结果. ROUGE指标由一系列具有细微差别的计算方法组成, 包括ROUGE-1, ROUGE-2, ROUGE-3, ROUGE-4, ROUGE-L等. ROUGE-1.5.5工具包已被DUC和TAC等国际著名的文本摘要评测会议作为标准的评价工具采用.

    本实验使用了ROUGE的五类评价指标, 分别为ROUGE-1, ROUGE-2, ROUGE-3, ROUGE-4和ROUGE-L.直观看, ROUGE-1可以代表自动摘要的信息量, ROUGE-2、ROUGE-3以及ROUGE-4则侧重于评估摘要的流畅性, 而ROUGE-L可看成是摘要对原文信息的涵盖程度的某种度量.其中ROUGE-$N$的计算方法为

    $ \begin{align} {\text{ROUGE-}}N = \dfrac{\sum\limits_{S\in{RS}}\sum\limits_{g_n\in{S}}Count_m(g_n)}{\sum\limits_{S\in{RS}}\sum\limits_{g_n\in{S}}Count(g_n)} \end{align} $

    (12)

    其中, $RS$表示参考摘要, 该摘要为人工生成的标准摘要. ${g_n}$表示${n}$元词, ${Count_m(g_n)}$表示系统生成的摘要和标准摘要中同现的相同${n}$-gram的最大数量, ${Count(g_n)}$表示标准摘要中出现的${n}$-gram个数.

    ROUGE为每类评价指标分别计算了准确率$P$、召回率$R$和F值(其中, ), 由于F值综合考虑了评价指标的准确率和召回率, 因此本文统一将F值3作为实验的最终结果汇报.

    3ROUGE参数: -n 4 -U -z SPL -l 60

    在数据预处理过程中, 使用jieba4开源分词工具对文本进行分词, 再用subword模型5对分词后的数据进行更细致的切分.通过这些操作, 最终形成包含28 193个中文词的词典.实验中采用subword模型可以减小词表的大小, 同时解决序列到序列模型中常遇到的罕见词问题(即UNK问题).为了使词内信息得到合理的保存, 本文使用的subword模型仅对词内信息进行切分和重组而不组合词间信息, 因而先将分词后的词语以每个词为单位切分成字, 然后使用subword模型将该结果使用2-gram的方法抽取出频率较大的词内组合, 将此组合从之前的词中分离出来独立变为一个词.采用此方法可以极大地减少字典的冗余度, 同时保留部分词信息, 最终的分词结果为词组和字的混合文本.

    4https://pypi.python.org/pypi/jieba/

    5https://github.com/rsennrich/subword-nmt

    接下来, 利用gensim工具包中的word2vec对词典中的每个词进行词嵌入训练, 训练集为NLPCC 2017的中文单文档摘要评测任务分享的全部数据集, 每个词的向量维度均设置为256维, 通过预训练可以在一定程度上优化模型的效果.

    本文使用tensorflow实现了基于主题关键词注意力的序列到序列模型, 编码器层为一层双向的LSTM, 解码器为一层单向的LSTM. LSTM隐藏层维度设为128.在训练阶段, 本文使用的优化函数为Adam[35], 学习率设置为0.001, 并在训练过程中利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率, 最小学习率设置为0.0001, 在训练过程中, 损失开始下降很快, 训练几轮后, 损失逐渐趋于平稳, 且在几百个batch内损失值固定在1点多的范围内, 数值不继续降低, 模型趋于收敛.

    在测试阶段, 使用beamsearch方法生成最终的结果. beamsearch是一种启发式搜索算法, 是对优先搜索策略的一种优化, 能降低内存需求, 根据启发式规则对所有局部解进行排序, 以找到与全局解最近的局部解, 此方法常应用于序列到序列模型中优化解的生成.

    选取5种基准模型与本文提出的模型进行比较, 5种方法中的3种方法(即LexPageRank[6], MEAD[36]和Submodular[15])是目前最典型的抽取式摘要方法, 由开源工具包PKUSUMSUM[37]提供, 另外两种方法是生成式摘要方法的代表.

    LexPageRank[6]是一个基于图模型的摘要算法, 它将PageRank算法应用到文本句子关系表示及摘要抽取中.

    MEAD[36]方法则通过联合考虑句子的4种常用特征来为其打分, 包括质心、句子的位置、公共子序列及关键词.

    Submodular[15]方法利用子模函数的收益递减特性来挑选重要句子生成摘要.

    UniAttention[20]是基本的注意力序列到序列模型, 实现了对原文本输入信息的注意力机制考虑及摘要生成.

    NLP_ONE[38]是在NLPCC 2017的中文单文档摘要评测任务中获得第一名的参赛模型, 包含了输入序列的注意力机制和输出序列的注意力机制, 但它没有对主题关键词信息进行融合考虑.

    pointer-generator[29]是ACL 2017公开发表的一个最新的同类模型, 使用pointer机制解决了输出信息错误和罕见词的问题.

    第4.4节中的5种模型与本文提出模型的具体实验结果比较如表 1所示.由表 1的结果可见:

    表 1  摘要评价结果
    Table 1  The results of summaries
    方法ROUGE-1ROUGE-2ROUGE-3ROUGE-4ROUGE-L
    LexPageRank0.236340.108840.058920.038800.17578
    MEAD0.286740.148720.087610.061240.22365
    Submodular0.297040.152830.089170.062540.21668
    UniAttention0.337520.200670.132150.101780.29462
    NLP_ONE0.349830.211810.144900.112660.30686
    pointer-generator0.360220.219780.147830.114580.29888
    本文模型 0.37667 0.24077 0.16665 0.12914 0.32886
    下载: 导出CSV 
    | 显示表格

    1) 生成式摘要方法在ROUGE的F值比较中比抽取式摘要方法平均高4~10个百分点, 这说明在自动生成短文本的摘要任务中, 生成式方法更有效.

    2) 由UniAttention模型与本文模型的对比结果可见, 将文本关键词的注意力信息和输入输出序列的注意力信息共同融入到序列到序列模型中可以显著地提高模型的摘要效果(具体可提升3~4个百分点).

    3) 本文对NLP_ONE, pointer-generator和本文模型的实验数据进行了统计显著性分析, 发现结合主题关键词信息和原文本中多维信息来引导摘要生成能有效地提高现有基于RNN注意力机制的生成式摘要模型的摘要效果, 充分说明主题关键词信息在生成式摘要中发挥了积极的引导作用.

    4) 本文所提模型产生其摘要的实际效果举例如表 2所示.表 2展示了从3个序列到序列模型生成的摘要中抽取的5例摘要, 从表 2可以看出, 生成式摘要技术尽力去学习和模拟人类撰写摘要的方法, 生成的摘要根据需要表达的主题信息和语义信息引导词语组合而成, 而不仅仅由抽取的句子简单拼凑而成, 因而在生成短文本摘要时, 相比抽取式摘要, 生成式摘要的文本流畅性、句间连贯性以及信息丰富性均更胜一筹.

    表 2  生成摘要对比示例
    Table 2  The examples of the generative summaries
    对比模型生成结果
    标准摘要:昨天下午, 山西平遥县6名儿童结伴滑冰玩耍时, 不慎溺水身亡, 其中年龄最大的11岁, 最小的为5岁.
    UniAttention:今日下午, 山西平遥县发生一起溺水事件, 6名儿童玩耍不慎溺水身亡.
    NLP_ONE:今晨, 山西平遥县发生意外溺水身亡, 最小为5岁, 最小为5岁, 最小为5岁.
    pointer-generator:快讯:平遥县发生一起意外溺水事件, 已致1死1伤, [UNK]最小的岁, 最小为5岁(图)
    本文模型:组图: 平遥县6名儿童结伴滑冰玩耍不慎落水, 其中年龄最大的11岁, 最小的为5岁, 最小的为5岁.
    标准摘要:石嘴山市发布雷电黄色预警:预计未来6小时, 石嘴山市有雷阵雨, 并伴有雷电和短时强降水.提请相关部门和人员做好防范工作$\cdots$
    UniAttention:石嘴山市发布雷电黄色预警:预计未来6小时, 石嘴山市有雷阵雨, 并伴有雷电和短时强降水, $\cdots$
    NLP_ONE:石嘴山市发布雷电黄色预警:预计未来6小时, 石嘴山市有雷阵雨, 并伴有雷电和短时强降水.提请相关部门和人员做好防范工作
    pointer-generator:石嘴山市发布雷电黄色预警:预计未来6小时石嘴山市有雷阵雨, 并伴有雷电和短时强降水.提请相关部门和人员做好防范工作. $\cdots$ ($\cdots$)
    本文模型: 石嘴山市发布雷电黄色预警:预计未来6小时, 石嘴山市有雷电和短时强降水.提请相关部门和人员做好防范工作$\cdots$
    标准摘要:今日上午10时, 郑州一个汽车销售点停车场发生火灾, 70余辆新车被烧毁. (图)
    UniAttention:郑州: 70余辆汽车结算着火, 70余辆汽车被烧毁, 70余辆汽车被烧毁.
    NLP_ONE:组图:郑州一汽车购点停车场起火, 包括名媛43辆, 包括名媛43辆, 或因电线破损打火, 火星沉地面干草中所致.
    pointer-generator:组图:郑州一汽车销售点停车场失火, 70余辆汽车被烧毁, 70余辆汽车被烧毁, 郑州一汽车销售点停车场失火(图)
    本文模型:组图:今日10时许, 郑州一汽车销售时停车场失火, 70余辆汽车被烧毁.
    标准摘要:呼和浩特原市委副书记, 市长汤爱军涉嫌受贿犯罪被立案侦查, 案件侦查工作正在进行中.
    UniAttention:滁州市原市委书记汤爱军涉嫌受贿, 受贿犯罪被立案侦查, 并采取强制措施.
    NLP_ONE:原海东工业园区原市委书记江山涉嫌受贿犯罪被立案侦查, 并采取强制措施.
    pointer-generator:中纪委网站消息, 呼和浩特原市委副书记, 管委会常务副主任, 管委会市长张丽菊等四名厅级干部受贿犯罪立案侦查, 被证监会涉嫌滥用职权, 受贿犯罪被逮捕.
    本文模型: 呼和浩特原市委书记江山涉嫌受贿犯罪, 已被立案侦查 案件侦查正在进行中.
    标准摘要:今日6时50分许, 西宁城北区一12岁男孩坠楼身亡; 3小时后, 城中区一46岁男子坠楼身亡.
    UniAttention:西宁: 12岁男孩从21层楼坠下身亡, 警方正在对两人死因展开调查.
    NLP_ONE:今晨6时50分, 城北区一12岁男孩坠楼身亡(图).
    pointer-generator:西宁一12岁男孩坠楼身亡, 一名12岁男孩城中区小区14号楼坠楼者死因展开调查; 此前12岁男孩20岁男生是从20层的家中坠落.
    本文模型:组图: 今晨6时50分许, 城北区民惠城内12岁男孩坠楼身亡, 仅3小时后, 其车速3小时后坠楼身亡.
    标准摘要:达州一煤矿发生瓦斯爆炸事故4人被困井下, 1人受伤, 相关部门正在全力救援被困人员.
    UniAttention:组图:达州茶园煤矿发生爆炸事故, 造成4人被困井下, 伤者已送救援人员.
    NLP_ONE:今日下午发生瓦斯爆炸事故, 致4人被困井下, 1人被困井下, 无生命危险.
    pointer-generator:成都:境内境内境内茶园煤矿生产系统工程瓦斯爆炸事故, 造成4人被困井下, 1人被困井下, 1人受伤, 1人受伤(图)
    本文模型:组图: 达川发生瓦斯爆炸事故, 4人被困井下, 1人受伤, 伤者已送达州医院救治.
    注:粗体是本文模型与标准摘要可完全匹配的词
    下载: 导出CSV 
    | 显示表格

    5) 对比表 2中的机器自动生成摘要的内容可以发现:本文提出的模型在学习摘要的生成过程中, 更注重内容信息的表达, 同时也抓住了文本中的关键主题信息, 使生成的摘要的信息量更充足.在同等数据集的条件下, 相比未融入主题信息的序列到序列模型, 本文提出的模型效果更优, 因为该模型将更多的主题信息显式提取出来用于指导摘要的生成, 特别是主题关键词信息协助模型更有针对性地选择与主题相关的词语来构成摘要.

    根据实验结果, 尽管生成式摘要相比抽取式摘要在中文短文本摘要生成任务中效果较好, 但仍需相对较大的数据来协助训练以生成高质量的摘要.通过对实验数据的细致分析可以发现:由于数据分布不均匀使得模型对训练样本较多的内容其学习效果比数量较少的内容学习效果好.虽然主题关键词的融入在内容上对文本的信息进行了补充, 使得生成的摘要可以抓住文章的重点信息, 但在表达的流畅度方面, 样本量越大往往效果越好.例如表 2中原文为天气和受贿内容的生成摘要比其他类型的摘要生成效果好, 若训练样本充足, 则生成的摘要和原标准摘要在内容和表达上均能达到90 %以上的匹配度.因而在训练数据量有限的情况下, 如何更好地生成拟人式高质量摘要仍是需要进一步深入探索的问题.

    本文提出了一种新的基于神经网络的生成式中文自动摘要方法, 不仅融入了对输入序列的注意力及输出序列的注意力的区分性考虑, 还自然嵌入了文本中的关键主题信息下的注意力, 最终的实验及评价结果证实了引入关键词信息对提升中文生成式摘要模型的显著效果.未来尚有很多可以拓展的工作, 例如在LCSTS等中文大规模文摘数据集上进行实验, 将神经网络模型应用到多文档多句子式的生成摘要中, 以及如何更有效地提取文本中全局和局部的不同粒度或不同模态的关键主题信息.


  • 收稿日期 2018-09-30 录用日期 2019-05-08 Manuscript received September 30, 2018; accepted May 8, 2019 国家自然科学基金 (51977155, 51377122), 国家电网公司科技项目 (针对网络攻击的电网信息物理系统协同运行态势感知与主动防御方法研究) 资助 Supported by National Natural Science Foundation of China (51977155, 51377122) and the Science and Technology Project of State Grid Corporation of China (Research on Cooperative Situation Awareness and Active Defense Method of Cyber Physical Power System for Cyber Attack) 本文责任编委 陈积明 Recommended by Associate Editor CHEN Ji-Ming 1. 武汉大学 武汉 430072 2. 空天信息安全与可信计算教育部重点实验室 武汉 430072 3. 南瑞集团有限公司 (国网电力科学研
  • 究院有限公司) 南京 211106 4. 国电南瑞科技股份有限公司 南京 211106 5. 智能电网保护和运行控制国家重点实验室 南京 211106 1. Wuhan University, Wuhan 430072 2. Key Laboratory of Aerospace Information Security and Trusted Computing, Ministry of Education, Wuhan 430072 3. NARI Group Corporation (State Grid Electric Power Research Institute), Nanjing 211106 4. NARI Technology Co. Ltd., Nanjing 211106 5. State Key Laboratory of Smart Grid Protection and Control, Nanjing 211106
  • 图  1  纠错算法实验程序流程图

    Fig.  1  Flowchart of the experiment program for error correction algorithm

    图  2  一个省级电力调度数据网络结构

    Fig.  2  The structure of a provincial power dispatch data network

    图  3  网络畅通时采用TCP和UDP的业务最大时延

    Fig.  3  Maximum delays of messages using TCP and UDP when the network is uncongested

    图  4  网络拥塞时采用TCP和UDP的业务最大时延

    Fig.  4  Maximum delays of messages using TCP and UDP when the network is congested

    图  5  网络畅通时TCP和UDP传输下报文的端到端最大时延

    Fig.  5  Maximum end-to-end delays in TCP and UDP transmission modes when network is uncongested

    图  6  4种拥塞流量时TCP和UDP报文的端到端最大时延

    Fig.  6  Maximum end-to-end delay of TCP and UDP packets in four types of congestion traffic

    图  7  报文连续发送N次的总时延构成

    Fig.  7  Composition of the total delay when the message is transmitted N copies

    表  1  一种本原BCH码分组方法

    Table  1  A grouping method of original BCH code

    应用层报文长度 (byte)分组数(n, k)每组加入的纠错码长度 (bit)每组纠错位数 (bit)总纠错位数 (bit)参考信道误比特数
    1~591[511, 493]18221
    60~1154[255, 247]8141
    116~2318[255, 247]8182
    232~46216[255, 247]81164
    463~140064[255, 247]816412
    下载: 导出CSV

    表  2  本文方案与其他方案的对比

    Table  2  Comparison of the proposed scheme with others

    通信方案纠错检错重传可靠性实时性
    本文方案
    文献 [16] 方案
    文献 [17] 方案
    标准 UDP 传输方案
    下载: 导出CSV
  • [1] 严佳梅, 许剑冰, 倪明, 余文杰. 通信系统中断对电网广域保护控制系统的影响. 电力系统自动化, 2016, 40(5): 17−24 doi: 10.7500/AEPS20150820004

    Yan Jian-Mei, Xu Jian-Bing, Ni Ming, Yu Wen-Jie. Impact of communication system interruption on power system wide area protection and control system. Automation of Electric Power Systems, 2016, 40(5): 17−24 doi: 10.7500/AEPS20150820004
    [2] Teng S H, Wu N Q, Zhu H B. SVM-DT-based adaptive and collaborative intrusion detection. IEEE/CAA Journal of Automatica Sinica, 2018, 5(1): 108−118 doi: 10.1109/JAS.2017.7510730
    [3] 梅生伟, 朱建全. 智能电网中的若干数学与控制科学问题及其展望. 自动化学报, 2013, 39(2): 119−131 doi: 10.1016/S1874-1029(13)60014-2

    Mei Sheng-Wei, Zhu Jian-Quan. Mathematical and control scientic issues of smart grid and its prospects. Acta Automatica Sinica, 2013, 39(2): 119−131 doi: 10.1016/S1874-1029(13)60014-2
    [4] 杨飞生, 汪璟, 潘泉, 康沛沛. 网络攻击下信息物理融合电力系统的弹性事件触发控制. 自动化学报, 2019, 45(1): 110−119

    Yang Fei-Sheng, Wang Jing, Pan Quan, Kang Pei-Pei. Resilient event-triggered control of grid cyber-physical systems against cyber attack. Acta Automatica Sinica, 2019, 45(1): 110−119
    [5] Liu N, Zhang J H, Liu W X. Toward key management for communications of wide area primary and backup protection. IEEE Transactions on Power Delivery, 2010, 25(3): 2030−2032 doi: 10.1109/TPWRD.2010.2045930
    [6] Begovic M, Novosel D, Karlsson D, Henville C, Michel G. Wide-area protection and emergency control. Proceedings of the IEEE, 2005, 93(5): 876−891 doi: 10.1109/JPROC.2005.847258
    [7] 汪剑, 韩蕾, 覃琴, 杜鑫. 广域保护通信网络综述. 电力系统通信, 2012, 33(240): 5−8

    Wang Jian, Han Lei, Qin Qin, Du Xin. Summary of wide-area protection communication network. Telecommunications for Electric Power System, 2012, 33(240): 5−8
    [8] 朱海婷, 丁伟, 缪丽华, 龚俭. UDP流量对TCP往返延迟的影响. 通信学报, 2013, 34(1): 19−29

    Zhu Hai-Ting, Ding Wei, Miao Li-Hua, Gong Jian. Effect of UDP traffic on TCP' s round-trip delay. Journal on Communications, 2013, 34(1): 19−29
    [9] 罗万明, 林闯, 阎保平. TCP/IP拥塞控制研究. 计算机学报, 2001, 24(1): 1−17 doi: 10.3321/j.issn:0254-4164.2001.01.001

    Luo Wan-Ming, Lin Chuang, Yan Bao-Ping. A survey of congestion control in the internet. Chinese Journal of Computers, 2001, 24(1): 1−17 doi: 10.3321/j.issn:0254-4164.2001.01.001
    [10] Serizawa Y, Imamura H, Kiuchi M. Performance evaluation of IP-based relay communications for wide-area protection employing external time synchronization. Proceeding of Power Engineering Society Summer Meeting, 2001, 2: 909−914
    [11] Stahlhut J W, Browne T J, Heydt G T, Vittal V. Latency viewed as a stochastic process and its impact on wide area power system control signals. IEEE Transactions on Power Systems, 2008, 23(1): 84−91 doi: 10.1109/TPWRS.2007.913210
    [12] 熊小萍. 电力系统广域通信网络可靠性分析与优化设计[博士学位论文]. 广西大学, 中国, 2014.

    Xiong Xiao-Ping. Reliability Analysis and Optimal Design of Wide Area Communication Network in Power System [Ph.D. dissertation]. Guangxi University, China, 2014.
    [13] 王阳光. 应对灾变的广域保护信息处理及通信技术研究[博士学位论文]. 华中科技大学, 中国, 2010.

    Wang Yang-Guang. Research on Information Management and Communication Technology of Wide Area Protection Coping with Power Grid Catastrophe [Ph.D. dissertation]. Huazhong University of Science and Technology, China, 2010.
    [14] 邢宁哲. 智能电网中通信网络可靠性保障技术的研究[博士学位论文]. 北京交通大学, 中国, 2017.

    Xing Ning-Zhe. Research on the Guarantee Technologies of Communication Networks Reliability in Smart Grid [Ph.D. dissertation]. Beijing Jiaotong University, China, 2017.
    [15] 董雪源. 基于互联网技术的电力系统广域保护通信体系研究[博士学位论文]. 西南交通大学, 中国, 2012.

    Dong Xue-Yuan. Studies on the Internet Technology Based Communication System in Power System Wide Area Protection [Ph.D. dissertation]. Southwest Jiaotong University, China, 2012.
    [16] 范开俊, 徐丙垠, 陈羽, 韩国政, 逯怀东. 配电网分布式控制实时数据的GOOSE over UDP传输方式. 电力系统自动化, 2016, 40(4): 115−120 doi: 10.7500/AEPS20150615006

    Fan Kai-Jun, Xu Bing-Yin, Chen Yu, Han Guo-Zheng, Lu Huai-Dong. Goose over UDP transmission mode for real-time data of distributed control application in distribution networks. Automation of Electric Power Systems, 2016, 40(4): 115−120 doi: 10.7500/AEPS20150615006
    [17] 肖行诠, 苟骁毅, 肖岚, 李乐, 温丽丽, 段刚, 等. 基于UDP协议的局域网 WAMS数据低延迟可靠传输方法. 电力自动化设备, 2011, 31(10): 148−152 doi: 10.3969/j.issn.1006-6047.2011.10.031

    Xiao Xing-Quan, Gou Xiao-Yi, Xiao Lan, Li Le, Wen Li-Li, Duan Gang, et al. UDP-based small-delay and reliable transfer of WAMS data in LAN. Electric Power Automation Equipment, 2011, 31(10): 148−152 doi: 10.3969/j.issn.1006-6047.2011.10.031
    [18] 张新昌, 张项安. 层次化保护控制系统及其网络通信技术研究. 电力系统保护与控制, 2014, 42(19): 129−133 doi: 10.7667/j.issn.1674-3415.2014.19.020

    Zhang Xin-Chang, Zhang Xiang-An. Research on hierarchical protection and control system and its communication technology. Power System Protection and Control, 2014, 42(19): 129−133 doi: 10.7667/j.issn.1674-3415.2014.19.020
    [19] 刘育权, 华煌圣, 李力, 王莉, 刘金生. 多层次的广域保护控制体系架构研究与实践. 电力系统保护与控制, 2015, 43(5): 112−122

    Liu Yu-Quan, Hua Huang-Sheng, Li Li, Wang Li, Liu Jin-Sheng. Research and application of multi-level wide-area protection system. Power System Protection and Control, 2015, 43(5): 112−122
    [20] 吴科成, 林湘宁, 鲁文军, 刘沛. 分层式电网区域保护系统的原理和实现. 电力系统自动化, 2007, 31(3): 72−78 doi: 10.3321/j.issn:1000-1026.2007.03.015

    Wu Ke-Cheng, Lin Xiang-Ning, Lu Wen-Jun, Liu Pei. Principle and realization of the hierarchical region protective system for power systems. Automation of Electric Power Systems, 2007, 31(3): 72−78 doi: 10.3321/j.issn:1000-1026.2007.03.015
    [21] Technical Brochure No. 187, CIGRE. System Protection Schemes in Power Networks, June, 2001.
    [22] 徐天奇, 尹项根, 游大海, 王阳光. 3层式广域保护系统通信网络. 电力系统自动化, 2008, 16(32): 28−33

    Xu Tian-Qi, Yin Xiang-Gen, You Da-Hai, Wang Yang-Guang. Communication network for three-level wide area protection system. Automation of Electric Power Systems, 2008, 16(32): 28−33
    [23] Adamiak M G, Apostolov A P, Begovic M M, Henville C F, Martin K E, Michel G L, et al. Wide area protection: technology and infrastructures. IEEE Transactions on Power Delivery, 2006, 21(2): 601−609 doi: 10.1109/TPWRD.2005.855481
    [24] 王新梅, 肖国镇. 纠错码 — 原理与方法. 西安电子科技大学出版社, 2001.

    Wang Xin-Mei, Xiao Guo-Zhen. Error Correction Code: Principles and Methods. Xidian University Press, 2001.
  • 期刊类型引用(30)

    1. 翁彧,罗皓予,超木日力格,刘轩,董俊,刘征. CINOSUM:面向多民族低资源语言的抽取式摘要模型. 计算机科学. 2024(07): 296-302 . 百度学术
    2. 潘桢皓,关东海,袁伟伟,郭然. 基于主动学习和持续学习的同义词挖掘模型. 计算机应用. 2024(S1): 18-23 . 百度学术
    3. 田萱,李嘉梁,孟晓欢. 基于深度学习的抽取式摘要研究综述. 计算机科学与探索. 2024(11): 2823-2847 . 百度学术
    4. 徐忠锴,刘艳玲,盛晓娟,汪超,柯文俊. 基于改进YOLOv5的变电站典型缺陷自动检测算法. 系统仿真学报. 2024(11): 2604-2615 . 百度学术
    5. 郭哲,张智博,周炜杰,樊养余,张艳宁. 融合引导注意力的中文长文本摘要生成. 电子学报. 2024(12): 3914-3930 . 百度学术
    6. 杨文忠,丁甜甜,康鹏,卜文秀. 基于舆情新闻的中文关键词抽取综述. 计算机工程. 2023(03): 1-17 . 百度学术
    7. 孟祥文. 基于T5预训练模型的时政新闻标题生成应用设计. 电子技术与软件工程. 2023(01): 182-185 . 百度学术
    8. 黄于欣,余正涛,郭军军,于志强,高凡雅. 基于主题交互图的案件话题摘要. 软件学报. 2023(04): 1796-1810 . 百度学术
    9. 张志远,肖芮. 融合全局编码与主题解码的文本摘要方法. 计算机应用与软件. 2023(04): 134-140+183 . 百度学术
    10. 张浩宇,王戟. 一种基于成对字向量和噪声鲁棒学习的同义词挖掘算法. 自动化学报. 2023(06): 1181-1194 . 本站查看
    11. 李旭军,王珺,余孟. 融合预训练和注意力增强的中文自动摘要研究. 计算机工程与应用. 2023(14): 134-141 . 百度学术
    12. 丁邱,严馨,刘艳超,徐广义,邓忠莹. 融合回答者排序得分的CQA答案摘要方法. 陕西理工大学学报(自然科学版). 2023(05): 38-46 . 百度学术
    13. 王鑫,宋永红,张元林. 基于显著性特征提取的图像描述算法. 自动化学报. 2022(03): 735-746 . 本站查看
    14. 郭雨欣,陈秀宏. 融合BERT词嵌入表示和主题信息增强的自动摘要模型. 计算机科学. 2022(06): 313-318 . 百度学术
    15. 祝超群,彭艳兵. 基于集成学习的文本摘要抽取方法研究. 计算机与数字工程. 2022(07): 1540-1544+1592 . 百度学术
    16. 尹宝生,安鹏飞. 通过N-gram增强局部上下文视野感知的中文生成式摘要. 中文信息学报. 2022(08): 135-143+153 . 百度学术
    17. 谢谦,董立红,吴雪菲. 基于多源数据融合的煤矿工作面瓦斯浓度预测. 中国安全生产科学技术. 2022(11): 71-76 . 百度学术
    18. 刘翠兰,张嘉元,曹旭栋,伍高飞,朱笑岩,任家东,冯涛. 开源软件缺陷报告自动摘要研究综述. 信息安全学报. 2022(06): 126-139 . 百度学术
    19. 谭金源,刁宇峰,祁瑞华,林鸿飞. 基于BERT-PGN模型的中文新闻文本自动摘要生成. 计算机应用. 2021(01): 127-132 . 百度学术
    20. 黄佳佳,李鹏伟. 基于变分自编码器的生成式文本摘要研究. 计算机应用研究. 2021(03): 705-709 . 百度学术
    21. 蓝雯飞,周伟枭,许智明,朱容波,罗一凡. 基于混合过滤编码的神经中文生成式摘要. 中南民族大学学报(自然科学版). 2021(03): 305-311 . 百度学术
    22. 李伯涵,李红莲. 一种融合关键词的生成式摘要方法. 计算机应用研究. 2021(11): 3289-3292+3358 . 百度学术
    23. 彭伟乐,武浩,徐立. 基于注意力机制面向短文本多分类的关键词权重优化. 计算机应用. 2021(S2): 19-24 . 百度学术
    24. 陶兴,张向先,郭顺利,张莉曼. 学术问答社区用户生成内容的W2V-MMR自动摘要方法研究. 数据分析与知识发现. 2020(04): 109-118 . 百度学术
    25. 吕瑞,王涛,曾碧卿,刘相湖. TSPT:基于预训练的三阶段复合式文本摘要模型. 计算机应用研究. 2020(10): 2917-2921 . 百度学术
    26. 叶俊民,罗达雄,陈曙. 基于短文本情感增强的在线学习者成绩预测方法. 自动化学报. 2020(09): 1927-1940 . 本站查看
    27. 柴悦,赵彤洲,江逸琪,高佩东. 基于Att-iBi-LSTM的新闻主题词提取方法研究. 武汉工程大学学报. 2020(05): 575-580 . 百度学术
    28. 谢谦,董立红,厍向阳. 基于Attention-GRU的短期电价预测. 电力系统保护与控制. 2020(23): 154-160 . 百度学术
    29. 宁珊,严馨,徐广义,周枫,张磊. 融合关键词的中文新闻文本摘要生成. 计算机工程与科学. 2020(12): 2265-2272 . 百度学术
    30. 石磊,阮选敏,魏瑞斌,成颖. 基于序列到序列模型的生成式文本摘要研究综述. 情报学报. 2019(10): 1102-1116 . 百度学术

    其他类型引用(59)

  • 加载中
  • 图(7) / 表(2)
    计量
    • 文章访问数:  1298
    • HTML全文浏览量:  254
    • PDF下载量:  110
    • 被引次数: 89
    出版历程
    • 收稿日期:  2018-09-30
    • 录用日期:  2019-05-08
    • 网络出版日期:  2021-07-27
    • 刊出日期:  2021-07-27

    目录

    /

    返回文章
    返回