2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于ISDAE模型的复杂工业过程运行状态评价方法及应用

褚菲 傅逸灵 赵旭 王佩 尚超 王福利

李远征, 倪质先, 段钧韬, 徐磊, 杨涛, 曾志刚. 面向高比例新能源电网的重大耗能企业需求响应调度. 自动化学报, 2023, 49(4): 754−768 doi: 10.16383/j.aas.c220034
引用本文: 褚菲, 傅逸灵, 赵旭, 王佩, 尚超, 王福利. 基于ISDAE模型的复杂工业过程运行状态评价方法及应用. 自动化学报, 2021, 47(4): 849−863 doi: 10.16383/j.aas.c200475
Li Yuan-Zheng, Ni Zhi-Xian, Duan Jun-Tao, Xu Lei, Yang Tao, Zeng Zhi-Gang. Demand response scheduling of major energy-consuming enterprises based on a high proportion of renewable energy power grid. Acta Automatica Sinica, 2023, 49(4): 754−768 doi: 10.16383/j.aas.c220034
Citation: Chu Fei, Fu Yi-Ling, Zhao Xu, Wang Pei, Shang Chao, Wang Fu-Li. Operating performance assessment method and application for complex industrial process based on ISDAE model. Acta Automatica Sinica, 2021, 47(4): 849−863 doi: 10.16383/j.aas.c200475

基于ISDAE模型的复杂工业过程运行状态评价方法及应用

doi: 10.16383/j.aas.c200475
基金项目: 国家自然科学基金(61973304, 61503384, 61873049, 62073060), 江苏省六大人才高峰项目(DZXX-045), 江苏省科技计划项目(BK20191339), 徐州市科技创新计划项目(KC19055), 矿冶过程自动控制技术国家重点实验室开放课(BGRIMM-KZSKL-2019-10), 前沿课题专项项目(2019XKQYMS64)资助
详细信息
    作者简介:

    褚菲:中国矿业大学信息与控制工程学院副教授. 2014年获东北大学控制理论与控制工程博士学位. 主要研究方向为复杂工业过程智能建模、控制与优化, 运行状态评价和机器学习. 本文通信作者. E-mail: chufeizhufei@sina.com

    傅逸灵:中国矿业大学信息与控制工程学院硕士研究生. 2016年获郑州大学电气工程学院学士学位. 主要研究方向为复杂工业过程建模与运行状态评价. E-mail: i11606923@163.com

    赵旭:中国矿业大学信息与控制工程学院硕士研究生. 2017年获三江学院机械与电气工程学院学士学位. 主要研究方向为复杂工业过程运行优化与运行状态评价. E-mail: zhao_xu1994@126.com

    王佩:中国矿业大学信息与控制工程学院硕士研究生. 2019年获合肥师范学院电子信息与电气工程学院学士学位. 主要研究方向为复杂工业过程建模与运行状态评价. E-mail: cumt_aaron@163.com

    尚超:清华大学自动化系助理教授. 2016年获清华大学自动化系博士学位. 主要研究方向为大数据解析及工业应用, 过程监控与故障诊断和工业过程建模. E-mail: c-shang@tsinghua.edu.cn

    王福利:东北大学教授. 1988年获东北大学自动化系博士学位. 主要研究方向为复杂工业系统的建模、控制与优化, 过程监测和故障诊断. E-mail: wangfuli@ise.neu.edu.cn

Operating Performance Assessment Method and Application for Complex Industrial Process Based on ISDAE Model

Funds: Supported by National Natural Science Foundation of China (61973304, 61503384, 61873049, 62073060), Selection and Training Project of High-level Talents in the Sixteenth \Six Talent Peaks of Jiangsu Province (DZXX-045), Science and Technology Plan Project of Jiangsu Province (BK20191339), Science and Technology Innovation Plan Project of Xuzhou (KC19055), Open Foundation of State Key Laboratory of Process Automation in Mining and Metallurgy (BGRIMM-KZSKL-2019-10), and Fundamental Research Funds for the Central Universities (2019XKQYMS64)
More Information
    Author Bio:

    CHU Fei Associate professor at the School of Information and Control Engineering, China University of Mining and Technology. He received his Ph. D. degree in control theory and control engineering from Northeastern University in 2014. His research interest covers intelligent modeling, control and optimization of complex industrial processes, operating performance assessment, and machine learning. Corresponding author of this paper

    FU Yi-Ling Master student at the School of Information and Control Engineering, China University of Mining and Technology. He received his bachelor degree from the School of Electrical Engineering, Zhengzhou University in 2016. His main research interest is modeling and operating performance assessment of complex industrial process

    ZHAO Xu Master student at the School of Information and Control Engineering, China University of Mining and Technology. He received his bachelor degree from the School of Mechanical and Electrical Engineering, Sanjiang College in 2017. His main research interest is optimization and operating performance assessment of complex industrial process

    WANG Pei Master student at the School of Information and Control Engineering, China University of Mining and Technology. He received his bachelor degree from the School of Electronic Information and Electrical Engineering, Hefei Normal University in 2019. His main research interest is modeling and operating performance assessment of complex industrial process

    SHANG Chao Associate professor in the Department of Automation, Tsinghua University. He received his Ph. D. degree from the Department of Automation, Tsinghua University in 2016. His research interest covers big data analysis and industrial applications, process monitoring and fault diagnosis, and industrial process modeling

    WANG Fu-Li Professor at Northeastern University. He received his Ph. D. degree from the Department of Automation, Northeastern University in 1988. His research interest covers modeling, control and optimization of complex industrial process, process monitoring, and fault diagnosis

  • 摘要: 工业过程的运行状态评价对保证产品质量及提升企业综合经济效益具有重要意义. 针对工业过程中存在强非线性、信息冗余以及不确定性因素影响而难以建立稳健可靠的运行状态评价模型问题, 提出一种基于综合经济指标驱动的稀疏降噪自编码器模型(Comprehensive economic index driven sparse denoising autoencoder, ISDAE)的复杂工业过程运行状态评价方法. 首先, 在SDAE (Sparse denoising autoencoder)模型中引入综合经济指标预测误差项, 迫使SDAE学习与综合经济指标相关的数据特征, 建立ISDAE特征提取模型. 其次, 将ISDAE模型所学特征作为输入训练运行状态识别模型, 级联特征提取模型和运行状态识别模型并通过微调网络结构参数获得运行状态评价模型. 另外, 针对非优状态, 提出一种基于自编码器贡献图算法的非优因素追溯方法, 通过计算变量的贡献率识别非优因素. 最后, 将所提方法应用于重介质选煤过程, 验证所提方法的有效性和实用性.
  • 自然语言推理(Natural language inference, NLI)又称为文本蕴含识别(Recognizing textual entailment, RTE)[1-2], 是自然语言处理(Natural language processing, NLP)中一个重要的研究问题.自然语言推理是一个确定两个或多个句子之间逻辑关系的任务, 例如:给定一个前提(Premise)和一个假设(Hypothesis), 目标是确定它们之间的逻辑关系是蕴涵、中立还是矛盾. SNLI[3]和Breaking-NLI[4]等一系列高质量、大规模标准数据集的发布推动了自然语言推理的发展, 促进了大量相关研究[5-11], 表 1展示了几个SNLI数据集中的例子.目前基于神经网络的推理模型主要有两类:一类侧重前提和假设分别进行句子嵌入, 然后使用分类器将其组合起来; 另一类不是分别处理两个句子, 而是使用交互注意力机制进行句子之间的交互.本文关注基于句子嵌入的方法, 因为该方法没有限定要求两个句子, 可以延展到更多任务上.

    表 1  SNLI数据集上的三个例子
    Table 1  Three examples from the SNLI dataset
    Premise (前提) Hypothesis (假设) Label (标签)
    A soccer game with multiple males playing. Some men are playing a sport. Entailment
    (译文) 一场有多名男子参加的足球比赛. 有些男人在做运动. 蕴涵
    A person on a horse jumps over a broken down airplane. A person is training his horse for a competition. Neutral
    (译文) 一个人骑着马跳过了一架坏掉的飞机. 为了参加比赛, 一个人正在训练他的马. 中立
    A black race car starts up in front of a crowd of people. A man is driving down a lonely road. Contradiction
    (译文) 一辆黑色赛车在一群人面前启动. 一个男人开着车行驶在荒凉的路上. 矛盾
    下载: 导出CSV 
    | 显示表格

    对自然语言推理广泛的研究使得很多复杂模型在基准数据集上取得了越来越高的表现, 但是最近的研究[11]表明多数模型很少关注前提和假设的句义关系, 而是大量利用句子中个别词之间对立或相似等浅显关系进行推理作答, 更有甚者只是根据假设就可以进行推理.可想而知这些推理模型很难应用到复杂的现实场景中, 它们根据句子中特定词之间的关系进行盲目推理, 比如根据前提中的"expensive"词和假设中的"cheap"词, 简单推理出两个句子是对立关系, 而实际上两句话描述的不是同一件事情, 正确的逻辑关系应该是中立.推理模型过度依赖特定词, 说明模型只是抓住数据集中的语言偏置, 而不是依据前提和假设所表达的句义关系进行逻辑推理.

    一种检测语言偏置对推理模型影响的方式是设计一个仅依赖词编码表示进行推理的模型(为了方便描述, 本文使用WIM (Word inference model)表示仅依赖词编码表示进行推理的模型), 事实上WIM也可以作为一个标准的基线模型.本文提出使用对抗正则化方法来降低语言偏置的影响, 具体方法是让一个标准的推理模型和这个只依赖词编码表示进行推理的对手进行博弈, 以减少语言偏置的影响.在对抗机制下, 一方面训练WIM, 使得该模型尽可能推理正确, 其中WIM模型的词编码表示是由标准推理模型提供; 另一方面训练标准推理模型, 调整它的词编码和句编码部分, 目的是在提高自身推理准确率的同时, 尽量降低WIM模型的性能.在这种新颖的对抗正则化机制下, 优化自然语言推理模型.

    本文提出的模型可以端到端训练, 而且扩展和延伸性比较强.在SNLI和Breaking-NLI数据集上的实验结果表明了该方法的有效性:本文提出的方法在SNLI数据集基于句子嵌入的推理模型中取得了最好的结果, 而且在Breaking-NLI数据集中也取得了领先的表现.

    本文的主要贡献如下: 1)通过多样信息整合, 多层级句子编码, 增强自然语言推理模型对句子的表示能力, 以探索更多语义信息. 2)关注自然语言推理中的语言偏置现象, 并使用对抗正则化方法来解决这个问题, 此外该方法没有增加模型的参数, 不会增加模型测试时的复杂度. 3)通过在SNLI和Breaking-NLI数据集上的实验表明本文提出方法的有效性, 模型推理表现取得了有效的提升.

    目前句子嵌入在自然语言推理的众多方法中得到了广泛的应用, 这些方法背后的基本思想是分别对前提语句和假设语句进行编码, 然后将它们的句子表示结合起来使用神经网络进行分类, 具体结构如图 1所示.在已有的工作中, 很多研究工作使用卷积神经网络(Convolution neural network, CNN)和长短时记忆网络(Long short-time memory, LSTM)作为构建模块, 如Liu等[12]提出基于双向长短时记忆网络(Bidirectional LSTM, BiLSTM)的句子编码结构, Mou等[13]提出基于树的CNN句子编码结构.也有很多使用更加复杂的神经网络进行句子嵌入的研究工作, 如Munkhdalai等[14]提出NSE (Neural semantic encoder)的记忆增强神经网络, 用于自然语言推理任务.最近一些研究者开始探索应用于句子嵌入表示的自注意力机制. Shen等[6]提出DiSAN模型, 该模型没有使用CNN和循环神经网络(Recurrent neural network, RNN), 而是完全依赖于研究者提出的多维注意力和双向自注意力机制. Shen等[15]提出ReSAN (Reinforced self-attention network)模型, 该模型使用强化学习将软注意力和硬注意力融合在一起. Im等[16]提出基于距离的自注意力网络模型, 该模型利用距离掩蔽来关注单词之间的距离, 从而对局部依赖关系进行建模.此外, 还有研究者将胶囊网络中的动态路由机制应用到自然语言推理任务中[17], 并且取得了不错的效果.虽然在自然语言推理中, 句子嵌入方法已经显示出其有效性, 但是也有多项研究表明, 将前提和假设句子对在句子编码期间联合处理, 关注它们之间的复杂交互, 模型会得到更好的结果.然而, 这些交互式的方法不能在很多单个句子处理的任务上直接使用, 也不能像句子嵌入一样直接提供关于句子的语义理解.本文选择基于句子嵌入的体系结构, 以便应用于更多NLP任务.

    图 1  自然语言推理(NLI)整体结构框图
    Fig. 1  The structure of natural language inference (NLI)

    Goodfellow等[18]提出生成对抗网络(Generative adversarial network, GAN)作为一种学习数据分布的新方式.生成对抗网络包含一个生成器$G$和一个判别器$D$, $G$和$D$在一个极小极大的博弈中被同步训练, 优化目标是达到纳什均衡

    $ \begin{align}\label{eq1} &\mathop {\min }\limits_G \mathop {\max }\limits_D V(D, G) = {{\rm E}_{x \sim {p_{\rm data}}}}\left[ {\log D(x)} \right] +\notag\\ &\qquad {{\rm E}_{z \sim {p_z}}}\left[ {\log (1 - D(G(z)))} \right] \end{align} $

    (1)

    其中, 生成器$G$根据从先验分布${p_z}$中采样的隐含输入变量$z$来产生真实的数据, 以愚弄判别器$D$.另一方面, 判别器$D$是一个典型的二元分类器, 它试图去辨别它的输入数据是来自训练集还是来自生成器生成的集合.生成对抗网络通过判别器为生成器提供损失梯度进行训练, 目的是学习一个生成模型, 使该模型的输出满足特定的分布${p_{\rm data}}$.

    生成对抗网络具有强大的模拟复杂分布的能力, 已受到广泛关注, 并且在图像和文本生成等领域演化出很多变体, 取得了大量令人瞩目的效果.如针对对抗网络自身的改进LSGAN[19]和WGAN[20], 对抗网络在图像生成上的应用BicycleGAN[21]和DualGAN[22], 在文本生成上的应用SeqGAN[23]和RankGAN[24]等.最近, 研究人员提出了其他对抗训练的策略[25-26], 以鼓励中间模型表示各种形式的不变性.

    图 2是本文提出的基于对抗正则化的自然语言推理模型框图, 图中上半部分的标准NLI模型对应本文提出的增强的多层级表示推理模型(Enhanced multi-level representations inference model, EMRIM), 下半部分的针对词编码的NLI对手对应前面提到的WIM模型.其中EMRIM模型主要包括词编码器、句编码器、分类器三部分, 该模型通过增强的多层级编码结构探索丰富语言信息.并且本文提出使用对抗正则化方法降低语言偏置的影响, 从而进一步提升模型的推理能力.本文从以下几个方面对提出的方法进行具体描述.

    图 2  基于对抗正则化的自然语言推理模型结构框图
    Fig. 2  The structure of natural language inference model based on adversarial regularization

    丰富的表示信息在自然语言推理中扮演着重要的角色.在我们的模型中, 我们将统筹多种类型的表示, 以更好地挖掘前提和假设句义信息, 这也是这项任务的基本组成部分.首先将前提和假设中的每个单词转换成连续的表示形式, 对词信息进行融合和提取.图 3中展示了词编码的处理方式, 具体包含以下部分:

    图 3  词编码器和句子编码器网络结构
    Fig. 3  Word encoder and sentence encoder network structure

    1) 词嵌入:与之前方法的设置相似, 使用预训练的词向量GloVe[27]将每一个单词映射到向量空间.

    2) 字符嵌入:将卷积神经网络(CNN)应用到每个单词的字符上.实践证明, 该方法对处理集外词(Out of vocabulary, OOV)有一定的帮助[28].

    3) POS和NER标签:使用词性标注(Part-of-speech, POS)和命名实体识别(Named-entity recognition, NER)来获得单词的词性信息和实体信息, 然后每一个单词可以通过查表获得对应的POS嵌入表示和NER嵌入表示.这种方法比常用的独热码包含更多信息.

    4) 精确匹配(Exact match, EM):受机器阅读理解的启发, 使用3个二进制特征来表示这个词是否能与任何词准确匹配, 分别表示原始形式、小写形式和词干形式.

    5) CoVe:通过机器翻译[29]得到词的上下文向量表示, 本文的模型对其进行降维处理, 以减少模型的参数量.

    本文将前面提到的多种词信息串联起来使用, 这样不仅可以从更多角度获得词相关的表示信息, 而且为后续句子编码提供良好的基础表征, 以更准确地理解句子上下文含义, 从而做出合理的推理.

    为了获得句子的语义信息, 将所有向量序列传递给使用BiLSTM和最大池化(Max pooling)的句子编码器.输入一个长度为$T$的序列$({w_1}, {w_2}, {w_3}$, $\cdots $, ${w_T})$, 双向长短时记忆网络的输出是, $\cdots $, ${h_T})$, 序列输出中的每一项计算如下:

    $ \overrightarrow {{h_t}} = \overrightarrow {LST{M_t}} ({w_1}, {w_2}, \cdots , {w_T}) $

    (2)

    $ \overleftarrow {{h_t}} = \overleftarrow {LST{M_t}} ({w_1}, {w_2}, \cdots , {w_T}) $

    (3)

    $ {h_t} = \left[ {\overrightarrow {{h_t}} , \overleftarrow {{h_t}} } \right] $

    (4)

    接下来为了学习每个句子的整体表示, 对序列编码器隐藏层的输出应用最大池化处理, 得到与${h_t}$同维度大小的向量

    $ \begin{align}\label{eq5} x = MaxPooling({h_1}, {h_2}, {h_3}, \cdots , {h_T}) \end{align} $

    (5)

    先进的自然语言推理模型通常将句子编码器实现为多层结构, 鼓励模型模拟复杂函数, 同时捕获复杂的语言结构.此外, 一些研究人员已经证实, 不同层能够提取不同类型的语法和语义信息[30].本文通过设置多层级结构, 探索每一层潜在的语义信息.在推理模型中, 使用基于BiLSTM和Max Pooling的层次化句子编码器, 句子编码器包括三层, 每一层BiLSTM都是将原始输入语句序列作为输入; 而且, 除了第一层BiLSTM之外的其他BiLSTM层, 均使用前一层网络的最终状态来初始化其隐层状态.对每一层BiLSTM的输出进行最大池化, 句子编码的最终输出是每一个最大池化层输出的串联拼接.图 3显示了具体的网络结构.

    句子编码器的输出是前提和假设的固定维度的向量表示$u$和$v$, 然后将它们传递给顶层分类器.在自然语言推理任务中, 顶层分类器一般使用多层感知机(Multilayer perceptron, MLP)和Softmax函数来预测每个类别的概率.本文以多种方式将这两个句子的表示聚合在一起, 并作为多层感知机的输入, 然后把多层感知机的输出传递给Softmax函数, 公式表示如下所示:

    $ x = [u;v;u \odot v;|u - v|] $

    (6)

    $ Output ={\rm Softmax} (MLP(x)) $

    (7)

    其中, $ \odot$表示逐个对应元素相乘, 多层感知机包含两个带有修正线性单元(Rectified linear unit, ReLU)激活函数的隐层.最后通过最小化带有L2正则项的多类交叉熵损失函数, 对整个模型进行端到端训练.

    1) 标准推理模型:给定数据集$D = \{{p_i}, {q_i}, {a_i}\}$, 其中包含前提句${p_i} \in {\cal P}$、假设句${q_i} \in {\cal Q}$、推理标签${a_i}$ $\in$ ${\cal A}$三部分, 自然语言推理任务就是从前提和假设句子中推理出它们的逻辑关系.为了描述方便, 定义词编码器的操作为$G$, 定义句子编码器为$H$, 最后的分类层为$F$, $p$和$q$为数据集$D$中某样本的两个句子, 所以我们的推理模型可以表示为, 首先这两个句子通过词编码器分别得到表示${g_u}$和${g_v}$

    $ {g_u} = G(p) $

    (8)

    $ {g_v} = G(q) $

    (9)

    然后输出的结果经过句编码器的处理得到句子表示$u$和$v$

    $ u = H({g_u}) $

    (10)

    $ v = H({g_v}) $

    (11)

    最后将两者的句子表示传递给顶层分类器预测逻辑关系

    $ \begin{align}\label{eq12} P({\cal A}|p, q) = F(u, v) \end{align} $

    (12)

    现有的自然语言推理模型一般都遵循类似的模式, 通过标准的交叉熵函数进行训练, 通过优化参数最小化损失函数

    $ \begin{align}\label{eq13} {{\cal L}_{NLI}}(G, H, F) = {{\mathbb{E}}_{{\cal P}, {\cal Q}, {\cal A}}}[ - \log (P({a_i}|{p_i}, {q_i}))] \end{align} $

    (13)

    2) WIM:对NLI中关于词的语言偏置强弱直观的度量是模型仅从词编码就可以预测答案的能力.我们将这个模型形式化为一个映射${F_G}$, 如上所述, 我们假设${F_G}$是可微的, 并把从标准推理模型获得的词编码作为输入, 以便${F_G}$可以进行预测

    $ \begin{align}\label{eq14} {P_{{F_G}}}({\cal A}|p, q) = {F_G}({g_u}, {g_v}) \end{align} $

    (14)

    将这个模型参数化为与顶层分类器相似的结构, 只是为了便于后续处理.在其基础上加入了最大池化层.如上所述, 该模型可以用交叉熵函数进行训练

    $ \begin{align}\label{eq15} {{\cal L}_G}(G, {F_G}) = {{\mathbb{E}}_{{\cal P}, {\cal Q}, {\cal A}}}[ - \log ({P_{{F_G}}}({a_i}|{p_i}, {q_i}))] \end{align} $

    (15)

    3) 对抗正则化减少语言偏置:如图 2所示, 本文将标准推理模型和只依赖词编码的推理模型设置为对抗状态, 引入对抗正则化的方法优化自然语言推理模型.其中只依赖词编码的推理模型为了推理成功, 需要学习训练数据集中的语言偏置, 但是因为这种语言偏置忽略了句义信息, 导致标准推理模型推理错误.为了减少语言偏置, 将两个模型设置为对抗状态, 通过修改词编码部分来降低只依赖词编码模型的表现; 同时强化句子编码部分, 以捕获更多上下文信息和语义信息, 从而达到在提升标准推理模型推理表现的同时减少对语言偏置的依赖的目的.可以将这两个模型的对立关系描述为

    $ \begin{align}\label{eq16} \mathop {\min }\limits_{G, H, F} \mathop {\max }\limits_{{F_G}} ({{\cal L}_{NLI}}(G, H, F) - \lambda {{\cal L}_G}(G, {F_G})) \end{align} $

    (16)

    基于对抗正则化的自然语言推理模型的训练过程如下, 首先训练只依赖词编码的推理模型, 该模型的训练目标是最小化其对应的交叉熵损失函数, 但是词编码器$G(\cdot)$不会根据这个梯度信息更新, 这个操作对应了图 2中的梯度拒绝部分.潜在地, 这迫使分类器${F_G}$要基于标准推理模型给出的词编码表示尽可能好地进行推理.然后训练更新标准推理模型, 该模型的梯度信息来自于两部分:一部分是标准推理模型本身对应的交叉熵损失函数; 另一部分来自于只依赖词编码的推理模型负的加权的交叉熵损失函数, 其中分类器${F_G}$的参数是不更新的, 分类器只是起到梯度传递的作用.最后这两个训练过程进行交替训练更新, 通过不断对抗博弈, 以到达理想的纳什均衡状态.

    我们使用正则化系数$\lambda $来调控推理模型的性能和语言偏置的权衡. $\lambda $取值较小表明较少的正则化发生, 标准推理模型继续学习语言偏置.另一方面, 当$\lambda $取值较大时, 表示去除较多语言偏置, 可能导致标准推理模型和只依赖词编码的模型的表现都不好; 此外权重过大会加重对词编码的影响, 以至于词编码器没有能力学习合理的词表示, 从而进一步影响句子表征等高层表示.所以要设置合适的权重来权衡两者之间的重要性.

    我们在SNLI和Breaking-NLI数据集上验证本文的方法.

    SNLI (Stanford natural language inference)[3]数据集大约有57万人工标注的句子对, 该数据集比其他同类数据集大两个数量级.其中前提数据来源于Flickr30k语料库中的字幕, 而假设句数据和标签是人工合成的.数据集提供的标签分别是"entailment", "neutral", "contradiction", "-".其中"-"表示注释者之间无法达成共识.遵照Bowman等[3]提出的方式删除标签为"-"的句子对, 然后生成训练集、验证集和测试集.

    Breaking-NLI[4]数据集是一个自然语言推理的测试集, 包括8 193个前提和假设句子对, 其中前提和假设只是有一个词或短语被替换了, 其他成分是相同的.该数据集被用来测试自然语言推理模型, 推理模型需要一定的词汇和世界知识才能实现合理的表现.

    本文在实验中使用预先训练好的300维的GloVe 840B词向量来初始化词嵌入向量, 词嵌入中的集外词使用[-0.1, 0.1]随机初始化, 在模型训练期间词嵌入向量被不断更新, 以学习适合NLI任务的更有效的表示.我们使用Spacy对单词进行标记并生成POS和NER标签, POS和NER的嵌入维度分别是26和20.所有BiLSTM的隐层大小设置为250, 为了避免过拟合, 在层间使用dropout[31]和层归一化(Layer normalization)[32]处理方法.使用Adam[33]算法优化模型参数, 并设置学习率为0.0001, 权重衰减为$1\times 10^{-8}$.设置批次大小为32, 以进行更多探索.在对抗训练过程中, 两个模型交替训练的频率为$1$ : $1$.在所有方法中都是使用500维的BiLSTM (250维前向LSTM + 250维后向LSTM).

    表 2显示了使用句子嵌入方法的不同模型在SNLI训练集和测试集的结果.我们使用以下几种方法进行实验对比:

    表 2  不同方法在SNLI上的实验结果(%)
    Table 2  Experimental results for different methods on SNLI (%)
    对比方法 模型 训练准确率 测试准确率
    Mou等[13] (2015) 300D Tree-based CNN encoders 83.3 82.1
    Liu等[12] (2016) 600D (300 + 300) BiLSTM encoders 86.4 83.3
    Liu等[12] (2016) 600D BiLSTM encoders with intra-attention 84.5 84.2
    Conneau等[34] (2017) 4096D BiLSTM with max-pooling 85.6 84.5
    Shen等[6] (2017) Directional self-attention network encoders 91.1 85.6
    Yi等[7] (2018) 300D CAFE (no cross-sentence attention) 87.3 85.9
    Im等[16] (2017) Distance-based Self-Attention Network 89.6 86.3
    Kim等[35] (2018) DRCN (-Attn, -Flag) 91.4 86.5
    Talman等[36] (2018) 600D HBMP 89.9 86.6
    Chen等[37] (2018) 600D BiLSTM with generalized pooling 94.9 86.6
    Kiela等[38] (2018) 512D Dynamic Meta-Embeddings 91.6 86.7
    Yoon等[17] (2018) 600D Dynamic Self-Attention Model 87.3 86.8
    Yoon等[17] (2018) Multiple-Dynamic Self-Attention Model 89.0 87.4
    本文方法 BiLSTM_MP 89.46 86.51
    本文方法 EMRIM 92.71 87.36
    本文方法 BiLSTM_MP + AR 89.02 86.73
    本文方法 EMRIM + AR 93.26 $\textbf{87.60}$
    下载: 导出CSV 
    | 显示表格

    1) BiLSTM_MP:该模型的词编码器使用本文提出的多信息融合编码方式, 但是句编码器使用了简单堆叠的三层BiLSTM网络, 并根据最后一层BiLSTM的输出进行最大池化处理, 最后经过顶层分类器得到推理结果.

    2) BiLSTM_MP + AR:该方法是在BiLSTM_ MP基础上使用对抗正则化.

    3) EMRIM:该方法是第2节提出的增强的多层级表示推理模型.

    4) EMRIM + AR:在EMRIM中加入对抗正则化方法.

    表 2显示了本文实验结果与SNLI官方排行榜结果, 根据实验对比, 本文提出的EMRIM方法达到了87.36 %的准确率, 已经接近排行榜中的最好结果87.4 %, 这说明在推理模型中使用多种类型信息增强的词编码器和多层级的句编码器, 确实可以提取更丰富更准确的语义表示, 从而利于模型推理.当分别为标准推理模型BiLSTM_MP和EMRIM增加只依赖词编码进行推理的对抗模型之后, 在不断博弈的进化过程中, 两个标准模型的推理性能进一步提升, BiLSTM_MP + AR比BiLSTM_MP高出约0.22 %的准确率, EMRIM + AR比EMRIM高出约0.24 %的准确率.这表明了本文提出的对抗正则化方法的有效性:该方法可以减少标准推理模型对语言偏置的依赖, 避免依据词间浅显的关系进行盲目推理; 而是强调语义理解, 通过对句义的整体把握做出选择.需要注意的是对抗正则方法没有增加标准推理模型的参数量, 并且不会增加模型测试时的复杂度.

    表 3是不同方法在Breaking-NLI测试集上的实验结果[4], 这些模型都是在SNLI数据集上训练, 然后在Breaking-NLI数据集上测试.实验发现在SNLI测试集上表现不错的ESIM模型, 在这个测试集上的性能急剧下降.本文提出的EMRIM + AR模型在该测试集上取得了目前公开的最高准确率, 这说明本文提出的模型具有良好的词汇知识和世界知识; 通过应用对抗正则化方法, 推理模型在理解词汇的同时, 关注句义表达, 整体把握推理需求, 做出合理推理.

    表 3  不同方法在Breaking-NLI上的测试结果
    Table 3  Experimental results for different methods on Breaking-NLI
    模型 测试准确率(%)
    Decomposable Attention[39] 51.9
    Residual-Stacked-Encoder[40] 62.2
    ESIM[8] 65.6
    KIM[41] 83.5
    EMRIM 88.37
    EMRIM + AR $\textbf{89.96}$
    下载: 导出CSV 
    | 显示表格

    注意到在对抗训练过程中, 随着标准推理模型在SNLI测试集上的表现提升, 只依赖词编码进行推理的模型的性能上升到一定程度之后不再增加, 而且有稍微下降的趋势.这表明对抗优化策略执行得很好, 这也是和我们的直觉是一致的.

    表 4是权重$\lambda$对SNLI测试集推理准确率的影响.根据权重和准确率的变化趋势, 可以得到以下分析.在较高的权值下, 基于词编码的大部分判别信息都已经丢失, 即标准推理模型是通过牺牲自己的性能, 从而降低了只作用于词编码模型的性能, 但是事实上在推理中根据词信息进行判别还是占有一定重要地位的, 不应完全忽略; 另外, 权重过大也导致模型底层学习不到合理的词向量表示, 继而影响模型高层网络对句子编码能力和推理能力.在权值较小时, 标准推理模型的性能相较之前也没有明显提升, 毕竟完全根据词中的判别信息进行推理是片面的, 因为忽略了对句子内容的整体理解和把握, 会导致模型的推理脱离了对应的描述场景, 从而难于做出正确抉择.只有兼顾词中表达的判别信息和句义分析这两方面, 自然语言推理模型才会做出正确的推理.

    表 4  权重$\lambda$对NLI准确率的影响
    Table 4  Impact of weight $\lambda$ on NLI accuracy
    权重值 测试准确率(%)
    0.5 86.90
    0.25 87.14
    0.10 87.60
    0.05 87.35
    0.01 87.39
    下载: 导出CSV 
    | 显示表格

    本文提出增强的多层级表示推理模型, 通过多样信息整合和多层级句子编码, 增强模型对句子的表示能力, 探索更多语义信息.在标准推理模型中引入对抗正则化方法, 通过标准推理模型和只依赖词编码进行推理的模型进行博弈训练, 以减少语言偏置对推理模型的影响, 使模型能够基于上下文进行有效推理.在SNLI和Breaking-NLI数据集上的实验结果验证了本文方法的有效性.在未来的研究工作中, 我们希望将该方法应用到更多任务中去.

  • 图  1  AE模型结构图

    Fig.  1  The structure of AE model

    图  2  基于ISDAE模型的运行状态评价系统框图

    Fig.  2  The system block diagram of ISDAE model based operating performance assessment

    图  3  运行状态在线评价示意图

    Fig.  3  The schematic diagram of online operating performance assessment

    图  4  重介质选煤工艺流程图

    Fig.  4  The process flow diagram of dense medium coal preparation process

    图  5  模型精度与隐藏层神经元个数的关系图

    Fig.  5  The relationship between the model accuracy and the number of neurons in hidden layer

    图  6  未引入滑动窗口的机理模型数据运行状态在线评价结果

    Fig.  6  Online operating performance assessment results of mechanism model data without sliding window

    图  7  引入滑动窗口的机理模型数据运行状态在线评价结果

    Fig.  7  Online operating performance assessment results of mechanism model data with sliding window

    图  8  实际选煤厂数据分布

    Fig.  8  Data distribution of actual coal preparation plant

    图  9  未引入滑动窗口的实际过程数据运行状态在线评价结果

    Fig.  9  Online operating performance assessment results of field date without sliding window

    图  10  引入滑动窗口的实际过程数据运行状态在线评价结果

    Fig.  10  Online operating performance assessment results of field data with sliding window

    图  11  机理模型数据的非优因素追溯结果: 第170、211、271个样本为状态“良”的各变量贡献率; 第316、388、409个样本为状态“中”的各变量贡献率; 第460、517、575个样本为状态“差”的各变量贡献率

    Fig.  11  Non-optimal cause identification results of mechanism model data: The contribution rate of each variable of the 170th, 211st, and 271st samples, when the state is “fine”; the contribution rate of each variable of the 316th, 388th, and 409th samples, when the state is “medium”; the contribution rate of each variable of the 460th, 517th, and 575th samples, when the state is “poor”

    图  12  实际选煤过程数据的非优因素追溯结果

    Fig.  12  The non-optimal cause identification results of coal preparation field data

    表  1  过程变量选择

    Table  1  The selection of process variable

    编号变量名
    1选煤厂原煤入料 (kg/s)
    2双层筛底板筛下流量 (kg/s)
    3单层筛顶板上流量 (kg/s)
    4混合箱出料密度 (kg/m3)
    5混料箱出料流量 (m3/s)
    6进入混料箱的重介质密度 (kg/m3)
    7旋流器入料压力 (Pa)
    8磁性物添加量 (kg/s)
    9合格介质桶输出的介质密度 (kg/m3)
    10合格介质桶液位 (m)
    11合格介质桶出料流量 (m3/s)
    下载: 导出CSV

    表  2  机理模型数据运行状态等级划分及等级标签设置

    Table  2  Operating performance level division and level label setting of mechanism model data

    溢流灰分值状态等级等级标签
    4.5 % ~ 5.5 %1
    5.5 % ~ 6.7 %2
    6.7 % ~ 7.7 %3
    7.7 % ~ 8.7 %4
    下载: 导出CSV

    表  3  离线建模数据集中的非优因素设置

    Table  3  Non-optimal factors setting in offline modeling dataset

    状态等级
    样本1 ~ 300301 ~ 400401 ~ 500501 ~ 600601 ~ 700701 ~ 800801 ~ 900901 ~ 10001001 ~ 11001101 ~ 1200
    非优因素变量1变量7变量6变量1变量7变量6变量1变量7变量6
    下载: 导出CSV

    表  4  实际过程数据运行状态等级划分及等级标签设置

    Table  4  Operating performance level division and level label setting of field data

    溢流灰分值状态等级等级标签
    6.0% ~ 6.5%1
    6.5% ~ 7.2%2
    7.2% ~ 8.0%3
    8.0% ~ 9.0%4
    下载: 导出CSV

    表  5  模型参数设置

    Table  5  Model parameter setting

    PR$\rho $lr$\beta $$\alpha $$\gamma $
    基于机理模型数据的神经网络模型0.20.10.00120.020.3
    基于实际过程数据的神经网络模型0.10.10.00120.010.1
    下载: 导出CSV

    表  6  测试数据集中的非优因素设置

    Table  6  Non-optimal cause setting in test dataset

    状态等级
    样本0 ~ 150151 ~ 200201 ~ 250251 ~ 300301 ~ 350351 ~ 400401 ~ 450451 ~ 500501 ~ 550551 ~ 600
    非优因素变量1变量7变量6变量1变量7变量6变量1变量7变量6
    下载: 导出CSV

    表  7  TP/FP/FN/TN参数含义

    Table  7  Meaning of parameter TP/FP/FN/TN

    真实情况预测结果
    正例反例
    正例TP (真正例)FN (假反例)
    反例FP (假正例)TN (真反例)
    下载: 导出CSV

    表  8  未引入滑动窗口的运行状态评价结果报告

    Table  8  Report of operating performance assessment results without sliding window

    ISDAESDAEKT-PLS
    精确率召回率F1精确率召回率F1精确率召回率F1
    差 (Poor)1.000.850.920.950.810.870.900.620.73
    中 (Medium)0.910.970.940.820.900.860.600.680.64
    良 (Fine)0.930.970.950.920.950.940.600.710.65
    优 (Optimal)0.940.950.940.890.880.890.700.610.65
    宏平均0.940.940.940.900.890.890.700.660.67
    加权平均0.940.940.940.900.890.890.690.660.67
    下载: 导出CSV

    表  9  引入滑动窗口的运行状态评价结果报告

    Table  9  Report of operating performance assessment results with sliding window

    ISDAESDAEKT-PLS
    精确率召回率F1精确率召回率F1精确率召回率F1
    差 (Poor)0.990.990.990.991.000.990.960.720.82
    中 (Medium)0.990.990.990.980.980.980.760.810.78
    良 (Fine)0.980.990.980.980.990.990.730.870.79
    优 (Optimal)1.000.970.990.990.960.970.790.700.74
    宏平均0.990.990.990.990.980.980.810.780.78
    加权平均0.990.990.990.980.980.980.800.790.79
    下载: 导出CSV
  • [1] Li W Q, Zhao C H, Gao F R. Linearity evaluation and variable subset partition based hierarchical process modeling and monitoring. IEEE Transactions on Industrial Electronics, 2017, 65(3): 2683−2692
    [2] Jiang Q C, Yan S F, Yan X F, Yi H, Gao F R. Data-driven two-dimensional deep correlated representation learning for nonlinear batch process monitoring. IEEE Transactions on Industrial Informatics, 2019, 16(4): 2839−2848
    [3] Xu J, Gu Y, Ma S. Data based online operational performance optimization with varying work conditions for steam-turbine system. Applied Thermal Engineering, 2019, 151: 344−353 doi: 10.1016/j.applthermaleng.2019.02.032
    [4] Hu J, Wu M, Chen X, Du S, Cao W, She J. Hybrid modeling and online optimization strategy for improving carbon efficiency in iron ore sintering process. Information Sciences, 2019, 483: 232−246 doi: 10.1016/j.ins.2019.01.027
    [5] Frangos M. Uncertainty quantification for cuttings transport process monitoring while drilling by ensemble Kalman filtering. Journal of Process Control, 2017, 53: 46−56 doi: 10.1016/j.jprocont.2017.02.008
    [6] 刘洋, 张国山. 基于敏感稀疏主元分析的化工过程监测与故障诊断. 控制与决策, 2016, 31(7): 1213−1218

    Liu Yang, Zhang Guo-Shan. Chemical process monitoring and fault diagnosis based on sensitive sparse principal component analysis. Control and Decision, 2016, 31(7): 1213−1218
    [7] Liu Y, Wang F L, Chang Y Q. Operating optimality assessment based on optimality related variations and nonoptimal cause identification for industrial processes. Journal of Process Control, 2016, 39: 11−20 doi: 10.1016/j.jprocont.2015.12.008
    [8] Liu Y, Chang Y Q, Wang F L. Online process operating performance assessment and nonoptimal cause identification for industrial processes. Journal of Process Control, 2014, 24(10): 1548−1555 doi: 10.1016/j.jprocont.2014.08.001
    [9] Liu Y, Wang F L, Chang Y Q, Ma R C. Operating optimality assessment and nonoptimal cause identification for non-Gaussian multimode processes with transitions. Chemical Engineering Science, 2015, 137: 106−118 doi: 10.1016/j.ces.2015.06.016
    [10] Zou X Y, Wang F L, Chang Y Q. Assessment of operating performance using cross-domain feature transfer learning. Control Engineering Practice, 2019, 89: 143−153 doi: 10.1016/j.conengprac.2019.05.007
    [11] Vo H X, Durlofsky L J. Data assimilation and uncertainty assessment for complex geological models using a new PCA-based parameterization. Computational Geosciences, 2015, 19(4): 747−767 doi: 10.1007/s10596-015-9483-x
    [12] Zhang Q C, Yang L T, Chen Z K, Li P. A survey on deep learning for big data. Information Fusion, 2018, 42: 146−157 doi: 10.1016/j.inffus.2017.10.006
    [13] Eren L, Ince T, Kiranyaz S. A generic intelligent bearing fault diagnosis system using compact adaptive 1D CNN classifier. Journal of Signal Processing Systems, 2019, 91(2): 179−189 doi: 10.1007/s11265-018-1378-3
    [14] Wang J J, Ma Y L, Zhang L B, Gao R X, Wu D Z. Deep learning for smart manufacturing: Methods and applications. Journal of Manufacturing Systems, 2018, 48: 144−156 doi: 10.1016/j.jmsy.2018.01.003
    [15] Sun W J, Shao S Y, Zhao R, Yang R Q, Zhang X W. A sparse auto-encoder-based deep neural network approach for induction motor faults classification. Measurement, 2016, 89: 171−178 doi: 10.1016/j.measurement.2016.04.007
    [16] Jiang L, Ge Z Q, Song Z H. Semi-supervised fault classification based on dynamic sparse stacked auto-encoders model. Chemometrics and Intelligent Laboratory Systems, 2017, 168: 72−83 doi: 10.1016/j.chemolab.2017.06.010
    [17] Yu W K, Zhao C H. Robust monitoring and fault isolation of nonlinear industrial processes using denoising autoencoder and elastic net. IEEE Transactions on Control Systems Technology, 2019, 28(3): 1−9
    [18] 李炜, 宋威, 王晨妮, 张雨轩. 标签约束的半监督栈式自编码器分类算法. 小型微型计算机系统, 2019, 40(3): 488−492 doi: 10.3969/j.issn.1000-1220.2019.03.005

    Li Wei, Song Wei, Wang Chen-Ni, Zhang Yu-Xuan. Label regularization semi-supervised stacked autoencoder classification algorithm. Journal of Chinese Computer Systems, 2019, 40(3): 488−492 doi: 10.3969/j.issn.1000-1220.2019.03.005
    [19] Chai Z L, Song W, Wang H L, Liu F. A semi-supervised auto-encoder using label and sparse regularizations for classification. Applied Soft Computing, 2019, 77: 205−217 doi: 10.1016/j.asoc.2019.01.021
    [20] Yuan X F, Huang B, Wang Y L, Yang C H, Gui W H. Deep learning-based feature representation and its application for soft sensor modeling with variable-wise weighted SAE. IEEE Transactions on Industrial Informatics, 2018, 14(7): 3235−3243 doi: 10.1109/TII.2018.2809730
    [21] Yuan X F, Zhou J, Huang B, Wang Y L, Yang C H, Gui W H. Hierarchical quality-relevant feature representation for soft sensor modeling: A novel deep learning strategy. IEEE Transactions on Industrial Informatics, 2019, 16(6): 3721−3730
    [22] Sohaib M, Kim J M. Reliable fault diagnosis of rotary machine bearings using a stacked sparse autoencoder-based deep neural network. Shock and Vibration, 2018, 2018: 1−11
    [23] Bengio Y. Learning deep architectures for AI. Foundations & Trends in Machine Learning, 2009, 2(1):1−127
    [24] Chen Z Y, Li W H. Multisensor feature fusion for bearing fault diagnosis using sparse autoencoder and deep belief network. IEEE Transactions on Instrumentation and Measurement, 2017, 66(7): 1693−1702 doi: 10.1109/TIM.2017.2669947
    [25] Lv F Y, Wen C L, Liu M Q, Bao Z J. Weighted time series fault diagnosis based on a stacked sparse autoencoder. Journal of Chemometrics, 2017, 31(9): e2912 doi: 10.1002/cem.2912
    [26] Long W, Gao L, Li X Y. A new deep transfer learning based on sparse auto-encoder for fault diagnosis. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2017, 49(1): 136−144
    [27] Vincent P, Larochelle H, Lajoie I, Bengio Y, Manzagol P A. Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion. Journal of Machine Learning Research, 2010, 11(12): 3371−3408
    [28] 刘国梁, 余建波. 知识堆叠降噪自编码器. 自动化学报, DOI: 10.16383/j.aas.c190375

    Liu Guo-Liang, Yu Jian-Bo. Knowledge-based stacked denoising autoencoder. Acta Automatica Sinica, DOI: 10.16383/j.aas.c190375
    [29] 邹筱瑜, 王福利, 常玉清, 郑伟. 基于两层分块GMM-PRS的流程工业过程运行状态评价. 自动化学报, 2019, 45(11): 2071−2081

    Zou Xiao-Yu, Wang Fu-Li, Chang Yu-Qing, Zheng Wei. Plant-wide process operating performance assessment based on two-level multi-block GMM-PRS. Acta Automatica Sinica, 2019, 45(11): 2071−2081
    [30] 王慧玲, 宋威, 王晨妮. 稀疏和标签约束半监督自动编码器的分类算法. 计算机应用研究, 2019, 36(9): 2613−2617

    Wang Hui-Ling, Song Wei, Wang Chen-Ni. Semi-supervised auto-encoder using sparse and label regularizations for classification. Application Research of Computers, 2019, 36(9): 2613−2617
    [31] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors. Cognitive Modeling, 1988, 5(3): 1
    [32] Miller P, Swanson R E, Heckler C E. Contribution plots: A missing link in multivariate quality control. Applied Mathematics and Computer Science, 1998, 8(4): 775−792
    [33] Yoon S, Mac Gregor J F. Fault diagnosis with multivariate statistical models part I: Using steady state fault signatures. Journal of Process Control, 2001, 11(4): 387−400 doi: 10.1016/S0959-1524(00)00008-1
    [34] 蒋立. 基于自编码器模型的非线性过程监测[博士学位论文], 浙江大学, 中国, 2018

    Jiang Li. Nonlinear Process Monitoring Based on Auto-encoder Model [Ph. D. dissertation], Zhejiang University, China, 2018
    [35] 褚菲, 赵旭, 代伟, 马小平, 王福利. 数据驱动的最优运行状态鲁棒评价方法及应用. 自动化学报, 2020, 46(3): 439−450

    Chu Fei, Zhao Xu, Dai Wei, Ma Xiao-Ping, Wang Fu-Li. Data-driven robust evaluation method and application for the optimal operating status. Acta Automatica Sinica, 2020, 46(3): 439−450
    [36] Meyer E J, Craig I K. The development of dynamic models for a dense medium separation circuit in coal beneficiation. Minerals Engineering, 2010, 23: 791−805 doi: 10.1016/j.mineng.2010.05.020
    [37] Zhang L J, Xia X H, Zhu B. A dual-loop control system for dense medium coal washing processes with sampled and delayed measurements. IEEE Transactions on Control Systems Technology, 2017, 25(6): 2211−2218 doi: 10.1109/TCST.2016.2640946
    [38] Liu Y, Chang Y Q, Wang F L, Ma R C, Zhang H L. Complex process operating optimality assessment and non-optimal cause identification using modified total kernel PLS. In: Proceedings of the 26th Chinese Control and Decision Conference. Changsha, China: IEEE, 2014. 1221−1227
  • 期刊类型引用(3)

    1. 郑文康,魏志晴,白艳萍,黄嘉俊,禹秀梅,谭秀辉,王鹏. 基于可分离替代函数算法的DOA估计方法. 陕西科技大学学报. 2024(01): 197-205 . 百度学术
    2. 罗军,张顺生. 联合自适应LASSO与块稀疏贝叶斯直接定位方法. 雷达科学与技术. 2024(03): 265-274 . 百度学术
    3. 杨静,韩丽东. 基于改进SSD算法的城市轨道交通多通道闸机控制研究. 计算机测量与控制. 2023(12): 160-166 . 百度学术

    其他类型引用(6)

  • 加载中
图(12) / 表(9)
计量
  • 文章访问数:  1540
  • HTML全文浏览量:  412
  • PDF下载量:  246
  • 被引次数: 9
出版历程
  • 收稿日期:  2020-06-29
  • 录用日期:  2020-11-18
  • 网络出版日期:  2021-01-16
  • 刊出日期:  2021-04-23

目录

/

返回文章
返回