2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于宽度混合森林回归的城市固废焚烧过程二噁英排放软测量

夏恒 汤健 崔璨麟 乔俊飞

陈俊英, 席月芸, 李朝阳. 多尺度局部特征和Transformer全局学习融合的发动机剩余寿命预测. 自动化学报, 2024, 50(9): 1818−1830 doi: 10.16383/j.aas.c230634
引用本文: 夏恒, 汤健, 崔璨麟, 乔俊飞. 基于宽度混合森林回归的城市固废焚烧过程二噁英排放软测量. 自动化学报, 2023, 49(2): 343−365 doi: 10.16383/j.aas.c220012
Chen Jun-Ying, Xi Yue-Yun, Li Zhao-Yang. Prediction of aeroengine remaining life by combining multi-scale local features and Transformer global learning. Acta Automatica Sinica, 2024, 50(9): 1818−1830 doi: 10.16383/j.aas.c230634
Citation: Xia Heng, Tang Jian, Cui Can-Lin, Qiao Jun-Fei. Soft sensing method of dioxin emission in municipal solid waste incineration process based on broad hybrid forest regression. Acta Automatica Sinica, 2023, 49(2): 343−365 doi: 10.16383/j.aas.c220012

基于宽度混合森林回归的城市固废焚烧过程二噁英排放软测量

doi: 10.16383/j.aas.c220012
基金项目: 国家自然科学基金(62073006, 62173120, 62021003), 北京市自然科学基金资助项目(4212032, 4192009), 科技创新2030 — “新一代人工智能”重大项目(2021ZD0112301, 2021ZD0112302)资助
详细信息
    作者简介:

    夏恒:北京工业大学信息学部博士研究生. 主要研究方向为小样本数据建模, 城市固废焚烧过程二噁英排放预测. E-mail: xiaheng@emails.bjut.edu.cn

    汤健:北京工业大学信息学部教授. 主要研究方向为小样本数据建模, 城市固废处理过程智能控制. 本文通信作者. E-mail: freeflytang@bjut.edu.cn

    崔璨麟:北京工业大学信息学部硕士研究生. 主要研究方向为城市固废焚烧过程风险预警. E-mail: cuicanlin @emails.bjut.edu.cn

    乔俊飞:北京工业大学信息学部教授. 主要研究方向为污水处理过程智能控制, 神经网络结构设计与优化. E-mail: junfeiq@bjut.edu.cn

Soft Sensing Method of Dioxin Emission in Municipal Solid Waste Incineration Process Based on Broad Hybrid Forest Regression

Funds: Supported by National Natural Science Foundation of China (62073006, 62173120, 62021003), Beijing Natural Science Foundation (4212032, 4192009), National Key Research and Development Program of China (2021ZD0112301, 2021ZD0112302)
More Information
    Author Bio:

    XIA Heng Ph.D. candidate at the Faculty of Information Technology, Beijing University of Technology. His research interest covers small sample data modeling and dioxin emission prediction of the municipal solid waste incineration process

    TANG Jian Professor at the Faculty of Information Technology, Bei-jing University of Technology. His research interest covers small sample data modeling and intelligent control of municipal solid waste treatment process. Corresponding author of this paper

    CUI Can-Lin Master student at the Faculty of Information Technology, Beijing University of Technology. His main research interest is risk warning of municipal solid waste incineration process

    QIAO Jun-Fei Professor at the Faculty of Information Technology, Beijing University of Technology. His research interest covers intelligent control of waste water treatment process and structure design & optimization of neural networks

  • 摘要: 二噁英是城市固废焚烧过程排放的痕量有机污染物. 受限于相关技术的复杂度和高成本, 二噁英排放浓度检测的大时滞已成为制约城市固废焚烧过程优化控制的关键因素之一. 虽然具有低成本、快响应、高精度等特点的数据驱动软测量模型能够有效解决上述问题, 但二噁英建模方法必须要契合数据的小样本、高维度特性. 对此, 提出了由特征映射层、潜在特征提取层、特征增强层和增量学习层组成的宽度混合森林回归软测量方法. 首先, 构建由随机森林和完全随机森林构成的混合森林组进行高维特征映射; 其次, 依据贡献率对全联接混合矩阵进行潜在特征提取, 采用信息度量准则保证潜在有价值信息的最大化传递和最小化冗余, 降低模型的复杂度和计算消耗; 然后, 基于所提取潜在信息训练特征增强层以增强特征表征能力; 最后, 通过增量式学习策略构建增量学习层后采用Moore-Penrose伪逆获得权重矩阵. 在基准数据集和城市固废焚烧过程二噁英数据集上的实验结果表明了方法的有效性和优越性.
  • 预测与健康管理系统(Prognostics and health management, PHM)对于保障航空发动机的安全性和可靠性有重要意义, 在许多工业领域中受到广泛关注[1]. PHM包括异常检测、故障诊断、剩余使用寿命预测等. 其中, 剩余使用寿命(Remaining useful life, RUL)预测作为PHM的主要任务之一, 旨在利用设备的运行状态信息揭示设备性能退化规律, 从而预测其有效剩余寿命. 在航空发动机领域, 剩余寿命预测尤为重要. 航空发动机的运行环境极其苛刻, 长期运行过程中, 由于疲劳、磨损、腐蚀等因素的影响, 发动机性能会逐渐退化, 最终可能导致故障和事故. 因此, 精确预测航空发动机的剩余寿命对于确保航空安全至关重要.

    目前发动机剩余使用寿命预测的主流方法主要有基于失效机理分析的方法、数据驱动的方法和两者融合的方法[2]. 基于失效机理分析的方法依赖于数学模型和经验知识[3], 这种方法易受到系统复杂性的影响. 随着传感器技术的进步, 数据驱动的方法逐渐成为主流, 这些方法利用收集到的大量实际运行数据, 通过机器学习算法来建立预测模型. 传统机器学习方法包括极限学习机[4]、支持向量机(Support vector machine, SVM)[5]、随机森林和梯度提升决策树[6]等. 尽管这些方法的训练较为容易, 但在特征提取方面常依赖于领域专家的先验知识来选择和提取与剩余寿命相关的特征. 同时特征工程和建立回归模型的过程相互独立, 限制了传统机器学习模型的性能.

    随着数据量的持续增长和算力的持续提升, 当代数据驱动方法逐渐摒弃了传统的人工特征提取与机器学习相结合的方式, 转而采用深度学习技术实现自动特征提取和分类、回归等任务. 其中, 递归神经网络(Recurrent neural network, RNN)和长短期记忆(Long short-term memory, LSTM)深度学习模型专门用于捕获和建模时间序列数据中的时间依赖性. 它们擅长保留过去的信息并将其传播到后续步骤, 增强对序列中模式的理解和预测. Zheng等[7]介绍了一种基于LSTM的RUL估计方法, 利用传感器序列信息揭示传感器数据中隐藏的模式. Huang等[8]采用了双向LSTM网络来预测系统的剩余寿命. YU等[9]提出了一种基于双向RNN和自编码器的相似曲线匹配方法来估计机械系统的RUL, 目的是提高RUL估计的鲁棒性和准确性. Liu等[10]提出了一种结合聚类分析和LSTM的航空发动机RUL预测模型. 尽管RNN和LSTM在处理时间序列数据方面表现出色, 但它们面临着并行化的挑战和处理长序列困难等局限性.

    许多研究尝试利用深度卷积神经网络(Deep convolutional neural networks, DCNN)的高度并行计算和局部特征提取能力来处理时间序列数据. Li等[11]引入了一种使用DCNN进行预测的新型数据驱动方法. 原始收集的数据经过标准化处理后, 直接输入到DCNN, 不需要事先具备预测或信号处理方面的专业知识. Yang等[12]提出了一种基于两个卷积神经网络的RUL预测方法, 一个作为监测初始性能退化的分类网络, 另一个作为预测剩余寿命的网络. Li等[13]提出了一种基于多传感器数据的集成深度多尺度特征融合网络(Integrated deep multi-scale feature fusion network, IDMFFN). 使用不同大小的卷积滤波器来学习不同尺度的特征, 然后将这些多尺度特征进行连接, 并利用基于门控循环单元(Gated recurrent unit, GRU)的高级特征融合块进行RUL预测. 尽管CNNs在某些方面具有优势, 但在时序任务中仍存在一定的局限性, 因为它们倾向于专注局部特征提取, 这对需要考虑全局依赖关系的时间预测任务而言是不够的.

    为了结合LSTM的时间建模能力和CNN的空间特征提取能力, Al-Dulaimi等[14]提出了一种用于RUL估计的混合深度神经网络模型(Hybrid deep neural network, HDNN). 该深度学习模型将LSTM和CNN并行集成, 利用LSTM路径提取时间特征, 同时利用CNN提取空间特征. 在C-MAPSS (Commercial modular aero-propulsion system simulation)数据集[15]上验证了该模型的优越性. Ayodeji等[16]提出利用扩展卷积来扩大感受野, 增强时间序列的全局特征提取. 然后采用增强的LSTM网络捕获长期依赖关系, 并进一步提取代表不同操作条件的多尺度特征. Li等[17]提出了一种基于卷积块注意模块(Convolutional block attention module, CBAM)的改进CNN-LSTM模型. 利用多层CNN提取飞机发动机运行数据的特征, 然后利用CBAM处理通道和空间维度上的注意机制, 识别与RUL相关的关键变量. 最后, LSTM学习特征和服务时间之间的隐藏关系, 进而实现预测. 这些CNN-LSTM融合模型在捕捉发动机数据中的复杂模式方面, 相较于单独的CNN或LSTM模型, 表现出了明显的优势.

    注意力机制的引入使得深度学习模型能够有效地专注于RUL预测任务的重要数据特征, 从而提高航空发动机预测的准确性. Liu等[18]直接将特征注意机制应用于输入数据, 在训练过程中为更重要的特征动态分配更大的注意权值. 随后, 采用双向门控循环单元(Bidirectional gated recurrent units, BGRU)从加权输入数据中提取长期依赖关系, CNN从BGRU的输出序列中捕获局部特征. 最后, 全连接网络用于特征抽象表示和预测剩余寿命. Xu等[19]提出了一种并行的一维CNN和池化层来从多个信号中提取和融合特征. Zhang等[20]引入了一种具有时间自注意机制的双向GRU (Bidirectional gated recurrent unit-temporal self attention mechanism, BiGRU-TSAM)用于RUL预测, 每个时间步根据其重要性被分配一个自学习权值. Wang等[21]提出了一种完全基于注意机制的模型, 利用多头自注意力提取时间序列之间的依赖关系. Xu等[22]将全局注意与自注意机制和时间卷积网络(Temporal convolutional network, TCN)相结合, 提出了一种端到端的深度学习RUL预测方法. Zhao等[23]提出了一种多尺度集成深度自注意网络(Multi scale integrated deep self network, MSIDSN), 该网络使用多尺度块结合自注意策略在不同尺度上选择性地提取特征. RNN模块用于提取退化特征, 然后融合这些特征以准确预测飞机发动机的剩余寿命. Zhu等[24]提出了一种旋转机械剩余寿命预测方法, 该方法使用具有自注意机制的残差混合网络构建健康指标. 为了解决长序列预测任务中提取局部和全局特征的挑战, Li等[25]提出了一种多任务时空增强网络(Multi task spatio-temporal augmented net, MTSTAN). 该算法利用通道关注机制增强不同传感器数据的局部特征, 采用带跳跃连接的因果增强卷积网络实现时间序列上的全局特征提取. 实验结果表明, 增强局部和全局时间序列特征能有效提高预测精度. Zhang等[26]提出了一种基于注意力机制的时间卷积网络(Attention based temporal convolutional network, ATCN) 用于剩余寿命预测. 采用了改进的自注意机制对不同时间步的输入特征进行加权, 同时使用时间卷积网络捕捉长期依赖关系并基于加权特征提取特征表示.

    随着研究的深入, 学者们开始探索更为复杂和高效的时间序列预测方法. Transformer架构作为一种自注意力机制模型, 最初是为自然语言处理任务设计的[27], 已经有效扩展到时间序列数据[2829]的处理. Zerveas等[30]利用Transformer的多头注意机制同时考虑来自多个时间步长的上下文信息, 使模型能够学习不同的注意模式, 以改进对多变量时间序列数据的处理. Li等[31]观察到Transformer架构的点积自注意机制存在局限, 特别是其对局部上下文的敏感性不足. 为了解决这个问题, 提出了卷积自注意机制, 引入查询和键来更好地将局部上下文融入注意机制. 进一步开发了LogSparse Transformer, 以提高对具有细粒度和强烈长期依赖性的时间序列的预测精度. 认识到Transformer在局部特征提取方面存在局限性, Mo等[32]将Transformer编码器作为预测模型的核心, 以捕捉时间序列中的短期和长期依赖关系. 通过引入门控卷积单元增强模型在每个时间步中融入局部上下文的能力. 这些改进旨在增强模型捕捉全局依赖性和复杂局部特征的能力, 使其更适用于时间序列数据建模. Guo等[33]提出了一种在飞机发动机中进行RUL预测的新方法. 使用一维卷积网络设计了一个具有沙漏形状结构的多尺度特征提取器. 随后, 使用一个增加了金字塔注意机制的Transformer编码器和解码器, 进一步从融合的多尺度特征中提取特征进行RUL预测. 这种方法旨在充分发挥卷积和Transformer架构的优势, 更有效地进行RUL预测中的特征提取.

    为了解决Transformer在应用于时间序列数据时局部特征提取的局限性, 提出了一种新颖的预测模型, 命名为MS_Transformer. 该模型将多尺度局部特征增强单元与Transformer编码器结合, 以有效捕捉数据中的局部和全局依赖关系. 多尺度局部特征增强单元通过堆叠多个因果卷积层组合不同时间尺度的特征. 通过考虑各个尺度的时间上下文, 增强了更具信息性的特征表示的整合. 因果卷积用于从时间序列中提取局部特征, 确保卷积核的感知域仅覆盖过去的时间步, 防止未来数据泄露. 与此同时, Transformer编码器利用注意机制同时处理整个数据序列. 这使得模型能够捕捉时间序列中的长期依赖关系, 提供对时间模式的全面理解. 在四个广泛使用的基准数据集上进行了大量实验, 验证了MS_Transformer方法的有效性和鲁棒性.

    本文的主要工作有以下几点:

    1) 设计了一个多尺度局部特征增强单元, 用于在多个尺度上提取特征. 该单元增强了模型描述局部特征的能力, 使其能够捕捉不同粒度级别的信息. 在局部特征提取过程中采用了因果卷积操作, 确保模型仅依赖于历史数据进行预测, 解决了潜在的未来数据泄漏问题.

    2) 提出了一种用于预测飞机发动机剩余寿命的预测模型. 该模型巧妙地融合了多尺度局部特征与Transformer全局学习的优势, 从而能更全面地捕捉数据中细粒度局部细节与全局模式.

    3) 在C-MAPSS基准数据集上进行了大量的消融和预测实验, 验证了MS_Transformer模型的合理性和有效性, 展示了其准确预测RUL的能力.

    本文提出的MS_Transformer剩余寿命预测模型的结构如图1所示, 主要包括多尺度局部特征增强单元(MSLFU_BLOCK)、Transformer 编码器和全连接输出层. 表征发动机状态的传感器监测数据通过数据归一化等预处理, 采用滑动窗口方法提取时间窗数据, 输入到MSLFU_BLOCK提取时间序列数据中的局部特征模式. MSLFU_BLOCK采用因果卷积逐层提取多尺度局部信息, 确保模型仅使用历史数据而不会利用未来数据, 克服以往单一尺度固定窗口的局限性并获得多尺度信息的建模能力. 将Transformer编码器作为骨干网络进一步捕捉时间序列中的短期和长期依赖关系, 以提高模型的预测性能. 全连接输出层将Transformer编码器学习到的特征映射成输出预测值. 接下来将详细描述每个模块的结构和作用.

    图 1  MS_Transformer剩余寿命预测模型结构图
    Fig. 1  Architecture of the MS_Transformer remaining life prediction model

    时间序列数据具有严格的时间顺序性, 其中每个数据点的前后顺序对于了解其因果关系至关重要. 传统卷积并未针对时间顺序进行优化, 其卷积核可以访问时间序列中未来的数据点, 导致未来数据泄漏问题. 为了避免模型从未来的数据点中获取信息进而给出不合理的预测, 本文采用因果卷积来处理时序数据, 即限制卷积核只能访问过去的数据点, 从而确保模型在建模时间序列时不会依赖未来数据. 两种卷积运算过程示意图如图2所示. 图中Input为输入时间序列层, Hidden layer对输入层进行一次卷积运算, Output层对Hidden layer的输出又进行一次卷积, 可以看到Hidden layer和Output层的输出对应于不同感受野、不同时间尺度的特征. 右图示意的因果卷积只使用历史数据, 而左图示意的传统卷积用到了未来数据. 假设输入序列为X, 卷积核为h, 使用一次因果卷积后的输出可表示为式(1).

    图 2  传统卷积与因果卷积示意图
    Fig. 2  Diagrams of traditional convolution and causal convolution
    $$ \boldsymbol{y}_t=(\boldsymbol{X}*\boldsymbol{h})_t=\sum\limits_{i=0}^{k-1}\boldsymbol{h}_i\times\boldsymbol{X}_{t-i} $$ (1)

    其中, $* $表示卷积运算. $ {\boldsymbol{y}}_{t} $表示输出序列的第t个元素. $ {\boldsymbol{X}}_{t-i} $表示输入序列的第$t-i $个元素, $i $取值从0到$k-1 $, k表示卷积核的大小, $ {\boldsymbol{h}}_{i} $表示卷积核的第i个权重. 如不考虑批大小, ${\boldsymbol{X}}$的维度为[window_length, feature_size], 卷积核${\boldsymbol{h}}$的维度为[d, feature_size, k], 输出${\boldsymbol{y}}$的维度为[window_length, d], 其中window_length为时间序列窗口长度, feature_size为传感器的特征数, d是Transformer encoder的编码长度. 在边缘位置进行适当填充, 保证输出和输入维度一致. 随着神经网络的深度增加, 因果卷积神经网络中的每一层会逐渐扩大其感受野, 以更全面地捕捉来自前一层神经元的历史信息. 在图2所示的因果卷积神经网络中, 通过堆叠2个卷积核大小为3的因果卷积层来构建. 经过2次卷积操作后, 输出将包含一个感受野跨度为5的历史信息范围.

    传统的卷积操作擅长提取图像等类型数据的局部信息, 对于时间序列数据处理的适应性较差. 为了从时间序列数据中提取局部特征, 本文引入了一维因果卷积以捕捉相邻时间点之间的相关局部模式, 通过多层因果卷积获得不同时间尺度的特征. 进一步将这些特征组合起来得到多尺度局部特征描述, 这一处理模块被称为多尺度局部特征增强单元(MSLFU_BLOCK). MSLFU_BLOCK的原理示意图如图3所示, 展开的卷积示意图如图3(a)所示, 上一层的输出用作下一层的输入, 不同因果卷积层提取了不同的时间尺度特征. 将每层提取的特征相加作为MSLFU_BLOCK的输出. 具体的运算过程如图3(b)所示, 其中Conv1表示因果卷积运算, Chomp模块通过零填充的方法实现输出序列与输入序列的长度相同.

    图 3  多尺度局部特征增强单元示意图
    Fig. 3  Diagrams of multi-scale local feature enhancement unit

    最终, MSLFU_BLOCK的输出$ {\boldsymbol{O}}^{(1)} $是对应卷积结果$ {\boldsymbol{Out}}_{1} $到$ {\boldsymbol{Out}}_{n} $的累加, 并加上输入${\boldsymbol{X}}$, 计算过程表示为式(2).

    $$ \boldsymbol{O}^{(1)}=\boldsymbol{X}+\sum_{i=1}^n\boldsymbol{Out}_i $$ (2)

    综上所述, 多尺度局部特征增强单元结合了一维因果卷积和层次结构的设计, 用于处理时间序列建模任务, 能够捕捉时间模式的局部相关性. 它具有三个显著特点: 1) 输出包含了时间序列的多尺度局部特征; 2) 确保不会有未来数据泄露问题; 3) 可接受任意长度的时间序列作为输入, 在映射至下一层时保持输出序列与输入序列长度相同.

    在本研究中, 使用Transformer编码器对多尺度局部特征增强单元提取的特征进行进一步处理. 编码器由N个相同的Block组成, 如图1所示.

    1.4.1   位置编码

    Transformer编码器模型引入了位置编码${\boldsymbol{P}}$, 将序列中的时间先后信息融入到模型中. 位置编码是一个与输入序列维度相同的矩阵. 通过将位置编码与MSLFU_BLOCK的输出相加, 模型能够学习到序列中不同位置的相对关系. $ {\boldsymbol{P}}$中的元素使用式(3)和(4)计算.

    $$ \boldsymbol{P}_{(i,2s)}=\sin\left(\frac{i}{10000^{2s/d}}\right) $$ (3)
    $$ \boldsymbol{P}_{(i,2s+1)}=\cos\left(\frac{i}{10000^{2s/d}}\right) $$ (4)

    其中, $ i $表示序列中的位置, 从1开始递增. $ s $表示维度的索引, 从0开始递增. $ d $是MSLFU_BLOCK输出的特征维度.

    1.4.2   多头注意力

    在多头注意力中, MSLFU_BLOCK的输出和位置编码叠加后的序列通过多个独立的注意力头将特征映射到不同的子空间, 每个头都学习不同的关注权重, 以捕捉时间序列中不同的关系和特征. 每个注意力头的核心是自注意力机制(Self-attention), 此时输入$ {\boldsymbol{Z}} $为$ {\boldsymbol{O}}^{(1)} $+$ {\boldsymbol{P}} $, 输入分别乘以第j个头查询、键和值的权重矩阵$ {\boldsymbol{W}}_{j}^{q} $, $ {\boldsymbol{W}}_{j}^{k} $, $ {\boldsymbol{W}}_{j}^{v} \in {\bf{R}}^d $得到相应的$ {\boldsymbol{Q}}_{j} $, $ {\boldsymbol{K}}_{j} $, $ {\boldsymbol{V}}_{j} $, 计算如式(5) ~ (7) 所示.

    $$ {\boldsymbol{K}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^k $$ (5)
    $$ {\boldsymbol{V}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^v $$ (6)
    $$ {\boldsymbol{Q}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^q $$ (7)

    然后引入缩放的点积注意力机制, 计算如式(8) 所示.

    $$ {\rm{Attention}}\left({\boldsymbol{Q}}_j,\; {\boldsymbol{K}}_j,\; {\boldsymbol{V}}_j\right)={\rm{softmax}}\left(\frac{{\boldsymbol{Q}}_j {\boldsymbol{K}}_j^{{\rm{T}}}}{\sqrt{d_k}}\right) {\boldsymbol{V}}_j $$ (8)

    其中, $ d_k $是查询和键向量的维度.

    多个注意力头将输入映射到不同的子空间进行自注意力机制运算, 输出被合并得到最终的多头注意力输出. 最终多头注意力的输出可表示为式(9).

    $$ \begin{split} &{\rm{MultiHead }}({\boldsymbol{Q}},\;{\boldsymbol{K}},\; {\boldsymbol{V}})=\\ &\qquad{\rm{Concat}}\left(\left\{{\rm{head }}_j\right\}_{j=1}^H\right) {\boldsymbol{W}}^{\circ} \end{split} $$ (9)

    其中, $ {\rm{head}}_j \;=\; {\rm{Attention}}({\boldsymbol{Q}}_j,\;\; {\boldsymbol{K}}_j,\;\; {\boldsymbol{V}}_j),\;\; {\boldsymbol{W}}^{\circ}\;\; \in {\bf{R}}^{Hd_k \times d} $, H为注意力头个数, $ d_k=d/H $.

    1.4.3   前馈网络部分

    前馈网络是Transformer模型中的另一个重要组件, 由两个线性变换单元和一个非线性激活函数(通常是ReLU) 组成. 其输入${\boldsymbol{R}}$为LayerNorm($ {\boldsymbol{Z}} $+ MultiHead($ {\boldsymbol{Q}} $, $ {\boldsymbol{K}} $, $ {\boldsymbol{V}} $)), LayerNorm表示层归一化操作. 前馈网络的计算过程可通过式(10) 来表示.

    $$ {\rm{FFN}}({\boldsymbol{R}})={\boldsymbol{W}}_2 \cdot {\rm{ReLU}}\left({\boldsymbol{W}}_1 {\boldsymbol{R}}+b_1\right)+b_2 $$ (10)

    其中, $ {\boldsymbol{W}}_1 $和$ {\boldsymbol{W}}_2 $为权值矩阵, $ b_1 $和$ b_2 $为偏置向量. 再经过残差连接和层归一化后的输出$ {\boldsymbol{O}}^{(2)} $为式(11).

    $$ {\boldsymbol{O}}^{(2)}={\rm{LayerNorm }}({\boldsymbol{R}}+{\rm{FFN }}({\boldsymbol{R}})) $$ (11)

    最后通过全连接层将Transformer编码后的特征向量映射成RUL估计值. 此时, 经过$ N $个BLOCK编码器的输出表示为$ {\boldsymbol{O}}^{(2 N)} $, $ {\boldsymbol{O}}^{(2 N)} \in {\bf{R}}^{d} $. 则全连接层的输出可通过式(12)表示.

    $$ y={\rm{Sigmoid}}\left({\boldsymbol{W}}_0{\boldsymbol{O}}^{(2 N)}+b_0\right) $$ (12)

    其中, $ y $是输入序列的RUL估计值, 应用Sigmoid函数将模型的输出限定在0和1之间, $ {\boldsymbol{W}}_{0} $和$b_{0} $是需要优化的参数. 此时得到的RUL值乘以125实现反归一化, 即变换到原空间评估其预测性能.

    本节对提出的MS_Transformer模型在C-MAPSS基准数据集上的性能进行全面评估. 随后, 将详细介绍数据预处理步骤、使用的评估指标、参数设置、消融实验的设计, 以及与先进方法的比较结果. 所有实验均在一台配备了Intel(R) Core(TM) i5-1035G1 CPU (4核处理器) 和NVIDIA GeForce MX350显卡的计算机上进行. 使用PyTorch框架进行模型的训练和测试. 损失函数采用了预测RUL值与实际值之间的均方误差.

    实验数据来源于NASA的C-MAPSS[15]航空发动机仿真模型. 该数据集由美国国家航空航天局提供, 且被广泛用于验证工业剩余寿命预测模型性能的研究. 该数据集包含FD001、FD002、FD003和FD004四个不同的子集, 各个子集的参数设置和操作条件有所不同, 模拟了发动机在不同情况下的性能和健康状态, 以便评估RUL预测模型在各种挑战条件下的性能, 其相关参数如表1所示.

    表 1  C-MAPSS数据集的属性
    Table 1  Attributes of the C-MAPSS dataset
    参数 FD001 FD002 FD003 FD004
    训练集中发动机个数 100 260 100 249
    测试集中发动机个数 100 259 100 248
    操作条件 1 6 1 6
    错误模式 1 1 2 2
    训练集大小 20632 53760 24721 61250
    测试集大小 13097 33992 16597 41215
    下载: 导出CSV 
    | 显示表格

    每个子集由训练集和测试集组成, 其中训练集记录了航空发动机的多个状态参数从正常到故障的完整周期内每个时间序列的采样值; 测试集则包含了故障前某一时间点之前的状态参数值以及对应的剩余寿命. 属性包含发动机编号、循环次数、操作条件和21个传感器测量数据, 共计26个数据字段. 以FD001子集为例, 传感器1、5、6、10、16、18和19的测量值在整个使用寿命期间都保持恒定, 因此它们不提供有关RUL预测的有用的退化信息. 最终选择了与发动机剩余寿命相关的14个传感器特征作为预测输入, 包括低压压气机出口总温、高压压气机出口总温、低压涡轮出口总温、高压压气机出口总压、风扇物理转速、核心机物理转速、高压压气机出口静压、燃油流量与高压压气机出口总压比值、风扇换算转速、涵道比、引气焓值、高压涡轮冷却引气流量、低压涡轮冷却引气流量和使用周期. 其他三个数据集采用相同的特征选择方法.

    用于预测建模的14个传感器数据均采用最大最小归一化方法. 这种处理有助于后续的数据操作和网络训练过程收敛. 在实验中, 分别在四个数据集(FD001、FD002、FD003和FD004) 中随机选择一个发动机, 并将其监测参数值的变化曲线展示在图4中. 从图中可以看出, 不同数据集中的发动机状态参数的变化趋势各异, 因此在这些参数上建立统一的预测模型是一项具有挑战性的任务.

    图 4  状态参数变化曲线示意图
    Fig. 4  Illustration of state parameter variation curve

    考虑到发动机初期性能较为稳定, 退化趋势不明显, 运行一段时间后发生退化. 据此, 使用分段线性回归模型, 如Zheng等[7]将设备的剩余寿命划分为常数阶段和线性递减阶段. 根据目前已有的研究成果, 其中常数阶段的剩余寿命值设置为125.

    为了评价预测性能, 使用发动机剩余寿命预测和回归算法评价中常用的惩罚得分和均方根误差(Root mean square error, RMSE)指标.

    RMSE表示预测值和真实值之间残差的样本标准差, 用于衡量预测结果的离散程度, 其计算如式(13)所示.

    $$ R M S E=\sqrt{\frac{1}{\left|D_{{\rm{test }}}\right|} \sum\limits_{x_i \in D_{{\rm{test }}}}\left(y_i-\hat{y}_i\right)^2} $$ (13)

    其中, $y_i $为第$i $个测试发动机$x_i $对应的真实寿命, $ \hat{y}_i $为对应的预测寿命, $ D_{\rm{test}} $表示测试集, $ |D_{\rm{test}}| $为测试样本个数. 将发动机剩余寿命预测误差定义为 $ \Delta y_i= \hat{y}_i-y_i $. 根据预测误差的大小, 将预测结果分为提前预测、滞后预测和准确预测3种, 当$ \Delta y_i< -13 $时对应于提前预测, 当$ \Delta y_i> 10 $时对应于滞后预测, 当$ -13 \leq \Delta y_i \leq 10 $时对应于准确预测. 考虑到滞后预测比提前预测带来的后果更为严重, 惩罚得分Score指标对滞后预测进行了惩罚, 其计算方法如式(14)所示.

    $$ {{Score }}=\left\{\begin{aligned} &\sum\limits_{i=1}^{\left|D_{{\rm{test }}}\right|} {\rm{e}}^{-\left(\frac{\Delta y_i}{13}\right)}-1,&& \Delta y_i<0 \\ &\sum\limits_{i=1}^{|D_{{\rm{test }}} \mid} {\rm{e}}^{\left(\frac{\Delta y_i}{10}\right)}-1,&& \Delta y_i \geq 0 \end{aligned}\right. $$ (14)

    在训练过程中, 为了展示所提模型的适应性, 在四个数据集上均采用统一的参数设置: 批量大小(Batch size) 为8, 学习率(Learning rate) 为0.002, 训练周期(Training epoch) 为30, 丢失率(Dropout rate) 为0.01, 时间窗口大小(Time window size) 为60, 编码器层数为1, 因果卷积层数为2. 对于长度小于60的发动机记录, 采用线性插值方法对时间序列进行扩展, 使其满足所提模型最小输入长度为60的需求.

    以下从两个方面测试所提预测模型在C-MAPSS数据集上的性能.

    1) 评估整个测试集上所有发动机的RUL预测性能

    首先, 使用训练好的MS_Transformer模型在C-MAPSS四个测试集上进行了RUL预测. 为了更好地观察预测结果, 将发动机编号按照剩余寿命递减的顺序重新排列, 图5展示了模型的预测结果与实际RUL之间的对比. 横轴表示重新排序后的发动机测试样本编号, 纵轴表示RUL值.

    图 5  测试集上预测值与真实值对比图
    Fig. 5  Comparison of predicted values and ground truth on the test set

    图5可以看出, 模型的RUL预测值与实际RUL在大多数情况下具有一致性. 这表明模型对于RUL的趋势有着良好的捕捉能力.

    基于上述实验所用的计算资源, 本文所提方法在FD001 ~ FD004四个数据集上的训练时间分别为0.51 h、2.97 h、0.67 h和3.69 h. 同时, 在四个数据集上的平均预测时间(包括数据预处理时间) 为32 ms. 对于发动机寿命预测这类实时性要求不高的应用场景, 预测时间完全满足需求.

    2) 在单个发动机的全测试谱上评估模型

    除了用上述评估方法验证模型性能外, 还对模型在不同数据库不同操作条件下的发动机全测试谱上的性能进行评估. 图6(a) ~ 6(d)展示了从测试数据集中随机选择的发动机的模型预测性能, 其中“Predicted RUL”表示模型的预测结果, 而“Actual RUL”则表示C-MAPSS提供的真实RUL值. 目的是验证模型在整个发动机使用寿命期间的预测表现, 更全面地考察模型在不同数据情境下的可靠性和泛化能力.

    图 6  发动机剩余使用寿命全周期预测评估
    Fig. 6  Full lifecycle predictive evaluation of engine remaining useful life

    图6(a) ~ 6(d)中可以观察到, 在分段线性近似方法的早期寿命值设置为恒定值时, 模型预测值也比较平稳; 当发动机的剩余使用寿命出现下降趋势时, 模型的预测结果也趋于下降; 直观上验证了预测模型的有效性. 在发动机寿命由恒定值转变为线性下降时, 预测值存在一定的偏差. 然而, 随着发动机寿命的递减, 可以观察到模型的RUL估计逐渐改善, 这一趋势在曲线尾部更为显著. 这是因为随着发动机接近寿命终点, 退化特征更为显著, 模型能够更准确地捕捉数据的模式, 从而实现更准确的预测结果, 这一结果符合当发动机剩余使用寿命越短时期望预测结果越准确的需求.

    为了对所提方法进行定量评估, 选择了13种先进的深度学习方法进行对比实验, RMSE和Score指标值如表2所示. 通过对比实验结果可以看出, 在较复杂的FD002和FD004数据集上, MS_Transformer方法取得了最佳性能, 这表明MS_Transformer针对复杂数据的建模能力较强. 而且, 在四个数据集上的RMSE和Score的平均值也表现出最佳. 与之前最先进方法MHT相比, 该方法将卷积和Transformer架构的优势结合起来, 以增强在RUL预测中的特征提取能力, MS_Transformer将RMSE指标降低了7.04%, 在Score指标上降低了20.63%. 所提出的MS_Transformer模型与GCU_Transformer模型均以Transformer的编码器作为主干网络, 在FD002数据集上, MS_Transformer对应的RMSE降低了47.48%; 在FD004数据集上, RMSE降低了41.79%. GCU_Transformer模型在FD001和FD003数据集上采用了和FD002和FD004数据集不同的超参数设置, 而MS_Transformer模型在四个数据集上采用了相同的超参数设置. MS_Transformer模型相比GCU_Transformer模型在FD001和FD003数据集上的RMSE分别增加了4.61%和4.64%, 但在四个数据集上的平均RMSE降低了28.65%, 结果说明了MS_Transformer模型采用的局部特征增强单元更有效.

    表 2  与先进方法相比较
    Table 2  Comparison with state-of-the-art methods
    方法 FD001 FD002 FD003 FD004 Average
    RMSE Score RMSE Score RMSE Score RMSE Score RMSE Score
    LSTM (2017)[7] 16.14 338.00 24.49 1718.00 16.18 852.00 28.17 2238.00 21.25 1286.50
    DCNN (2018)[11] 12.61 274.00 22.36 4020.00 12.64 284.00 23.31 5027.00 17.73 2401.25
    HDNN (2019)[14] 13.02 245.00 15.24 1282.42 12.22 287.72 18.16 1527.42 14.66 835.64
    AGCNN (2021)[18] 12.42 225.51 19.43 1492.00 13.39 227.09 21.50 3392.00 16.68 1334.15
    GCU_Transformer (2021)[32] 11.27 22.81 11.42 24.86 17.59
    BiGRU-TSAM (2022)[20] 12.56 213.35 18.94 2264.13 12.45 232.86 20.47 3610.34 16.10 1580.17
    IDMFFN (2022)[13] 12.18 204.69 19.17 1819.42 11.89 205.54 21.72 3338.84 16.24 1392.12
    MTSTAN (2023)[24] 10.97 175.36 16.81 1154.36 10.90 188.22 18.85 1446.29 14.38 741.06
    Encoder-Attention (2023)[21] 10.35 183.75 15.82 1008.08 11.34 219.63 17.35 1751.23 13.72 790.67
    MSIDSN (2023)[23] 11.74 205.55 18.26 2046.65 12.04 196.42 22.48 2910.73 16.13 1339.83
    ATCN (2024)[26] 11.48 194.25 15.82 1210.57 11.34 249.19 17.80 1934.86 14.11 897.22
    MHT (2024)[33] 11.92 215.20 13.70 746.70 10.63 150.50 17.73 1572.00 13.50 671.10
    MachNet (2024)[34] 11.04 176.82 24.52 3326.00 10.59 161.26 28.86 5916.00 18.75 2395.02
    Ours 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 12.55 532.67
    下载: 导出CSV 
    | 显示表格

    实验结果表明, 该方法在更为复杂的FD002和FD004数据集上取得了最优的性能. 然而, 在操作条件简单的FD001和FD003数据集上, 其性能没有达到最佳水平. 这表明, 所提出的方法更适合复杂操作条件的发动机剩余寿命预测任务.

    消融实验的结果汇总于表3中. 本预测模型MS_Transformer主要由三个关键组件构成: 多尺度局部特征增强单元(MSLFU_BLOCK)、Transformer编码器和具有Sigmoid函数映射的输出层. 在本节中, 为深入探究多尺度局部特征增强单元在模型中所起的关键作用, 从MS_Transformer架构中剔除了MSLFU_BLOCK部分, 相应的模型表示为MS_Transformer (w/o MS). 在此基础上, 进一步移除了输出层中的Sigmoid函数, 并将改动后的模型记为MS_Transformer (w/o s & MS). 另外, 为了评估因果卷积的实际效能, 以常规卷积代替因果卷积, 并将对应的模型表示为MS (CNN)_Transformer.

    表 3  消融实验结果
    Table 3  Results of ablation experiment
    方法 FD001 FD002 FD003 FD004
    RMSE Score RMSE Score RMSE Score RMSE Score
    MS_Transformer 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38
    MS (CNN) _Transformer 12.82 254.36 13.72 1098.09 13.80 325.05 15.93 1372.87
    MS_Transformer (w/o MS) 13.20 275.59 15.78 1430.90 14.45 445.51 18.48 1754.22
    MS_Transformer (w/o s & MS) 13.91 298.18 15.91 1497.41 16.10 552.61 19.03 1992.69
    下载: 导出CSV 
    | 显示表格

    表3中可以看出, 在所有数据集上, 相比去除多尺度局部特征提取模块的模型, MS_Transformer模型具有更低的RMSE值和Score值, 这表明多尺度局部特征提取模块能够有效地提高模型对数据的拟合度, 减少了预测误差, 提高了预测的准确性和稳定性. 值得注意的是, 当在MS_Transformer (w/o MS) 模型中加入多尺度局部特征提取模块后, 模型在四个数据集上的性能提升幅度并不相同. 具体来说, RMSE指标在四个数据集上分别下降了10.68%、24.08%、17.30%和21.70%. 这暗示了不同数据集的局部特征对于模型性能提升的影响不同. 数据集的不同特性导致多尺度局部特征提取模块的作用程度有所不同, 但每个数据集上均能较大幅度地提高模型性能. 这些实验结果证实了多尺度局部特征提取模块在提升模型性能方面的关键作用, 以及其在不同数据集上的较好适用性.

    通过将多尺度局部特征提取模块中的因果卷积替换为常规卷积, 即采用常规卷积代替因果卷积的方法MS (CNN)_Transformer, 并未带来预测性能的提升. 相反, 在所有数据集上, 相较于MS_Transformer模型, MS (CNN)_Transformer模型的RMSE和Score值均有所上升, 表明预测精度下降. 这一结果说明了因果卷积在多尺度局部特征提取模块中的有效性. 这可能是因为因果卷积在处理时间序列数据时, 更能有效地保持时间顺序信息的完整性, 从而帮助模型更精确地捕捉数据中的局部时间上下文特征. 通常, 常规卷积在处理时间序列数据时可能引发未来信息的泄露, 进而对模型的性能产生不利影响.

    MS_Tranformer (w/o s & MS)模型在四个数据集上的RMSE和Score指标值均出现了不同程度的增加, 这也证实了Sigmoid缩放在RUL估计中的有效性.

    2.7.1   滑动窗口长度

    表4给出了不同滑动窗口长度对应的性能评价指标值. 对于时间序列数据集, 窗口长度是深度学习模型所必需的重要参数, 它直接影响着模型的预测精度. 然而, 目前尚缺乏确定最佳窗口长度的明确标准. 因此, 本研究根据最近相关文献的实验结果尝试了一系列窗口长度值($L $ = 30、40、50、60、70). 如表4所示, 当窗口长度从30增加到60, 四个数据集上的RMSE值整体上都降低了. 同时, 除了FD001数据集窗口长度从30到50和FD003数据集窗口长度为40的情况外, Score指标也主要呈现下降趋势. 然而, 当进一步将窗口长度增加到70时, 可以观察到FD002和FD004数据集的性能略有改善, 而FD001和FD003数据集上的预测性能明显下降. 考虑到模型的性能、计算资源的利用率以及对数据记录长度的需求, 选择窗口长度为60.

    表 4  不同窗口长度对应的预测指标值
    Table 4  Predictive metric values corresponding to different window lengths
    滑动窗口长度 FD001 FD002 FD003 FD004
    RMSE Score RMSE Score RMSE Score RMSE Score
    $L=30 $ 12.89 264.78 14.38 1011.04 13.73 279.99 17.20 1858.13
    $L=40 $ 12.67 268.07 13.42 854.88 12.21 213.13 16.74 1676.82
    $L=50 $ 11.93 212.96 12.94 724.12 12.31 255.20 15.56 1375.81
    $L=60 $ 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38
    $L=70 $ 12.23 242.86 11.75 587.67 12.59 266.96 14.26 1093.49
    下载: 导出CSV 
    | 显示表格
    2.7.2   MSLFU_BLOCK中因果卷积层数

    本实验探究了在相同的Transformer编码器下, MSLFU_BLOCK中因果卷积的层数对预测性能的影响, 表5给出了不同层数对应的预测指标值.

    表 5  不同因果卷积层数对应的预测指标值
    Table 5  Predictive metric values corresponding to different numbers of causal convolution layers
    因果卷积层数 FD001 FD002 FD003 FD004
    RMSE Score RMSE Score RMSE Score RMSE Score
    1 12.28 270.33 12.64 749.42 12.60 278.99 16.31 1887.34
    2 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38
    3 13.02 270.33 14.98 1225.98 14.19 367.16 17.30 2185.46
    下载: 导出CSV 
    | 显示表格

    表5可见, 在所有数据集上, 因果卷积层数的递增并不总是带来模型性能的线性提升. 具体来说, 当因果卷积层数从一层扩展至两层时, RMSE和Score值均出现了明显的下降, 这表明了模型性能在此阶段得到了显著的提升. 然而, 当因果卷积层数进一步增加至三层时, RMSE和Score值却出现了上升的趋势. 这一现象可能与输入的时间序列数据特性有关. 由于该数据所包含的特征信息有限, 过多的因果卷积层数可能导致模型在训练过程中过拟合. 这同时也暗示了多尺度局部特征提取模块的局部感受野应与数据特性相契合. 此外, 随着因果卷积层数的递增, 卷积层所需训练的参数数量和计算成本也会相应增加. 因此, 综合考虑模型性能、过拟合风险以及计算成本等因素后, 最终将因果卷积层数设定为2层.

    2.7.3   Encoder layer的个数

    本实验探究了在相同的MSLFU_BLOCK下, Transformer编码器的层数对预测性能的影响, 表6给出了不同Encoder layer个数对应的预测指标值.

    表 6  不同数量的encoder layer对应的预测指标值
    Table 6  Predictive metric values corresponding to different numbers of encoder layers
    编码器层数 FD001 FD002 FD003 FD004
    RMSE Score RMSE Score RMSE Score RMSE Score
    1 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38
    2 11.35 210.25 12.78 785.32 11.56 230.32 16.72 1785.03
    3 11.95 223.25 12.58 735.32 11.86 235.46 15.72 1685.03
    下载: 导出CSV 
    | 显示表格

    每个Encoder layer都可以提取不同层次的特征, 通过堆叠多个Encoder layer可以逐渐提取更高级别的特征, 从而增加模型的特征描述能力. 但同时, 增加Encoder layer的个数会增加模型的复杂度、训练时间以及过拟合风险. 因此, 在选择Encoder layer的个数时需要综合考虑模型性能、训练时间、计算资源和过拟合问题等因素. 实验过程中将Encoder layer的个数依次从1增加到3, 对应的预测性能指标值RMSE和Score显示在表6中. 实验结果表明, 随着Encoder layer数量的增加, 四个数据集上的RMSE和Score指标都没有明显提升, 说明MSFLU_BLOCK结合1层的Encoder layer已有足够的特征描述能力.

    1) 针对时间序列预测问题需解决局部和全局特征有效提取的问题, MS_Transformer模型采用了Transformer编码器作为骨干网络, 通过基于点积自关注的全局上下文感知机制获取时间序列的全局特征. 为了克服Transformer编码器在捕获相邻时间序列的合并局部上下文方面的限制, 引入了多尺度局部特征增强单元(MSLFU_BLOCK). 这两个关键组件的整合保证了MS_Transformer模型能够全面考虑局部和全局特征, 提高了发动机剩余寿命的预测准确性.

    2) 为了解决时间序列中局部特征提取问题, 引入MSLFU_BLOCK提取局部上下文的多时间尺度特征, 多尺度局部特征使得模型能够更好地捕捉时间序列中的局部细节, 使用的因果卷积避免了未来数据泄露, 由多层因果卷积实现的MSLFU_BLOCK有助于提高预测性能.

    3) 通过与13种先进方法的对比实验, MS_Transformer模型在操作条件更复杂的FD002和FD004数据集上获得了最优的RMSE和Score值. 在所有四个数据集上, 该模型的平均RMSE和Score最优, 验证了本研究提出的预测模型在发动机剩余使用寿命预测方面的有效性和优越性. 并表明MS_Transformer在不同数据集上均能够稳健地实现较好的性能.

    本研究在不考虑预测性能对发动机操作条件复杂性的潜在敏感性的情况下, 基于相关运行数据建立了飞机发动机剩余使用寿命预测模型. 下一步的研究工作将包括通过特征可视化等方法, 深入分析不同操作场景下影响飞机发动机寿命的关键因素. 此外, 将提出的方法扩展到具有类似预测性维护需求的其他领域, 探索其对不同类型设备的适应性, 并评估其在各种应用场景中的稳健性和有效性.

  • 图  1  城市固废焚烧工艺流程图

    Fig.  1  Process flow chart of municipal solid waste incineration process

    图  2  宽度混合森林回归建模策略图

    Fig.  2  Modeling strategy of broad hybrid forest regression

    图  3  RF和CRF的建模过程

    Fig.  3  Modeling process of RF and CRF

    图  4  基准数据集中潜在特征的贡献率曲线

    Fig.  4  Contribution rate curves of latent features of benchmark datasets

    图  5  基准数据集潜在特征与真值的互信息值

    Fig.  5  Mutual information values of latent features and true values of benchmark datasets

    图  6  基准数据集训练误差收敛曲线

    Fig.  6  Training error convergence curve of benchmark datasets

    图  7  NIR数据集的拟合曲线

    Fig.  7  Fitting curves of NIR dataset

    图  8  CT数据集的拟合曲线

    Fig.  8  Fitting curves of CT dataset

    图  9  RB数据集的拟合曲线

    Fig.  9  Fitting curves of RB dataset

    图  10  DXN数据潜在特征的贡献率曲线

    Fig.  10  Contribution rate curve of latent featureof DXN dataset

    图  11  DXN数据潜在特征与真值的互信息值

    Fig.  11  Mutual information value of latent feature and true value of DXN dataset

    图  12  DXN训练误差收敛曲线

    Fig.  12  Convergence curves of DXN training error

    图  13  DXN数据集中的拟合曲线

    Fig.  13  Fit curves of DXN dataset

    图  14  超参数敏感性分析曲线

    Fig.  14  Sensitivity analysis curves of super parameter

    表  1  符号说明

    Table  1  Symbol description

    缩写词中文全称英文全称
    MSWI城市固废焚烧Municipal solid waste incineration
    DXN二噁英Dioxin
    HRGC/HRMS高分辨色谱质谱联用High-resolution chromatography combined with high-resolution mass spectrometry
    NN神经网络Neural network
    PCDDs/PCDFs多氯二苯并二噁英/多氯二苯并呋喃Polychlorinated dibenzo-p-dioxins/Polychlorinated dibenzofurans
    BPNN反向传播神经网络Back-propagation neural network
    SVR支持向量回归Support vector regression
    SEN选择性集成Selective ensemble
    RF随机森林Random forest
    DFR深度森林回归Deep forest regression
    BLS宽度学习系统Broad learning system
    BLS-NN神经网络宽度学习系统Broad learning system neural network
    BHFR宽度混合森林回归Broad hybrid forest regression
    CRF完全随机森林Completely random forest
    MSW城市固废Municipal solid waste
    TEQ毒性当量Toxic equivalent quangtity
    G 1烟气 1Gas 1
    NOx氮氧化物Nitrogen oxides
    HCL氯化氢Hydrogen chloride
    HF氟化氢Hydrogen fluoride
    SO2二氧化硫Sulfur dioxide
    PbPlumbum
    HgMercury
    CdCadmium
    G 2烟气 2Gas 2
    G 3烟气 3Gas 3
    RSM随机子空间法Random subspace method
    PCA主成分分析Principal components analysis
    MI互信息Mutual information
    CTCT 切片在轴轴数据上的相对位置The relative location of CT slices on the axial axis data
    RB住宅建筑数据Residential building data
    NIR橙汁近红外光谱数据The orange juice near infrared spectra data
    RMSE均方根误差Root mean square error
    MAE平均绝对误差Mean absolute error
    R2决定系数Coefficient of determination
    DFR-clfc基于跨层全连接的深度森林回归Deep forest regression based on cross-layer full connection
    下载: 导出CSV

    表  2  实验数据统计结果

    Table  2  Statistical results of experimental datasets

    数据集实际样本量实际样本量特征维数
    总数训练集验证集测试集
    NIR218109552727700
    CT583117592929291
    RB372124623131106
    DXN141141713535116
    下载: 导出CSV

    表  3  NIR数据集实验结果

    Table  3  Experimental results of NIR dataset

    方法数据集RMSEMAE${ {{R} } }^{2}$
    平均值方差平均值方差平均值方差
    RF训练集5.7142$\times {10} ^{0}$2.1347$\times {10} ^{-2}$3.8799$\times {10} ^{0}$9.4469$\times {10} ^{-3}$8.1131$\times {10} ^{-1}$9.2887$\times {10} ^{-5}$
    验证集1.3522$\times {10} ^{1}$1.3660$\times {10} ^{-2}$8.3125$\times {10} ^{0}$7.2473$\times {10} ^{-3}$2.6715$\times {10} ^{-1}$1.6048$\times {10} ^{-4}$
    测试集1.0925$\times {10} ^{1}$3.2313$\times {10} ^{-2}$8.1093$\times {10} ^{0}$1.7493$\times {10} ^{-2}$3.0986$\times {10} ^{-1}$5.1625$\times {10} ^{-4}$
    DFR训练集5.8836$\times {10} ^{0}$1.4331$\times {10} ^{-3}$4.1004$\times \text{10}^{0}$6.1766$\times {10} ^{-4}$8.0007$\times \text{10}^{-1}$6.5971$\times {10} ^{-6}$
    验证集1.3585$\times {10} ^{1}$3.7257$\times {10} ^{-3}$8.3057$\times {10} ^{0}$1.5854$\times {10} ^{-3}$2.6036$\times {10} ^{-1}$4.4251$\times {10} ^{-5}$
    测试集1.0842$\times {10} ^{1}$1.4742$\times {10} ^{-3}$8.0306$\times {10} ^{0}$1.8258$\times {10} ^{-3}$3.2046$\times {10} ^{-1}$2.3176$\times {10} ^{-5}$
    DFR-clfc训练集5.7742$\times {10} ^{0}$1.7160$\times {10} ^{-2}$4.0139$\times {10} ^{0}$9.6271$\times {10} ^{-3}$8.0735$\times {10} ^{-1}$7.6485$\times {10} ^{-5}$
    验证集1.3569$\times {10} ^{1}$3.1520$\times {10} ^{-3}$8.3265$\times {10} ^{0}$1.3592$\times {10} ^{-3}$2.6219$\times {10} ^{-1}$3.7318$\times {10} ^{-5}$
    测试集1.0793$\times {10} ^{1}$2.5668$\times {10} ^{-3}$7.9746$\times {10} ^{0}$3.3925$\times {10} ^{-3}$3.2664$\times {10} ^{-1}$3.9879$\times {10} ^{-5}$
    BLS-NN训练集7.4226$\times {10} ^{-1}$3.7588$\times {10} ^{-1}$4.6530$\times {10} ^{-1}$1.5602$\times {10} ^{-1}$9.9476$\times {10} ^{-1}$3.2486$\times {10} ^{-5}$
    验证集7.8288$\times {10} ^{3}$4.9487$\times {10} ^{7}$2.5450$\times {10} ^{3}$4.6180$\times {10} ^{6}$−4.3402$\times {10} ^{5}$7.2220$\times {10} ^{11}$
    测试集6.4945$\times {10} ^{3}$1.4866$\times {10} ^{7}$2.1689$\times {10} ^{3}$1.5496$\times {10} ^{6}$−3.2544$\times {10} ^{5}$8.9669$\times {10} ^{10}$
    BHFR训练集2.8931$\times {10} ^{0}$5.5126$\times {10} ^{-1}$2.1335$\times {10} ^{0}$3.3004$\times {10} ^{-1}$9.4864$\times {10} ^{-1}$6.0585$\times {10} ^{-4}$
    验证集1.3782$\times {10} ^{1}$1.7263$\times {10} ^{0}$9.2584$\times {10} ^{0}$6.5031$\times {10} ^{-1}$2.3224$\times {10} ^{-1}$2.1525$\times {10} ^{-2}$
    测试集9.9505$\times {10} ^{0}$5.6804$\times {10} ^{-1}$7.3675$\times {10} ^{0}$2.4515$\times {10} ^{-1}$4.2455$\times {10} ^{-1}$7.3749$\times {10} ^{-3}$
    下载: 导出CSV

    表  4  CT数据集实验结果

    Table  4  Experimental results of CT dataset

    方法数据集RMSEMAE${ {{R} } }^{2}$
    平均值方差平均值方差平均值方差
    RF训练集1.5839$\times {10} ^{0}$1.2389$\times {10} ^{-2}$1.2676$\times {10} ^{0}$6.1900$\times {10} ^{-3}$9.7215$\times {10} ^{-1}$1.4862$\times {10} ^{-5}$
    验证集1.8907$\times {10} ^{0}$2.2323$\times {10} ^{-2}$1.4978$\times {10} ^{0}$1.4923$\times {10} ^{-2}$9.5761$\times {10} ^{-1}$4.2488$\times {10} ^{-5}$
    测试集2.2138$\times {10} ^{0}$3.6173$\times {10} ^{-2}$1.8254$\times {10} ^{0}$2.1898$\times {10} ^{-2}$9.5706$\times {10} ^{-1}$5.3991$\times {10} ^{-5}$
    DFR训练集4.1046$\times {10} ^{0}$1.3520$\times {10} ^{-3}$3.4579$\times {10} ^{0}$9.5891$\times {10} ^{-4}$8.1383$\times {10} ^{-1}$1.1086$\times {10} ^{-5}$
    验证集4.1864$\times {10} ^{0}$1.2940$\times {10} ^{-3}$3.5658$\times {10} ^{0}$1.4003$\times {10} ^{-3}$7.9338$\times {10} ^{-1}$1.2646$\times {10} ^{-5}$
    测试集4.8124$\times {10} ^{0}$2.1197$\times {10} ^{-3}$4.2219$\times {10} ^{0}$1.4647$\times {10} ^{-3}$7.9851$\times {10} ^{-1}$1.4815$\times {10} ^{-5}$
    DFR-clfc训练集3.7411$\times {10} ^{0}$4.1351$\times {10} ^{-2}$3.1392$\times {10} ^{0}$3.2494$\times {10} ^{-2}$8.4491$\times {10} ^{-1}$2.8032$\times {10} ^{-4}$
    验证集3.8251$\times {10} ^{0}$3.9698$\times {10} ^{-2}$3.2193$\times {10} ^{0}$3.5889$\times {10} ^{-2}$8.2708$\times {10} ^{-1}$3.1969$\times {10} ^{-4}$
    测试集4.3811$\times {10} ^{0}$4.9342$\times {10} ^{-2}$3.8122$\times {10} ^{0}$4.5453$\times {10} ^{-2}$8.3262$\times {10} ^{-1}$2.8693$\times {10} ^{-4}$
    BLS-NN训练集1.0447$\times {10} ^{-7}$4.7677$\times {10} ^{-15}$4.1145$\times {10} ^{-8}$5.7001$\times {10} ^{-16}$$1.0000\times {10} ^{0}$7.4604$\times {10} ^{-32}$
    验证集2.5527$\times {10} ^{0}$6.9348$\times {10} ^{-1}$1.7606$\times {10} ^{0}$2.0416$\times {10} ^{-1}$9.1542$\times {10} ^{-1}$3.2479$\times {10} ^{-3}$
    测试集2.9466$\times {10} ^{0}$1.3019$\times {10} ^{0}$1.8882$\times {10} ^{0}$4.4686$\times {10} ^{-1}$9.1371$\times {10} ^{-1}$3.5944$\times {10} ^{-3}$
    BHFR训练集4.4458$\times {10} ^{-1}$8.4237$\times {10} ^{-3}$3.7023$\times {10} ^{-1}$4.5597$\times {10} ^{-3}$9.9773$\times {10} ^{-1}$1.6195$\times {10} ^{-6}$
    验证集9.5728$\times {10} ^{-1}$1.3354$\times {10} ^{-2}$7.4450$\times {10} ^{-1}$6.1644$\times {10} ^{-3}$9.8905$\times {10} ^{-1}$1.0451$\times {10} ^{-5}$
    测试集9.3108$\times {10} ^{-1}$1.2802$\times {10} ^{-2}$6.7034$\times {10} ^{-1}$1.2237$\times {10} ^{-2}$9.9235$\times {10} ^{-1}$5.1917$\times {10} ^{-6}$
    下载: 导出CSV

    表  5  RB数据集实验结果

    Table  5  Experimental results of RB dataset

    方法数据集RMSEMAE${ {{R} } }^{2}$
    平均值方差平均值方差平均值方差
    RF训练集5.3243$\times {10} ^{1}$3.7463$\times {10} ^{0}$4.2919$\times {10} ^{1}$2.4224$\times {10} ^{0}$8.4698$\times {10} ^{-1}$1.2156$\times {10} ^{-4}$
    验证集1.3211$\times {10} ^{2}$6.6035$\times {10} ^{0}$8.1855$\times {10} ^{1}$2.9950$\times {10} ^{0}$5.3824$\times {10} ^{-1}$3.2140$\times {10} ^{-4}$
    测试集7.5697$\times {10} ^{1}$4.3622$\times {10} ^{0}$6.0986$\times {10} ^{1}$2.7466$\times {10} ^{0}$7.0126$\times {10} ^{-1}$2.7457$\times {10} ^{-4}$
    DFR训练集4.8752$\times {10} ^{1}$1.4944$\times {10} ^{-1}$3.9200$\times {10} ^{1}$8.4396$\times {10} ^{-2}$8.7185$\times {10} ^{-1}$4.1370$\times {10} ^{-6}$
    验证集1.2600$\times {10} ^{2}$1.6487$\times {10} ^{-1}$7.8890$\times {10} ^{1}$1.1939$\times {10} ^{-1}$5.8012$\times {10} ^{-1}$7.3315$\times {10} ^{-6}$
    测试集7.4221$\times {10} ^{1}$3.1170$\times {10} ^{-1}$6.0387$\times {10} ^{1}$2.4493$\times {10} ^{-1}$7.1299$\times {10} ^{-1}$1.8723$\times {10} ^{-5}$
    DFR-clfc训练集3.0978$\times {10} ^{1}$2.6657$\times {10} ^{1}$2.4856$\times {10} ^{1}$1.7056$\times {10} ^{1}$9.4690$\times {10} ^{-1}$3.4386$\times {10} ^{-4}$
    验证集1.1830$\times {10} ^{2}$4.9405$\times {10} ^{0}$7.2901$\times {10} ^{1}$2.7676$\times {10} ^{0}$6.2977$\times {10} ^{-1}$1.9820$\times {10} ^{-4}$
    测试集6.9427$\times {10} ^{1}$1.7460$\times {10} ^{0}$5.5570$\times {10} ^{1}$2.1741$\times {10} ^{0}$7.4879$\times {10} ^{-1}$9.2839$\times {10} ^{-5}$
    BLS-NN训练集9.4877$\times {10} ^{-4}$4.8003$\times {10} ^{-6}$4.3563$\times {10} ^{-4}$7.7161$\times {10} ^{-7}$1.0000$\times {10} ^{0}$1.1561$\times {10} ^{-18}$
    验证集5.0098$\times {10} ^{2}$1.3099$\times {10} ^{5}$2.6163$\times {10} ^{2}$2.6950$\times {10} ^{4}$−8.9285$\times {10} ^{0}$1.6631$\times {10} ^{2}$
    测试集5.2093$\times {10} ^{2}$1.5354$\times {10} ^{5}$2.8934$\times {10} ^{2}$3.2539$\times {10} ^{4}$−2.0737$\times {10} ^{1}$9.3226$\times {10} ^{2}$
    BHFR训练集8.4893$\times {10} ^{0}$6.4125$\times {10} ^{-1}$6.4970$\times {10} ^{0}$3.1874$\times {10} ^{-1}$9.9608$\times {10} ^{-1}$5.6404$\times {10} ^{-7}$
    验证集9.9275$\times {10} ^{1}$2.2922$\times {10} ^{0}$5.4880$\times {10} ^{1}$1.0407$\times {10} ^{0}$7.3930$\times {10} ^{-1}$6.3926$\times {10} ^{-5}$
    测试集4.5645$\times {10} ^{1}$1.7188$\times {10} ^{0}$3.2284$\times {10} ^{1}$9.0105$\times {10} ^{-1}$8.9137$\times {10} ^{-1}$3.8975$\times {10} ^{-5}$
    下载: 导出CSV

    表  6  DXN数据集实验结果

    Table  6  Experimental results of DXN dataset

    方法数据集RMSEMAE${ {{R} } }^{2}$
    平均值方差平均值方差平均值方差
    RF训练集1.1159$\times {10} ^{-2}$5.7497$\times {10} ^{-8}$9.0221$\times {10} ^{-3}$4.0684$\times {10} ^{-8}$8.5346$\times {10} ^{-1}$3.9360$\times {10} ^{-5}$
    验证集2.0051$\times {10} ^{-2}$1.8026$\times {10} ^{-7}$1.4677$\times {10} ^{-2}$8.2255$\times {10} ^{-8}$5.0196$\times {10} ^{-1}$4.3515$\times {10} ^{-4}$
    测试集1.6922$\times {10} ^{-2}$1.6150$\times {10} ^{-7}$1.3548$\times {10} ^{-2}$8.9520$\times {10} ^{-8}$5.9001$\times {10} ^{-1}$3.7817$\times {10} ^{-4}$
    DFR训练集1.1493$\times {10} ^{-2}$8.7413$\times {10} ^{-9}$9.4568$\times {10} ^{-3}$4.6626$\times {10} ^{-9}$8.4463$\times {10} ^{-1}$6.3663$\times {10} ^{-6}$
    验证集2.0735$\times {10} ^{-2}$9.7835$\times {10} ^{-9}$1.5780$\times {10} ^{-2}$1.1121$\times {10} ^{-8}$4.6759$\times {10} ^{-1}$2.5813$\times {10} ^{-5}$
    测试集1.7791$\times {10} ^{-2}$1.7308$\times {10} ^{-8}$1.4608$\times {10} ^{-2}$1.5235$\times {10} ^{-8}$5.4701$\times {10} ^{-1}$4.5066$\times {10} ^{-5}$
    DFR-clfc训练集8.0852$\times {10} ^{-3}$2.9078$\times {10} ^{-6}$6.6040$\times {10} ^{-3}$2.0819$\times {10} ^{-6}$9.1986$\times {10} ^{-1}$1.1887$\times {10} ^{-3}$
    验证集2.0187$\times {10} ^{-2}$1.4562$\times {10} ^{-7}$1.5626$\times {10} ^{-2}$2.3355$\times {10} ^{-8}$4.9520$\times {10} ^{-1}$3.6404$\times {10} ^{-4}$
    测试集1.7025$\times {10} ^{-2}$1.5755$\times {10} ^{-7}$1.4068$\times {10} ^{-2}$6.0233$\times {10} ^{-8}$5.8501$\times {10} ^{-1}$3.7843$\times {10} ^{-4}$
    BLS-NN训练集1.2924$\times {10} ^{-9}$1.5756$\times {10} ^{-18}$9.5358$\times {10} ^{-10}$7.2150$\times {10} ^{-19}$1.0000$\times {10} ^{0}$8.2358$\times {10} ^{-29}$
    验证集6.8845$\times {10} ^{-2}$7.0040$\times {10} ^{-4}$5.3153$\times {10} ^{-2}$3.3474$\times {10} ^{-4}$−5.6928$\times {10} ^{0}$3.7799$\times {10} ^{1}$
    测试集7.8396$\times {10} ^{-2}$6.7692$\times {10} ^{-4}$6.0922$\times {10} ^{-2}$4.1785$\times {10} ^{-4}$−8.7153$\times {10} ^{0}$4.7630$\times {10} ^{1}$
    BHFR训练集6.0665$\times {10} ^{-3}$1.6330$\times {10} ^{-8}$3.9665$\times {10} ^{-3}$8.4708$\times {10} ^{-9}$9.5669$\times {10} ^{-1}$3.3481$\times {10} ^{-6}$
    验证集2.1551$\times {10} ^{-2}$3.5181$\times {10} ^{-8}$1.2384$\times {10} ^{-2}$3.5083$\times {10} ^{-8}$4.2484$\times {10} ^{-1}$9.8731$\times {10} ^{-5}$
    测试集1.6189$\times {10} ^{-2}$2.2474$\times {10} ^{-8}$1.1226$\times {10} ^{-2}$1.0102$\times {10} ^{-8}$6.2491$\times {10} ^{-1}$4.8607$\times {10} ^{-5}$
    下载: 导出CSV

    表  7  BHFR超参数及其区间设置

    Table  7  Super parameters and interval setting of BHFR

    模型超参数符号NIRCTRBDXN
    决策树叶
    节点最小
    样本数
    Nsamples[1, 55][1, 59][1, 62][1, 71]
    RSM特征
    选择数量
    MRSM[1, 700][1, 291][1, 103][1, 116]
    决策树数量Mtree[5, 100][5, 100][5, 100][5, 100]
    混合森林组
    数量
    NForest[5, 100][5, 100][5, 100][5, 100]
    潜在特征
    贡献率阈值
    $\eta $[0.7, 1][0.4, 1][0.71, 1][0.3, 1]
    互信息阈值$\zeta $[0.65, 0.75][0.75, 0.85][0.72, 0.8][0.68, 0.76]
    正则化参数$\lambda$[0.1−10, 1][0.1−10, 1][0.1−10, 1][0.1−10, 1]
    下载: 导出CSV

    A1  DXN数据集的过程变量信息

    A1  The process variable information for DXN datasets

    序号过程变量单位
    1燃烧室左侧温度 1
    2燃烧室左侧温度 2
    3燃烧室右侧温度 3
    4燃烧室左侧温度4
    5燃烧室右侧温度 5
    6燃烧室右侧温度 6
    7燃烬段炉排顶端气温左
    8燃烬段炉排顶端气温右
    9干燥炉排温度左入口
    10干燥炉排温度左出口
    11干燥炉排温度右入口
    12干燥炉排温度右出口
    13干燥段与燃烧段炉排的炉墙左侧内温度
    14干燥段与燃烧段炉排的炉墙左侧外温度
    15干燥段与燃烧段炉排的炉墙右侧内温度
    16干燥段与燃烧段炉排的炉墙右侧外温度
    17燃烧炉排 1-1 左内侧温度
    18燃烧炉排 1-1左外侧温度
    19燃烧炉排 1-1 右内侧温度
    20燃烧炉排 1-1 右外侧温度
    21燃烧炉排 1-2 左内侧温度
    22燃烧炉排 1-2 左外侧温度
    23燃烧炉排1-2右内侧温度
    24燃烧炉排1-2右外侧温度
    25燃烧炉排 2-1 左内侧温度
    26燃烧炉排 2-1 左外侧温度
    27燃烧炉排 2-1 右内侧温度
    28燃烧炉排 2-1 右外侧温度
    29燃烧炉排 2-2 左内侧温度
    30燃烧炉排 2-2 左外侧温度
    31燃烧炉排 2-2 右内侧温度
    32燃烧炉排 2-2 右外侧温度
    33二次燃烧室出口温度左
    34二次燃烧室出口温度右
    35一次空预器出口空气温度
    36燃烧炉排入口空气温度
    37干燥炉排入口空气温度
    38二次空预器出口空气温度
    39炉墙左侧冷却风出口温度
    40炉墙右侧冷却风出口温度
    41炉排左侧冷却风出口温度
    42炉排右侧冷却风出口温度
    43一级过热器出口蒸汽温度
    44二级过热器出口蒸汽温度
    45三级过热器出口蒸汽温度
    46省煤器出口给水温度
    47反应器入口温度
    48布袋 A 入口温度
    49布袋 B 入口温度
    50流化风机出口温度
    51FGD 出口烟气温度 A
    52FGD 出口烟气温度 B
    53烟道入口烟气温度
    54干燥炉排左 1 空气流量km3N/h
    55干燥炉排右 1 空气流量km3N/h
    56干燥炉排左 2 空气流量km3N/h
    57干燥炉排右 2 空气流量km3N/h
    58燃烧炉排左 1-1 空气流量km3N/h
    59燃烧炉排右 1-1空气流量km3N/h
    60燃烧炉排左 1-2 空气流量km3N/h
    61燃烧炉排右 1-2 空气流量km3N/h
    62燃烧炉排左 2-1 空气流量km3N/h
    63燃烧炉排右 2-1 空气流量km3N/h
    64燃烧炉排左 2-2 空气流量km3N/h
    65燃烧炉排右 2-2 空气流量km3N/h
    66燃烬炉排左空气流量km3N/h
    67燃烬炉排右空气流量km3N/h
    68二次风流量km3N/h
    69省煤器 No.2 给水流量t/h
    70省煤器 No.1 给水流量t/h
    71一级过热器冷却水流量t/h
    72二级过热器冷却水流量t/h
    73锅炉出口主蒸汽流量t/h
    74烟道入口烟气流量km3N/h
    75混合器水流量 Akg/h
    76混合器水流量 Bkg/h
    77尿素溶剂供应流量L/h
    78石灰储仓给料量kg/h
    79活性炭储仓给料量kg/h
    80一次风机出口空气压力kPa
    81二次风机出口空气压力kPa
    82省煤器出口压力kPa
    83烟道入口烟气压力Pa
    84汽包压力MPa
    85三级过热器出口蒸汽压力MPa
    86FGD 出口烟气压力Pa
    87布袋压差 AkPa
    88布袋压差 BkPa
    89进料器左内侧速度%
    90进料器左外侧速度%
    91进料器右内侧速度%
    92进料器右外侧速度%
    93干燥炉排左内侧速度%
    94干燥炉排左外侧速度%
    95干燥炉排右内侧速度%
    96干燥炉排右外侧速度%
    97燃烧炉排 1 左内侧速度%
    98燃烧炉排 1 左外侧速度%
    99燃烧炉排 1 右内侧速度%
    100燃烧炉排 1 右外侧速度%
    101燃烧炉排 2 左内侧速度%
    102燃烧炉排 2 左外侧速度%
    103燃烧炉排 2 右内侧速度%
    104燃烧炉排 2 右外侧速度%
    105燃烬炉排左侧速度%
    106燃烬炉排右侧速度%
    107汽包水位mm
    108FGD 出口烟气压力-O2%
    109出口烟气分析-O2%
    110出口烟气分析−灰尘mg/m3N
    111出口烟气分析-NOmg/m3N
    112出口烟气分析-SO2mg/m3N
    113出口烟气分析-HCLmg/m3N
    114出口烟气分析-COmg/m3N
    115出口烟气分析-CO2%
    116出口烟气分析-HFmg/m3N
    下载: 导出CSV
  • [1] Kammen D M, Sunter D A. City-integrated renewable energy for urban sustainability. Science, 2016, 352(6288): 922-928 doi: 10.1126/science.aad9302
    [2] Tobias W, Ludwig K L, Robert B, Esther E, Luca F, Bodo H, et al. Persistence of engineered nanoparticles in a municipal solid-waste incineration plant. Nature Nanotechnology, 2012, 7(8): 520-524 doi: 10.1038/nnano.2012.64
    [3] 乔俊飞, 郭子豪, 汤健. 面向城市固废焚烧过程的二噁英排放浓度检测方法综述. 自动化学报, 2020, 46(6): 1063-1089 doi: 10.16383/j.aas.c190005

    Qiao Jun-Fei, Guo Zi-Hao, Tang Jian. Dioxin emission concentration measurement approaches for municipal solid wastes incineration process: A survey. Acta Automatica Sinica, 2020, 46(6): 1063-1089 doi: 10.16383/j.aas.c190005
    [4] Bin Wang, Peilong Wang, Xie Lin-Hua, Lin Rui-Biao, Lv Jie, Li Jian-Rong, et al. A stable zirconium based metal-organic framework for specific recognition of representative polychlorinated dibenzo-p-dioxin molecules. Nature Communications, 2019, 10(1): 1-8 doi: 10.1038/s41467-018-07882-8
    [5] Wei J X, Li H, Liu J G. Fate of dioxins in a municipal solid waste incinerator with state-of-the-art air pollution control devices in China. Environmental Pollution, 2021, 289: 1-10 doi: 10.1016/j.envpol.2021.117798
    [6] 代伟, 陆文捷, 付俊, 马小平. 工业过程多速率分层运行优化控制. 自动化学报, 2019, 45(10): 1946-1959

    Dai Wei, Lu Wen-Jie, Fu Jun, Ma Xiao-Ping. Multi-rate layered optimal operational control of industrial processes. Acta Automatica Sinica, 2019, 45(10): 1946-1959
    [7] Xue W Q, Fan J L, Victor G L, Li J N, Jiang Y, Chai T Y, et al. New methods for optimal operational control of industrial processes using reinforcement learning on two time scales. IEEE Transactions on Industrial Informatics, 2020, 16(5): 3085-3099 doi: 10.1109/TII.2019.2912018
    [8] 国家标准. HJ 77.2-2008. 环境空气和废气. 二噁英类的测定. 同位素稀释高分辨气相色谱−高分辨质谱法. 2008

    National standard. HJ 77.2-2008. Ambient air and flue gas. Determination of polychlorinated dibenzo-p-dioxions (PCDDs) and ploychlorinated dibenzofurans (PCDFs) Isotope dilution HRCC-HRMS. 2008
    [9] 李阿丹, 洪伟, 王晶. 激光解吸 /激光电离-质谱法二恶英及其关联物的在线检测. 燕山大学学报, 2015, 39(6): 511-515 doi: 10.3969/j.issn.1007-791X.2015.06.007

    Li A-Dan, Hong Wei, Wang Jing. Online detection of dioxins and their related substances by laser desorption/laser ionization mass spectrometry. Journal of Yanshan University, 2015, 39(6): 511-515 doi: 10.3969/j.issn.1007-791X.2015.06.007
    [10] Nakui H, Koyama H, Takakura A, Watanabe N. Online measurements of low-volatile organic chlorine for dioxin monitoring at municipal waste incinerators. Chemosphere, 2011, 85(2): 151-155 doi: 10.1016/j.chemosphere.2011.06.042
    [11] Zhang H J, Ni Y W, Chen J P, Zhang Q. Influence of variation in the operating conditions on pcdd/f distribution in a full-scale msw incinerator. Chemosphere, 2008, 70(4): 721-730 doi: 10.1016/j.chemosphere.2007.06.054
    [12] 王通, 段泽文. 基于模糊评估自适应更新的油井动液面软测量建模. 化工学报, 2019, 70(12): 4760-4769

    Wang Tong, Duan Ze-Wen. Soft sensor modeling for dynamic liquid level of oil well based on fuzzy inference adaptive updating. Ciesc Journal, 2019, 70(12): 4760-4769
    [13] 秦美华, 朱红求, 李勇刚, 陈俊名, 张凤雪, 李文婷, 等. 基于STA-K均值聚类的电化学废水处理过程离子浓度软测量. 化工学报, 2019, 70(9): 3458-3464

    Qin Mei-Hua, Zhu Hong-Qiu, Li Yong-Gang, Chen Jun-Ming, Zhang Feng-Xue, Li Wen-ting, et al. Soft-sensor method for ion concentration of electrochemical wastewater treatment based on sta-k-means clustering. Ciesc Journal, 2019, 70(9): 3458-3464
    [14] 刘卓, 汤健, 柴天佑, 余文. 基于多模态特征子集选择性集成建模的磨机负荷参数预测方法. 自动化学报, 2021, 47(8): 1921-1931

    Liu Zhuo, Tang Jian, Chai Tian-You, Yu Wen. Selective ensemble modeling approach for mill load parameter forecasting based on multi-modal feature sub-sets. Acta Automatica Sinica, 2021, 47(8): 1921-1931
    [15] 乔景慧, 柴天佑. 数据与模型驱动的水泥生料分解率软测量模型. 自动化学报, 2019, 45(8): 1564-1578 doi: 10.16383/j.aas.c180734

    Qiao Jing-Hui, Chai Tian-You. Data and model-based soft measurement model of cement raw meal decomposition ratio. Acta Automatica Sinica, 2019, 45(8): 1564-1578 doi: 10.16383/j.aas.c180734
    [16] Chang N B, Chen W C. Prediction of pcdds/pcdfs emissions from municipal incinerators by genetic programming and neural network modeling. Waste Management & Research, 2000, 18(4): 341-351
    [17] Bunsan S, Chen W Y, Chen H W, Chuang Y H, Grisdanurak N. Modeling the dioxin emission of a municipal solid waste incinerator using neural networks. Chemosphere, 2013, 92(3): 258-264 doi: 10.1016/j.chemosphere.2013.01.083
    [18] 肖晓东, 卢加伟, 海景, 廖利. 垃圾焚烧烟气中二噁英类浓度的支持向量回归预测. 可再生能源, 2017, 35(8): 1107-1114

    Xiao Xiao-Dong, Lu Jia-Wei, Hai Jing, Liao Li. Prediction of dioxin emissions in flue gas from waste incineration based on support vector regression. Renewable Energy Resources, 2017, 35(8): 1107-1114
    [19] Wu J, Yang H. Linear regression-based efficient svm learning for large-scale classification. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(10): 2357-2369 doi: 10.1109/TNNLS.2014.2382123
    [20] 乔俊飞, 郭子豪, 汤健. 基于多层特征选择的固废焚烧过程二噁英排放浓度软测量. 信息与控制, 2021, 50(1): 75-87 doi: 10.13976/j.cnki.xk.2021.9663

    Qiao Jun-Fei, Guo Zi-Hao, Tang Jian. Soft sensing of dioxin emission concentration in solid waste incineration process based on multi-layer feature selection. Information and Control, 2021, 50(1): 75-87 doi: 10.13976/j.cnki.xk.2021.9663
    [21] 汤健, 乔俊飞. 基于选择性集成核学习算法的固废焚烧过程二噁英排放浓度软测量. 化工学报, 2019, 70(2): 696-706 doi: 10.11949/j.issn.0438-1157.20181354

    Tang Jian, Qiao Jun-Fei. Dioxin emission concentration soft measuring approach of municipal solid waste incineration based on selective ensemble kernel learning algorithm. Ciesc Journal, 2019, 70(2): 696-706 doi: 10.11949/j.issn.0438-1157.20181354
    [22] Chang N B, Huang S H. Statistical modelling for the prediction and control of pcdds and pcdfs emissions from municipal solid waste incinerators. Waste Management & Research, 1995, 13(4): 379-400.
    [23] 汤健, 乔俊飞, 徐喆, 郭子豪. 基于特征约简与选择性集成算法的城市固废焚烧过程二噁英排放浓度软测量. 控制理论与应用, 2021, 38(1): 110-120 doi: 10.7641/CTA.2020.90874

    Tang Jian, Qiao Jun-Fei, Xu Zhe, Guo Zi-Hao. Soft measuring approach of dioxin emission concentration in municipal solid waste incineration process based on feature reduction and selective ensemble algorithm. Control Theory & Applications, 2021, 38(1): 110-120 doi: 10.7641/CTA.2020.90874
    [24] Xia H, Tang J, Qiao J F, Yan A J, Guo Z H. Soft measuring method of dioxin emission concentration for mswi process based on rf and gbdt. In: Proceedings of the Chinese Control and Decision Conference. Hefei, China: IEEE, 2020. 2173−2178
    [25] 段艳杰, 吕宜生, 张杰, 赵学亮, 王飞跃. 深度学习在控制领域的研究现状与展望. 自动化学报, 2016, 42(5): 643-654

    Duan Yan-Jie, Lv Yi-Sheng, Zhang Jie, Zhao Xue-Liang, Wang Fei-Yue. Deep learning for control: The state of the art and prospects. Acta Automatica Sinica, 2016, 42(5): 643-654
    [26] Zhou Z H, Ji F. Deep forest. National Science Review, 2019, 6: 74-86. doi: 10.1093/nsr/nwy108
    [27] 汤健, 夏恒, 乔俊飞, 郭子豪. 深度集成森林回归建模方法及应用. 北京工业大学学报, 2021, 47(11): 1219-1229

    Tang Jian, Xia Heng, Qiao Jun-Fei, Guo Zi-Hao. Modeling method of deep ensemble forest regression with its application. Journal of Beijing University of Technology, 2021, 47(11): 1219-1229
    [28] Tang J, Xia H, Zhang J, Qiao J F, Yu W. Deep forest regression based on cross-layer full connection. Neural Computing and Applications, 2021, 33(15): 9307-9328 doi: 10.1007/s00521-021-05691-7
    [29] Xu W, Tang J, Xia H, Sun Z J. Prediction method of dioxin emission concentration based on PCA and deep forest regression. In: Proceedings of the 40th Chinese Control Conference. Shanghai, China: IEEE, 2021. 1212−1217
    [30] Graybill F A, Meyer C D, Painter R J. Note on the computation of the generalized inverse of a matrix. Siam Review, 1966, 8(4): 522-524 doi: 10.1137/1008108
    [31] Chen C L P, Liu Z. Broad learning system: An effective and efficient incremental learning system without the need for deep architecture. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(1): 10−24
    [32] Chen C L P, Liu Z, Feng S. Universal approximation capability of broad learning system and its structural variations. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(4): 1191-1204 doi: 10.1109/TNNLS.2018.2866622
    [33] Fan J C, Wang X, Wang X X, Zhao J H, Liu X. Incremental wishart broad learning system for fast polsar image classification. IEEE Geoscience and Remote Sensing Letters, 2019, 16(12): 1854-1858 doi: 10.1109/LGRS.2019.2913999
    [34] Ye H L, Li H, Chen C L P. Adaptive deep cascade broad learning system and its application in image denoising. IEEE Transactions on Cybernetics, 2021, 51(9): 4450-4463 doi: 10.1109/TCYB.2020.2978500
    [35] Chu Y H, Lin H F, Liang Y, Zhang D Y, Diao Y F, Fan X C, et al. Hyperspectral image classification based on discriminative locality preserving broad learning system. Knowledge-Based Systems, 2020, 206: 1-17
    [36] Cheng C, Wang W J, Chen H T, Zhang B C, Shao J J, Teng W X. Enhanced fault diagnosis using broad learning for traction systems in high-speed trains. IEEE Transactions on Power Electronics, 2020, 36(7): 7461-7469
    [37] Pu X K, Li C G. Online semisupervised broad learning system for industrial fault diagnosis. IEEE Transactions on Industrial Informatics, 2021, 17(10): 6644-6654 doi: 10.1109/TII.2020.3048990
    [38] Yu W K, Zhao C H. Broad convolutional neural network based industrial process fault diagnosis with incremental learning capability. IEEE Transactions on Industrial Electronics, 2020, 67(6): 5081-5091 doi: 10.1109/TIE.2019.2931255
    [39] Sui S, Chen P L C, Tong S C, Feng S. Finite-time adaptive quantized control of stochastic nonlinear systems with input quantization: A broad learning system based identification method. IEEE Transactions on Industrial Electronics, 2020, 67(10): 8555-8565 doi: 10.1109/TIE.2019.2947844
    [40] Feng J, Yao Y, S, Lu S X, Liu Y. Domain knowledge-based deep-broad learning framework for fault diagnosis. IEEE Transactions on Industrial Electronics, 2021, 68(4): 3454-3464 doi: 10.1109/TIE.2020.2982085
    [41] Han H G, Yang F F, Yang Y H, Wu X L. Type-2 fuzzy broad learning controller for wastewater treatment process. Neurocomputing, 2021, 459(4): 188-200
    [42] Tang H, Dong P, Shi Y. A construction of robust representations for small data sets using broad learning system. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2021, 51(10): 6074-6084 doi: 10.1109/TSMC.2019.2957818
    [43] Qi G J, Luo J. Small data challenges in big data era: A survey of recent progress on unsupervised and semi-supervised methods. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(4): 2168-2187 doi: 10.1109/TPAMI.2020.3031898
    [44] 应雨轩, 林晓青, 吴昂键, 李晓东. 生活垃圾智慧焚烧的研究现状及展望. 化工学报, 2021, 72(2): 886-900

    Ying Yu-Xuan, Lin Xiao-Qing, Wu Ang-Jian, Li Xiao-Dong. Review and outlook on municipal solid waste smart incineration. CIESC Journal, 2021, 72(2): 886-900
    [45] Xia H, Tang J, Aljerf L, Wang T Z, Qiao J F, Xu Q D, Wang Q, Ukaogo P. Investigation on Dioxins Emission Characteristic during Complete Maintenance Operating Period of Municipal Solid Waste Incineration, Environmental Pollution, 2023, 318: 120949
    [46] Deng D Y, Qiao J Q, Liu M Q, Dorota K, Zhang M W, Dionysios D D F, et al. Detoxification of municipal solid waste incinerator fly ash by single-mode microwave irradiation: Addition of urea on the degradation of dioxin and mechanism. Journal of Hazardous Materials, 2019, 369: 279-289 doi: 10.1016/j.jhazmat.2019.01.001
    [47] Stanmore B R. The formation of dioxins in combustion systems. Combustion and Flame, 2004, 136(3): 398-427 doi: 10.1016/j.combustflame.2003.11.004
    [48] Zhang S, Chen Z L, Lin X Q, Wang F, Yan J H. Kinetics and fusion characteristics of municipal solid waste incineration fly ash during thermal treatment. Fuel, 2020, 279: 1-13
    [49] Zhang M M, Alfons G B. De novo synthesis of dioxins: A review. International Journal of Environment and Pollution, 2016, 60: 63-110 doi: 10.1504/IJEP.2016.082115
    [50] Zhou H, Meng A H, Long Y Q, Li Q H, Zhang Y G. A review of dioxin-related substances during municipal solid waste incineration. Waste Management, 2015, 36: 106-118 doi: 10.1016/j.wasman.2014.11.011
    [51] Peng Y Q, Lu S Y, Li X D, Yan J H, Cen K F. Formation, measurement, and control of dioxins from the incineration of municipal solid wastes: Recent advances and perspectives. Energy & Fuels, 2020, 34: 13247-13267
    [52] , Influence factors and mass balance of memory effect on PCDD/F emissions from the full-scale municipal solid waste incineration in China. Chemosphere, 2020, 239: 1-8Chemosphere, 2001, 45(8): 1151-1157
    [53] Breiman L. Bagging predictors. Mach Learn, 1996, 24: 123-140
    [54] Ho T K. The random subspace method for constructing decision forests. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1998, 20(8): 832-844
    [55] Blake C L, Merz C J. UCI repository of machine learning databases [Online], available: http://www.archive.ics.uci.edu/ml/k datasets.html, January 1, 2022
  • 期刊类型引用(19)

    1. 齐美彬,庄硕,胡晶晶,杨艳芳,胡元奎. 基于联合GLMB滤波器的可分辨群目标跟踪. 系统工程与电子技术. 2024(04): 1212-1219 . 百度学术
    2. 梁苑,戚国庆,陈烨,李银伢,盛安冬. 不完全量测下事件触发水面扩展目标跟踪. 兵工学报. 2024(04): 1219-1228 . 百度学术
    3. 李天成,严瑞波,成明乐,李固冲. DEGREE:一种基于Delaunay三角的任意群目标外形识别方法. 航空兵器. 2024(02): 123-130 . 百度学术
    4. 王旭昕,陈辉,连峰,张光华. 扩展目标多特征估计自适应渐进滤波器. 电子学报. 2024(09): 3135-3147 . 百度学术
    5. 陈辉,魏凤旗,韩崇昭. 多扩展目标跟踪中基于多特征优化的传感器控制方法. 电子与信息学报. 2023(01): 191-199 . 百度学术
    6. 修建娟,董凯,徐从安. 基于概率假设密度滤波和动力学方程约束的空间群目标数量和位置分辨. 电子与信息学报. 2023(03): 968-976 . 百度学术
    7. 陈振,李翠芸,李想. B样条曲面三维扩展目标跟踪算法. 西安电子科技大学学报. 2023(02): 101-111 . 百度学术
    8. 陈辉,魏凤旗,韩崇昭. 多扩展目标跟踪优化中基于威胁规避的无人机路径规划策略. 雷达学报. 2023(03): 529-540 . 百度学术
    9. 陈辉,张星星. 基于多伯努利滤波的厚尾噪声条件下多扩展目标跟踪. 自动化学报. 2023(07): 1573-1586 . 本站查看
    10. 衡博文,李翠芸,李想. 基于MLS的三维扩展目标PMBM跟踪算法. 系统工程与电子技术. 2023(11): 3411-3418 . 百度学术
    11. 陈辉,曾文爱,连峰,韩崇昭. 水平集高斯过程的非星凸形扩展目标跟踪算法. 电子与信息学报. 2023(10): 3786-3795 . 百度学术
    12. 张琪,马天力,陈超波,张彬彬. 杂波信息未知下的多群目标跟踪算法. 现代电子技术. 2022(03): 17-22 . 百度学术
    13. 徐寒,韩玉兰,曹晓峰. 一种基于随机超曲面的扩展目标形状评估方法. 科技创新与应用. 2022(10): 133-136+140 . 百度学术
    14. 陈辉,王莉,韩崇昭. 基于随机矩阵建模的Student’s t逆Wishart滤波器. 控制理论与应用. 2022(06): 1088-1097 . 百度学术
    15. 李永永,王莉. 星凸形随机超曲面粒子扩展目标跟踪滤波器. 舰船电子工程. 2022(06): 42-46+75 . 百度学术
    16. 修建娟,董凯,徐从安. 可分辨空间密集目标群跟踪算法研究. 弹道学报. 2021(03): 1-8 . 百度学术
    17. 陈辉,张星星,杨文瑜. 厚尾噪声条件下星凸形扩展目标student’s t滤波器. 兰州理工大学学报. 2021(05): 85-92 . 百度学术
    18. 陈辉,李国财,韩崇昭,杜金瑞. 高斯过程回归模型多扩展目标多伯努利滤波器. 控制理论与应用. 2020(09): 1931-1943 . 百度学术
    19. 陈辉,李国财,韩崇昭,杜金瑞. 星凸形多扩展目标跟踪中的传感器控制方法. 控制理论与应用. 2020(12): 2627-2637 . 百度学术

    其他类型引用(24)

  • 加载中
图(14) / 表(8)
计量
  • 文章访问数:  912
  • HTML全文浏览量:  211
  • PDF下载量:  243
  • 被引次数: 43
出版历程
  • 收稿日期:  2022-01-04
  • 录用日期:  2022-03-04
  • 网络出版日期:  2022-08-09
  • 刊出日期:  2023-02-20

目录

/

返回文章
返回