Interval Multimodal Particle Swarm Optimization Algorithm Assisted by Heterogeneous Ensemble Surrogate
-
摘要: 现实生活中的很多黑盒优化问题可归为高计算代价的多模态优化问题(Multimodal optimization problem, MMOP), 即昂贵多模态优化问题(Expensive MMOP, EMMOP). 在处理该类问题时, 决策者希望以尽量少的计算代价(即尽量少的真实函数评价次数)找到多个高质量的最优解. 然而, 已有代理辅助的进化优化算法(Surrogate-assisted evolutionary algorithm, SAEA)很少考虑问题的多模态属性, 运行一次仅可获得问题的一个最优解. 鉴于此, 研究一种异构集成代理辅助的区间多模态粒子群优化(Interval multimodal particle swarm optimization algorithm assisted by heterogeneous ensemble surrogate, IMPSO-HES)算法. 首先, 借助异构集成的思想构建一个由多个基础代理模型组成的模型池; 随后, 依据待评价粒子与已发现模态之间的匹配关系, 从模型池中自主选择部分基础代理模型进行集成, 并使用集成后的代理模型预测该粒子的适应值. 进一步, 为节约代理模型管理的代价, 设计一种增量式的代理模型管理策略; 为减少代理模型预测误差对算法性能的影响, 首次将区间排序关系引入到进化过程中. 将所提算法与当前流行的5种代理辅助进化优化算法和7 种最先进的多模态优化算法进行对比, 在20个测试函数和1个建筑节能实际问题上的实验结果表明, 所提算法可以在较少计算代价下获得问题的多个高竞争最优解.Abstract: Many real-world black-box optimization problems can be classified as multimodal optimization problems (MMOPs) with high computational cost, that is, expensive multimodal optimization problems (EMMOPs). When dealing with such problems, decision-makers hope to find multiple high-quality solutions with less computational cost (i.e., the least number of real function evaluations). However, existing surrogate-assisted evolutionary algorithms (SAEAs) seldom consider the multimodal properties of problem, and they can only obtain one optimal solution of the problem at a time. In view of this, this paper studies an interval multimodal particle swarm optimization (PSO) algorithm assisted by heterogeneous ensemble surrogate (IMPSO-HES). Firstly, a model pool composed of multiple basic surrogate models is constructed with the idea of heterogeneous ensemble. Then, according to the matching relationship between the particle to be evaluated and the discovered modalities, some basic surrogate models will be selected from the model pool for integration, and the integrated surrogate model is utilized to predict the fitness value of the particle. Furthermore, in order to save the cost of model management, an incremental surrogate model management strategy is designed. In order to reduce the influence of prediction error of surrogate model on the algorithm's performance, the interval ordering relation is introduced into the evolutionary process for the first time. The proposed algorithm is compared with five SAEAs and seven state-of-the-art multimodal algorithms, experimental results on 20 benchmark functions and the building energy conservation problem show that the proposed algorithm can obtain multiple highly-competitive optimal solutions at a low computational cost.
-
预测与健康管理系统(Prognostics and health management, PHM)对于保障航空发动机的安全性和可靠性有重要意义, 在许多工业领域中受到广泛关注[1]. PHM包括异常检测、故障诊断、剩余使用寿命预测等. 其中, 剩余使用寿命(Remaining useful life, RUL)预测作为PHM的主要任务之一, 旨在利用设备的运行状态信息揭示设备性能退化规律, 从而预测其有效剩余寿命. 在航空发动机领域, 剩余寿命预测尤为重要. 航空发动机的运行环境极其苛刻, 长期运行过程中, 由于疲劳、磨损、腐蚀等因素的影响, 发动机性能会逐渐退化, 最终可能导致故障和事故. 因此, 精确预测航空发动机的剩余寿命对于确保航空安全至关重要.
目前发动机剩余使用寿命预测的主流方法主要有基于失效机理分析的方法、数据驱动的方法和两者融合的方法[2]. 基于失效机理分析的方法依赖于数学模型和经验知识[3], 这种方法易受到系统复杂性的影响. 随着传感器技术的进步, 数据驱动的方法逐渐成为主流, 这些方法利用收集到的大量实际运行数据, 通过机器学习算法来建立预测模型. 传统机器学习方法包括极限学习机[4]、支持向量机(Support vector machine, SVM)[5]、随机森林和梯度提升决策树[6]等. 尽管这些方法的训练较为容易, 但在特征提取方面常依赖于领域专家的先验知识来选择和提取与剩余寿命相关的特征. 同时特征工程和建立回归模型的过程相互独立, 限制了传统机器学习模型的性能.
随着数据量的持续增长和算力的持续提升, 当代数据驱动方法逐渐摒弃了传统的人工特征提取与机器学习相结合的方式, 转而采用深度学习技术实现自动特征提取和分类、回归等任务. 其中, 递归神经网络(Recurrent neural network, RNN)和长短期记忆(Long short-term memory, LSTM)深度学习模型专门用于捕获和建模时间序列数据中的时间依赖性. 它们擅长保留过去的信息并将其传播到后续步骤, 增强对序列中模式的理解和预测. Zheng等[7]介绍了一种基于LSTM的RUL估计方法, 利用传感器序列信息揭示传感器数据中隐藏的模式. Huang等[8]采用了双向LSTM网络来预测系统的剩余寿命. YU等[9]提出了一种基于双向RNN和自编码器的相似曲线匹配方法来估计机械系统的RUL, 目的是提高RUL估计的鲁棒性和准确性. Liu等[10]提出了一种结合聚类分析和LSTM的航空发动机RUL预测模型. 尽管RNN和LSTM在处理时间序列数据方面表现出色, 但它们面临着并行化的挑战和处理长序列困难等局限性.
许多研究尝试利用深度卷积神经网络(Deep convolutional neural networks, DCNN)的高度并行计算和局部特征提取能力来处理时间序列数据. Li等[11]引入了一种使用DCNN进行预测的新型数据驱动方法. 原始收集的数据经过标准化处理后, 直接输入到DCNN, 不需要事先具备预测或信号处理方面的专业知识. Yang等[12]提出了一种基于两个卷积神经网络的RUL预测方法, 一个作为监测初始性能退化的分类网络, 另一个作为预测剩余寿命的网络. Li等[13]提出了一种基于多传感器数据的集成深度多尺度特征融合网络(Integrated deep multi-scale feature fusion network, IDMFFN). 使用不同大小的卷积滤波器来学习不同尺度的特征, 然后将这些多尺度特征进行连接, 并利用基于门控循环单元(Gated recurrent unit, GRU)的高级特征融合块进行RUL预测. 尽管CNNs在某些方面具有优势, 但在时序任务中仍存在一定的局限性, 因为它们倾向于专注局部特征提取, 这对需要考虑全局依赖关系的时间预测任务而言是不够的.
为了结合LSTM的时间建模能力和CNN的空间特征提取能力, Al-Dulaimi等[14]提出了一种用于RUL估计的混合深度神经网络模型(Hybrid deep neural network, HDNN). 该深度学习模型将LSTM和CNN并行集成, 利用LSTM路径提取时间特征, 同时利用CNN提取空间特征. 在C-MAPSS (Commercial modular aero-propulsion system simulation)数据集[15]上验证了该模型的优越性. Ayodeji等[16]提出利用扩展卷积来扩大感受野, 增强时间序列的全局特征提取. 然后采用增强的LSTM网络捕获长期依赖关系, 并进一步提取代表不同操作条件的多尺度特征. Li等[17]提出了一种基于卷积块注意模块(Convolutional block attention module, CBAM)的改进CNN-LSTM模型. 利用多层CNN提取飞机发动机运行数据的特征, 然后利用CBAM处理通道和空间维度上的注意机制, 识别与RUL相关的关键变量. 最后, LSTM学习特征和服务时间之间的隐藏关系, 进而实现预测. 这些CNN-LSTM融合模型在捕捉发动机数据中的复杂模式方面, 相较于单独的CNN或LSTM模型, 表现出了明显的优势.
注意力机制的引入使得深度学习模型能够有效地专注于RUL预测任务的重要数据特征, 从而提高航空发动机预测的准确性. Liu等[18]直接将特征注意机制应用于输入数据, 在训练过程中为更重要的特征动态分配更大的注意权值. 随后, 采用双向门控循环单元(Bidirectional gated recurrent units, BGRU)从加权输入数据中提取长期依赖关系, CNN从BGRU的输出序列中捕获局部特征. 最后, 全连接网络用于特征抽象表示和预测剩余寿命. Xu等[19]提出了一种并行的一维CNN和池化层来从多个信号中提取和融合特征. Zhang等[20]引入了一种具有时间自注意机制的双向GRU (Bidirectional gated recurrent unit-temporal self attention mechanism, BiGRU-TSAM)用于RUL预测, 每个时间步根据其重要性被分配一个自学习权值. Wang等[21]提出了一种完全基于注意机制的模型, 利用多头自注意力提取时间序列之间的依赖关系. Xu等[22]将全局注意与自注意机制和时间卷积网络(Temporal convolutional network, TCN)相结合, 提出了一种端到端的深度学习RUL预测方法. Zhao等[23]提出了一种多尺度集成深度自注意网络(Multi scale integrated deep self network, MSIDSN), 该网络使用多尺度块结合自注意策略在不同尺度上选择性地提取特征. RNN模块用于提取退化特征, 然后融合这些特征以准确预测飞机发动机的剩余寿命. Zhu等[24]提出了一种旋转机械剩余寿命预测方法, 该方法使用具有自注意机制的残差混合网络构建健康指标. 为了解决长序列预测任务中提取局部和全局特征的挑战, Li等[25]提出了一种多任务时空增强网络(Multi task spatio-temporal augmented net, MTSTAN). 该算法利用通道关注机制增强不同传感器数据的局部特征, 采用带跳跃连接的因果增强卷积网络实现时间序列上的全局特征提取. 实验结果表明, 增强局部和全局时间序列特征能有效提高预测精度. Zhang等[26]提出了一种基于注意力机制的时间卷积网络(Attention based temporal convolutional network, ATCN) 用于剩余寿命预测. 采用了改进的自注意机制对不同时间步的输入特征进行加权, 同时使用时间卷积网络捕捉长期依赖关系并基于加权特征提取特征表示.
随着研究的深入, 学者们开始探索更为复杂和高效的时间序列预测方法. Transformer架构作为一种自注意力机制模型, 最初是为自然语言处理任务设计的[27], 已经有效扩展到时间序列数据[28−29]的处理. Zerveas等[30]利用Transformer的多头注意机制同时考虑来自多个时间步长的上下文信息, 使模型能够学习不同的注意模式, 以改进对多变量时间序列数据的处理. Li等[31]观察到Transformer架构的点积自注意机制存在局限, 特别是其对局部上下文的敏感性不足. 为了解决这个问题, 提出了卷积自注意机制, 引入查询和键来更好地将局部上下文融入注意机制. 进一步开发了LogSparse Transformer, 以提高对具有细粒度和强烈长期依赖性的时间序列的预测精度. 认识到Transformer在局部特征提取方面存在局限性, Mo等[32]将Transformer编码器作为预测模型的核心, 以捕捉时间序列中的短期和长期依赖关系. 通过引入门控卷积单元增强模型在每个时间步中融入局部上下文的能力. 这些改进旨在增强模型捕捉全局依赖性和复杂局部特征的能力, 使其更适用于时间序列数据建模. Guo等[33]提出了一种在飞机发动机中进行RUL预测的新方法. 使用一维卷积网络设计了一个具有沙漏形状结构的多尺度特征提取器. 随后, 使用一个增加了金字塔注意机制的Transformer编码器和解码器, 进一步从融合的多尺度特征中提取特征进行RUL预测. 这种方法旨在充分发挥卷积和Transformer架构的优势, 更有效地进行RUL预测中的特征提取.
为了解决Transformer在应用于时间序列数据时局部特征提取的局限性, 提出了一种新颖的预测模型, 命名为MS_Transformer. 该模型将多尺度局部特征增强单元与Transformer编码器结合, 以有效捕捉数据中的局部和全局依赖关系. 多尺度局部特征增强单元通过堆叠多个因果卷积层组合不同时间尺度的特征. 通过考虑各个尺度的时间上下文, 增强了更具信息性的特征表示的整合. 因果卷积用于从时间序列中提取局部特征, 确保卷积核的感知域仅覆盖过去的时间步, 防止未来数据泄露. 与此同时, Transformer编码器利用注意机制同时处理整个数据序列. 这使得模型能够捕捉时间序列中的长期依赖关系, 提供对时间模式的全面理解. 在四个广泛使用的基准数据集上进行了大量实验, 验证了MS_Transformer方法的有效性和鲁棒性.
本文的主要工作有以下几点:
1) 设计了一个多尺度局部特征增强单元, 用于在多个尺度上提取特征. 该单元增强了模型描述局部特征的能力, 使其能够捕捉不同粒度级别的信息. 在局部特征提取过程中采用了因果卷积操作, 确保模型仅依赖于历史数据进行预测, 解决了潜在的未来数据泄漏问题.
2) 提出了一种用于预测飞机发动机剩余寿命的预测模型. 该模型巧妙地融合了多尺度局部特征与Transformer全局学习的优势, 从而能更全面地捕捉数据中细粒度局部细节与全局模式.
3) 在C-MAPSS基准数据集上进行了大量的消融和预测实验, 验证了MS_Transformer模型的合理性和有效性, 展示了其准确预测RUL的能力.
1. 基于MS_Transformer的剩余寿命预测方法
1.1 MS_Transformer预测模型
本文提出的MS_Transformer剩余寿命预测模型的结构如图1所示, 主要包括多尺度局部特征增强单元(MSLFU_BLOCK)、Transformer 编码器和全连接输出层. 表征发动机状态的传感器监测数据通过数据归一化等预处理, 采用滑动窗口方法提取时间窗数据, 输入到MSLFU_BLOCK提取时间序列数据中的局部特征模式. MSLFU_BLOCK采用因果卷积逐层提取多尺度局部信息, 确保模型仅使用历史数据而不会利用未来数据, 克服以往单一尺度固定窗口的局限性并获得多尺度信息的建模能力. 将Transformer编码器作为骨干网络进一步捕捉时间序列中的短期和长期依赖关系, 以提高模型的预测性能. 全连接输出层将Transformer编码器学习到的特征映射成输出预测值. 接下来将详细描述每个模块的结构和作用.
1.2 因果卷积
时间序列数据具有严格的时间顺序性, 其中每个数据点的前后顺序对于了解其因果关系至关重要. 传统卷积并未针对时间顺序进行优化, 其卷积核可以访问时间序列中未来的数据点, 导致未来数据泄漏问题. 为了避免模型从未来的数据点中获取信息进而给出不合理的预测, 本文采用因果卷积来处理时序数据, 即限制卷积核只能访问过去的数据点, 从而确保模型在建模时间序列时不会依赖未来数据. 两种卷积运算过程示意图如图2所示. 图中Input为输入时间序列层, Hidden layer对输入层进行一次卷积运算, Output层对Hidden layer的输出又进行一次卷积, 可以看到Hidden layer和Output层的输出对应于不同感受野、不同时间尺度的特征. 右图示意的因果卷积只使用历史数据, 而左图示意的传统卷积用到了未来数据. 假设输入序列为X, 卷积核为h, 使用一次因果卷积后的输出可表示为式(1).
$$ \boldsymbol{y}_t=(\boldsymbol{X}*\boldsymbol{h})_t=\sum\limits_{i=0}^{k-1}\boldsymbol{h}_i\times\boldsymbol{X}_{t-i} $$ (1) 其中, $* $表示卷积运算. $ {\boldsymbol{y}}_{t} $表示输出序列的第t个元素. $ {\boldsymbol{X}}_{t-i} $表示输入序列的第$t-i $个元素, $i $取值从0到$k-1 $, k表示卷积核的大小, $ {\boldsymbol{h}}_{i} $表示卷积核的第i个权重. 如不考虑批大小, ${\boldsymbol{X}}$的维度为[window_length, feature_size], 卷积核${\boldsymbol{h}}$的维度为[d, feature_size, k], 输出${\boldsymbol{y}}$的维度为[window_length, d], 其中window_length为时间序列窗口长度, feature_size为传感器的特征数, d是Transformer encoder的编码长度. 在边缘位置进行适当填充, 保证输出和输入维度一致. 随着神经网络的深度增加, 因果卷积神经网络中的每一层会逐渐扩大其感受野, 以更全面地捕捉来自前一层神经元的历史信息. 在图2所示的因果卷积神经网络中, 通过堆叠2个卷积核大小为3的因果卷积层来构建. 经过2次卷积操作后, 输出将包含一个感受野跨度为5的历史信息范围.
1.3 多尺度局部特征增强单元
传统的卷积操作擅长提取图像等类型数据的局部信息, 对于时间序列数据处理的适应性较差. 为了从时间序列数据中提取局部特征, 本文引入了一维因果卷积以捕捉相邻时间点之间的相关局部模式, 通过多层因果卷积获得不同时间尺度的特征. 进一步将这些特征组合起来得到多尺度局部特征描述, 这一处理模块被称为多尺度局部特征增强单元(MSLFU_BLOCK). MSLFU_BLOCK的原理示意图如图3所示, 展开的卷积示意图如图3(a)所示, 上一层的输出用作下一层的输入, 不同因果卷积层提取了不同的时间尺度特征. 将每层提取的特征相加作为MSLFU_BLOCK的输出. 具体的运算过程如图3(b)所示, 其中Conv1表示因果卷积运算, Chomp模块通过零填充的方法实现输出序列与输入序列的长度相同.
最终, MSLFU_BLOCK的输出$ {\boldsymbol{O}}^{(1)} $是对应卷积结果$ {\boldsymbol{Out}}_{1} $到$ {\boldsymbol{Out}}_{n} $的累加, 并加上输入${\boldsymbol{X}}$, 计算过程表示为式(2).
$$ \boldsymbol{O}^{(1)}=\boldsymbol{X}+\sum_{i=1}^n\boldsymbol{Out}_i $$ (2) 综上所述, 多尺度局部特征增强单元结合了一维因果卷积和层次结构的设计, 用于处理时间序列建模任务, 能够捕捉时间模式的局部相关性. 它具有三个显著特点: 1) 输出包含了时间序列的多尺度局部特征; 2) 确保不会有未来数据泄露问题; 3) 可接受任意长度的时间序列作为输入, 在映射至下一层时保持输出序列与输入序列长度相同.
1.4 Transformer编码器
在本研究中, 使用Transformer编码器对多尺度局部特征增强单元提取的特征进行进一步处理. 编码器由N个相同的Block组成, 如图1所示.
1.4.1 位置编码
Transformer编码器模型引入了位置编码${\boldsymbol{P}}$, 将序列中的时间先后信息融入到模型中. 位置编码是一个与输入序列维度相同的矩阵. 通过将位置编码与MSLFU_BLOCK的输出相加, 模型能够学习到序列中不同位置的相对关系. $ {\boldsymbol{P}}$中的元素使用式(3)和(4)计算.
$$ \boldsymbol{P}_{(i,2s)}=\sin\left(\frac{i}{10000^{2s/d}}\right) $$ (3) $$ \boldsymbol{P}_{(i,2s+1)}=\cos\left(\frac{i}{10000^{2s/d}}\right) $$ (4) 其中, $ i $表示序列中的位置, 从1开始递增. $ s $表示维度的索引, 从0开始递增. $ d $是MSLFU_BLOCK输出的特征维度.
1.4.2 多头注意力
在多头注意力中, MSLFU_BLOCK的输出和位置编码叠加后的序列通过多个独立的注意力头将特征映射到不同的子空间, 每个头都学习不同的关注权重, 以捕捉时间序列中不同的关系和特征. 每个注意力头的核心是自注意力机制(Self-attention), 此时输入$ {\boldsymbol{Z}} $为$ {\boldsymbol{O}}^{(1)} $+$ {\boldsymbol{P}} $, 输入分别乘以第j个头查询、键和值的权重矩阵$ {\boldsymbol{W}}_{j}^{q} $, $ {\boldsymbol{W}}_{j}^{k} $, $ {\boldsymbol{W}}_{j}^{v} \in {\bf{R}}^d $得到相应的$ {\boldsymbol{Q}}_{j} $, $ {\boldsymbol{K}}_{j} $, $ {\boldsymbol{V}}_{j} $, 计算如式(5) ~ (7) 所示.
$$ {\boldsymbol{K}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^k $$ (5) $$ {\boldsymbol{V}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^v $$ (6) $$ {\boldsymbol{Q}}_j={\boldsymbol{Z}} {\boldsymbol{W}}_j^q $$ (7) 然后引入缩放的点积注意力机制, 计算如式(8) 所示.
$$ {\rm{Attention}}\left({\boldsymbol{Q}}_j,\; {\boldsymbol{K}}_j,\; {\boldsymbol{V}}_j\right)={\rm{softmax}}\left(\frac{{\boldsymbol{Q}}_j {\boldsymbol{K}}_j^{{\rm{T}}}}{\sqrt{d_k}}\right) {\boldsymbol{V}}_j $$ (8) 其中, $ d_k $是查询和键向量的维度.
多个注意力头将输入映射到不同的子空间进行自注意力机制运算, 输出被合并得到最终的多头注意力输出. 最终多头注意力的输出可表示为式(9).
$$ \begin{split} &{\rm{MultiHead }}({\boldsymbol{Q}},\;{\boldsymbol{K}},\; {\boldsymbol{V}})=\\ &\qquad{\rm{Concat}}\left(\left\{{\rm{head }}_j\right\}_{j=1}^H\right) {\boldsymbol{W}}^{\circ} \end{split} $$ (9) 其中, $ {\rm{head}}_j \;=\; {\rm{Attention}}({\boldsymbol{Q}}_j,\;\; {\boldsymbol{K}}_j,\;\; {\boldsymbol{V}}_j),\;\; {\boldsymbol{W}}^{\circ}\;\; \in {\bf{R}}^{Hd_k \times d} $, H为注意力头个数, $ d_k=d/H $.
1.4.3 前馈网络部分
前馈网络是Transformer模型中的另一个重要组件, 由两个线性变换单元和一个非线性激活函数(通常是ReLU) 组成. 其输入${\boldsymbol{R}}$为LayerNorm($ {\boldsymbol{Z}} $+ MultiHead($ {\boldsymbol{Q}} $, $ {\boldsymbol{K}} $, $ {\boldsymbol{V}} $)), LayerNorm表示层归一化操作. 前馈网络的计算过程可通过式(10) 来表示.
$$ {\rm{FFN}}({\boldsymbol{R}})={\boldsymbol{W}}_2 \cdot {\rm{ReLU}}\left({\boldsymbol{W}}_1 {\boldsymbol{R}}+b_1\right)+b_2 $$ (10) 其中, $ {\boldsymbol{W}}_1 $和$ {\boldsymbol{W}}_2 $为权值矩阵, $ b_1 $和$ b_2 $为偏置向量. 再经过残差连接和层归一化后的输出$ {\boldsymbol{O}}^{(2)} $为式(11).
$$ {\boldsymbol{O}}^{(2)}={\rm{LayerNorm }}({\boldsymbol{R}}+{\rm{FFN }}({\boldsymbol{R}})) $$ (11) 1.5 RUL估计
最后通过全连接层将Transformer编码后的特征向量映射成RUL估计值. 此时, 经过$ N $个BLOCK编码器的输出表示为$ {\boldsymbol{O}}^{(2 N)} $, $ {\boldsymbol{O}}^{(2 N)} \in {\bf{R}}^{d} $. 则全连接层的输出可通过式(12)表示.
$$ y={\rm{Sigmoid}}\left({\boldsymbol{W}}_0{\boldsymbol{O}}^{(2 N)}+b_0\right) $$ (12) 其中, $ y $是输入序列的RUL估计值, 应用Sigmoid函数将模型的输出限定在0和1之间, $ {\boldsymbol{W}}_{0} $和$b_{0} $是需要优化的参数. 此时得到的RUL值乘以125实现反归一化, 即变换到原空间评估其预测性能.
2. 实验分析
本节对提出的MS_Transformer模型在C-MAPSS基准数据集上的性能进行全面评估. 随后, 将详细介绍数据预处理步骤、使用的评估指标、参数设置、消融实验的设计, 以及与先进方法的比较结果. 所有实验均在一台配备了Intel(R) Core(TM) i5-1035G1 CPU (4核处理器) 和NVIDIA GeForce MX350显卡的计算机上进行. 使用PyTorch框架进行模型的训练和测试. 损失函数采用了预测RUL值与实际值之间的均方误差.
2.1 数据预处理
实验数据来源于NASA的C-MAPSS[15]航空发动机仿真模型. 该数据集由美国国家航空航天局提供, 且被广泛用于验证工业剩余寿命预测模型性能的研究. 该数据集包含FD001、FD002、FD003和FD004四个不同的子集, 各个子集的参数设置和操作条件有所不同, 模拟了发动机在不同情况下的性能和健康状态, 以便评估RUL预测模型在各种挑战条件下的性能, 其相关参数如表1所示.
表 1 C-MAPSS数据集的属性Table 1 Attributes of the C-MAPSS dataset参数 FD001 FD002 FD003 FD004 训练集中发动机个数 100 260 100 249 测试集中发动机个数 100 259 100 248 操作条件 1 6 1 6 错误模式 1 1 2 2 训练集大小 20632 53760 24721 61250 测试集大小 13097 33992 16597 41215 每个子集由训练集和测试集组成, 其中训练集记录了航空发动机的多个状态参数从正常到故障的完整周期内每个时间序列的采样值; 测试集则包含了故障前某一时间点之前的状态参数值以及对应的剩余寿命. 属性包含发动机编号、循环次数、操作条件和21个传感器测量数据, 共计26个数据字段. 以FD001子集为例, 传感器1、5、6、10、16、18和19的测量值在整个使用寿命期间都保持恒定, 因此它们不提供有关RUL预测的有用的退化信息. 最终选择了与发动机剩余寿命相关的14个传感器特征作为预测输入, 包括低压压气机出口总温、高压压气机出口总温、低压涡轮出口总温、高压压气机出口总压、风扇物理转速、核心机物理转速、高压压气机出口静压、燃油流量与高压压气机出口总压比值、风扇换算转速、涵道比、引气焓值、高压涡轮冷却引气流量、低压涡轮冷却引气流量和使用周期. 其他三个数据集采用相同的特征选择方法.
用于预测建模的14个传感器数据均采用最大最小归一化方法. 这种处理有助于后续的数据操作和网络训练过程收敛. 在实验中, 分别在四个数据集(FD001、FD002、FD003和FD004) 中随机选择一个发动机, 并将其监测参数值的变化曲线展示在图4中. 从图中可以看出, 不同数据集中的发动机状态参数的变化趋势各异, 因此在这些参数上建立统一的预测模型是一项具有挑战性的任务.
考虑到发动机初期性能较为稳定, 退化趋势不明显, 运行一段时间后发生退化. 据此, 使用分段线性回归模型, 如Zheng等[7]将设备的剩余寿命划分为常数阶段和线性递减阶段. 根据目前已有的研究成果, 其中常数阶段的剩余寿命值设置为125.
2.2 评估指标
为了评价预测性能, 使用发动机剩余寿命预测和回归算法评价中常用的惩罚得分和均方根误差(Root mean square error, RMSE)指标.
RMSE表示预测值和真实值之间残差的样本标准差, 用于衡量预测结果的离散程度, 其计算如式(13)所示.
$$ R M S E=\sqrt{\frac{1}{\left|D_{{\rm{test }}}\right|} \sum\limits_{x_i \in D_{{\rm{test }}}}\left(y_i-\hat{y}_i\right)^2} $$ (13) 其中, $y_i $为第$i $个测试发动机$x_i $对应的真实寿命, $ \hat{y}_i $为对应的预测寿命, $ D_{\rm{test}} $表示测试集, $ |D_{\rm{test}}| $为测试样本个数. 将发动机剩余寿命预测误差定义为 $ \Delta y_i= \hat{y}_i-y_i $. 根据预测误差的大小, 将预测结果分为提前预测、滞后预测和准确预测3种, 当$ \Delta y_i< -13 $时对应于提前预测, 当$ \Delta y_i> 10 $时对应于滞后预测, 当$ -13 \leq \Delta y_i \leq 10 $时对应于准确预测. 考虑到滞后预测比提前预测带来的后果更为严重, 惩罚得分Score指标对滞后预测进行了惩罚, 其计算方法如式(14)所示.
$$ {{Score }}=\left\{\begin{aligned} &\sum\limits_{i=1}^{\left|D_{{\rm{test }}}\right|} {\rm{e}}^{-\left(\frac{\Delta y_i}{13}\right)}-1,&& \Delta y_i<0 \\ &\sum\limits_{i=1}^{|D_{{\rm{test }}} \mid} {\rm{e}}^{\left(\frac{\Delta y_i}{10}\right)}-1,&& \Delta y_i \geq 0 \end{aligned}\right. $$ (14) 2.3 超参数设置
在训练过程中, 为了展示所提模型的适应性, 在四个数据集上均采用统一的参数设置: 批量大小(Batch size) 为8, 学习率(Learning rate) 为0.002, 训练周期(Training epoch) 为30, 丢失率(Dropout rate) 为0.01, 时间窗口大小(Time window size) 为60, 编码器层数为1, 因果卷积层数为2. 对于长度小于60的发动机记录, 采用线性插值方法对时间序列进行扩展, 使其满足所提模型最小输入长度为60的需求.
2.4 结果验证
以下从两个方面测试所提预测模型在C-MAPSS数据集上的性能.
1) 评估整个测试集上所有发动机的RUL预测性能
首先, 使用训练好的MS_Transformer模型在C-MAPSS四个测试集上进行了RUL预测. 为了更好地观察预测结果, 将发动机编号按照剩余寿命递减的顺序重新排列, 图5展示了模型的预测结果与实际RUL之间的对比. 横轴表示重新排序后的发动机测试样本编号, 纵轴表示RUL值.
从图5可以看出, 模型的RUL预测值与实际RUL在大多数情况下具有一致性. 这表明模型对于RUL的趋势有着良好的捕捉能力.
基于上述实验所用的计算资源, 本文所提方法在FD001 ~ FD004四个数据集上的训练时间分别为0.51 h、2.97 h、0.67 h和3.69 h. 同时, 在四个数据集上的平均预测时间(包括数据预处理时间) 为32 ms. 对于发动机寿命预测这类实时性要求不高的应用场景, 预测时间完全满足需求.
2) 在单个发动机的全测试谱上评估模型
除了用上述评估方法验证模型性能外, 还对模型在不同数据库不同操作条件下的发动机全测试谱上的性能进行评估. 图6(a) ~ 6(d)展示了从测试数据集中随机选择的发动机的模型预测性能, 其中“Predicted RUL”表示模型的预测结果, 而“Actual RUL”则表示C-MAPSS提供的真实RUL值. 目的是验证模型在整个发动机使用寿命期间的预测表现, 更全面地考察模型在不同数据情境下的可靠性和泛化能力.
从图6(a) ~ 6(d)中可以观察到, 在分段线性近似方法的早期寿命值设置为恒定值时, 模型预测值也比较平稳; 当发动机的剩余使用寿命出现下降趋势时, 模型的预测结果也趋于下降; 直观上验证了预测模型的有效性. 在发动机寿命由恒定值转变为线性下降时, 预测值存在一定的偏差. 然而, 随着发动机寿命的递减, 可以观察到模型的RUL估计逐渐改善, 这一趋势在曲线尾部更为显著. 这是因为随着发动机接近寿命终点, 退化特征更为显著, 模型能够更准确地捕捉数据的模式, 从而实现更准确的预测结果, 这一结果符合当发动机剩余使用寿命越短时期望预测结果越准确的需求.
2.5 与先进方法的比较
为了对所提方法进行定量评估, 选择了13种先进的深度学习方法进行对比实验, RMSE和Score指标值如表2所示. 通过对比实验结果可以看出, 在较复杂的FD002和FD004数据集上, MS_Transformer方法取得了最佳性能, 这表明MS_Transformer针对复杂数据的建模能力较强. 而且, 在四个数据集上的RMSE和Score的平均值也表现出最佳. 与之前最先进方法MHT相比, 该方法将卷积和Transformer架构的优势结合起来, 以增强在RUL预测中的特征提取能力, MS_Transformer将RMSE指标降低了7.04%, 在Score指标上降低了20.63%. 所提出的MS_Transformer模型与GCU_Transformer模型均以Transformer的编码器作为主干网络, 在FD002数据集上, MS_Transformer对应的RMSE降低了47.48%; 在FD004数据集上, RMSE降低了41.79%. GCU_Transformer模型在FD001和FD003数据集上采用了和FD002和FD004数据集不同的超参数设置, 而MS_Transformer模型在四个数据集上采用了相同的超参数设置. MS_Transformer模型相比GCU_Transformer模型在FD001和FD003数据集上的RMSE分别增加了4.61%和4.64%, 但在四个数据集上的平均RMSE降低了28.65%, 结果说明了MS_Transformer模型采用的局部特征增强单元更有效.
表 2 与先进方法相比较Table 2 Comparison with state-of-the-art methods方法 FD001 FD002 FD003 FD004 Average RMSE Score RMSE Score RMSE Score RMSE Score RMSE Score LSTM (2017)[7] 16.14 338.00 24.49 1718.00 16.18 852.00 28.17 2238.00 21.25 1286.50 DCNN (2018)[11] 12.61 274.00 22.36 4020.00 12.64 284.00 23.31 5027.00 17.73 2401.25 HDNN (2019)[14] 13.02 245.00 15.24 1282.42 12.22 287.72 18.16 1527.42 14.66 835.64 AGCNN (2021)[18] 12.42 225.51 19.43 1492.00 13.39 227.09 21.50 3392.00 16.68 1334.15 GCU_Transformer (2021)[32] 11.27 — 22.81 — 11.42 — 24.86 — 17.59 — BiGRU-TSAM (2022)[20] 12.56 213.35 18.94 2264.13 12.45 232.86 20.47 3610.34 16.10 1580.17 IDMFFN (2022)[13] 12.18 204.69 19.17 1819.42 11.89 205.54 21.72 3338.84 16.24 1392.12 MTSTAN (2023)[24] 10.97 175.36 16.81 1154.36 10.90 188.22 18.85 1446.29 14.38 741.06 Encoder-Attention (2023)[21] 10.35 183.75 15.82 1008.08 11.34 219.63 17.35 1751.23 13.72 790.67 MSIDSN (2023)[23] 11.74 205.55 18.26 2046.65 12.04 196.42 22.48 2910.73 16.13 1339.83 ATCN (2024)[26] 11.48 194.25 15.82 1210.57 11.34 249.19 17.80 1934.86 14.11 897.22 MHT (2024)[33] 11.92 215.20 13.70 746.70 10.63 150.50 17.73 1572.00 13.50 671.10 MachNet (2024)[34] 11.04 176.82 24.52 3326.00 10.59 161.26 28.86 5916.00 18.75 2395.02 Ours 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 12.55 532.67 实验结果表明, 该方法在更为复杂的FD002和FD004数据集上取得了最优的性能. 然而, 在操作条件简单的FD001和FD003数据集上, 其性能没有达到最佳水平. 这表明, 所提出的方法更适合复杂操作条件的发动机剩余寿命预测任务.
2.6 消融实验
消融实验的结果汇总于表3中. 本预测模型MS_Transformer主要由三个关键组件构成: 多尺度局部特征增强单元(MSLFU_BLOCK)、Transformer编码器和具有Sigmoid函数映射的输出层. 在本节中, 为深入探究多尺度局部特征增强单元在模型中所起的关键作用, 从MS_Transformer架构中剔除了MSLFU_BLOCK部分, 相应的模型表示为MS_Transformer (w/o MS). 在此基础上, 进一步移除了输出层中的Sigmoid函数, 并将改动后的模型记为MS_Transformer (w/o s & MS). 另外, 为了评估因果卷积的实际效能, 以常规卷积代替因果卷积, 并将对应的模型表示为MS (CNN)_Transformer.
表 3 消融实验结果Table 3 Results of ablation experiment方法 FD001 FD002 FD003 FD004 RMSE Score RMSE Score RMSE Score RMSE Score MS_Transformer 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 MS (CNN) _Transformer 12.82 254.36 13.72 1098.09 13.80 325.05 15.93 1372.87 MS_Transformer (w/o MS) 13.20 275.59 15.78 1430.90 14.45 445.51 18.48 1754.22 MS_Transformer (w/o s & MS) 13.91 298.18 15.91 1497.41 16.10 552.61 19.03 1992.69 从表3中可以看出, 在所有数据集上, 相比去除多尺度局部特征提取模块的模型, MS_Transformer模型具有更低的RMSE值和Score值, 这表明多尺度局部特征提取模块能够有效地提高模型对数据的拟合度, 减少了预测误差, 提高了预测的准确性和稳定性. 值得注意的是, 当在MS_Transformer (w/o MS) 模型中加入多尺度局部特征提取模块后, 模型在四个数据集上的性能提升幅度并不相同. 具体来说, RMSE指标在四个数据集上分别下降了10.68%、24.08%、17.30%和21.70%. 这暗示了不同数据集的局部特征对于模型性能提升的影响不同. 数据集的不同特性导致多尺度局部特征提取模块的作用程度有所不同, 但每个数据集上均能较大幅度地提高模型性能. 这些实验结果证实了多尺度局部特征提取模块在提升模型性能方面的关键作用, 以及其在不同数据集上的较好适用性.
通过将多尺度局部特征提取模块中的因果卷积替换为常规卷积, 即采用常规卷积代替因果卷积的方法MS (CNN)_Transformer, 并未带来预测性能的提升. 相反, 在所有数据集上, 相较于MS_Transformer模型, MS (CNN)_Transformer模型的RMSE和Score值均有所上升, 表明预测精度下降. 这一结果说明了因果卷积在多尺度局部特征提取模块中的有效性. 这可能是因为因果卷积在处理时间序列数据时, 更能有效地保持时间顺序信息的完整性, 从而帮助模型更精确地捕捉数据中的局部时间上下文特征. 通常, 常规卷积在处理时间序列数据时可能引发未来信息的泄露, 进而对模型的性能产生不利影响.
MS_Tranformer (w/o s & MS)模型在四个数据集上的RMSE和Score指标值均出现了不同程度的增加, 这也证实了Sigmoid缩放在RUL估计中的有效性.
2.7 参数敏感性分析
2.7.1 滑动窗口长度
表4给出了不同滑动窗口长度对应的性能评价指标值. 对于时间序列数据集, 窗口长度是深度学习模型所必需的重要参数, 它直接影响着模型的预测精度. 然而, 目前尚缺乏确定最佳窗口长度的明确标准. 因此, 本研究根据最近相关文献的实验结果尝试了一系列窗口长度值($L $ = 30、40、50、60、70). 如表4所示, 当窗口长度从30增加到60, 四个数据集上的RMSE值整体上都降低了. 同时, 除了FD001数据集窗口长度从30到50和FD003数据集窗口长度为40的情况外, Score指标也主要呈现下降趋势. 然而, 当进一步将窗口长度增加到70时, 可以观察到FD002和FD004数据集的性能略有改善, 而FD001和FD003数据集上的预测性能明显下降. 考虑到模型的性能、计算资源的利用率以及对数据记录长度的需求, 选择窗口长度为60.
表 4 不同窗口长度对应的预测指标值Table 4 Predictive metric values corresponding to different window lengths滑动窗口长度 FD001 FD002 FD003 FD004 RMSE Score RMSE Score RMSE Score RMSE Score $L=30 $ 12.89 264.78 14.38 1011.04 13.73 279.99 17.20 1858.13 $L=40 $ 12.67 268.07 13.42 854.88 12.21 213.13 16.74 1676.82 $L=50 $ 11.93 212.96 12.94 724.12 12.31 255.20 15.56 1375.81 $L=60 $ 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 $L=70 $ 12.23 242.86 11.75 587.67 12.59 266.96 14.26 1093.49 2.7.2 MSLFU_BLOCK中因果卷积层数
本实验探究了在相同的Transformer编码器下, MSLFU_BLOCK中因果卷积的层数对预测性能的影响, 表5给出了不同层数对应的预测指标值.
表 5 不同因果卷积层数对应的预测指标值Table 5 Predictive metric values corresponding to different numbers of causal convolution layers因果卷积层数 FD001 FD002 FD003 FD004 RMSE Score RMSE Score RMSE Score RMSE Score 1 12.28 270.33 12.64 749.42 12.60 278.99 16.31 1887.34 2 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 3 13.02 270.33 14.98 1225.98 14.19 367.16 17.30 2185.46 从表5可见, 在所有数据集上, 因果卷积层数的递增并不总是带来模型性能的线性提升. 具体来说, 当因果卷积层数从一层扩展至两层时, RMSE和Score值均出现了明显的下降, 这表明了模型性能在此阶段得到了显著的提升. 然而, 当因果卷积层数进一步增加至三层时, RMSE和Score值却出现了上升的趋势. 这一现象可能与输入的时间序列数据特性有关. 由于该数据所包含的特征信息有限, 过多的因果卷积层数可能导致模型在训练过程中过拟合. 这同时也暗示了多尺度局部特征提取模块的局部感受野应与数据特性相契合. 此外, 随着因果卷积层数的递增, 卷积层所需训练的参数数量和计算成本也会相应增加. 因此, 综合考虑模型性能、过拟合风险以及计算成本等因素后, 最终将因果卷积层数设定为2层.
2.7.3 Encoder layer的个数
本实验探究了在相同的MSLFU_BLOCK下, Transformer编码器的层数对预测性能的影响, 表6给出了不同Encoder layer个数对应的预测指标值.
表 6 不同数量的encoder layer对应的预测指标值Table 6 Predictive metric values corresponding to different numbers of encoder layers编码器层数 FD001 FD002 FD003 FD004 RMSE Score RMSE Score RMSE Score RMSE Score 1 11.79 224.36 11.98 608.88 11.95 225.05 14.47 1072.38 2 11.35 210.25 12.78 785.32 11.56 230.32 16.72 1785.03 3 11.95 223.25 12.58 735.32 11.86 235.46 15.72 1685.03 每个Encoder layer都可以提取不同层次的特征, 通过堆叠多个Encoder layer可以逐渐提取更高级别的特征, 从而增加模型的特征描述能力. 但同时, 增加Encoder layer的个数会增加模型的复杂度、训练时间以及过拟合风险. 因此, 在选择Encoder layer的个数时需要综合考虑模型性能、训练时间、计算资源和过拟合问题等因素. 实验过程中将Encoder layer的个数依次从1增加到3, 对应的预测性能指标值RMSE和Score显示在表6中. 实验结果表明, 随着Encoder layer数量的增加, 四个数据集上的RMSE和Score指标都没有明显提升, 说明MSFLU_BLOCK结合1层的Encoder layer已有足够的特征描述能力.
3. 结束语
1) 针对时间序列预测问题需解决局部和全局特征有效提取的问题, MS_Transformer模型采用了Transformer编码器作为骨干网络, 通过基于点积自关注的全局上下文感知机制获取时间序列的全局特征. 为了克服Transformer编码器在捕获相邻时间序列的合并局部上下文方面的限制, 引入了多尺度局部特征增强单元(MSLFU_BLOCK). 这两个关键组件的整合保证了MS_Transformer模型能够全面考虑局部和全局特征, 提高了发动机剩余寿命的预测准确性.
2) 为了解决时间序列中局部特征提取问题, 引入MSLFU_BLOCK提取局部上下文的多时间尺度特征, 多尺度局部特征使得模型能够更好地捕捉时间序列中的局部细节, 使用的因果卷积避免了未来数据泄露, 由多层因果卷积实现的MSLFU_BLOCK有助于提高预测性能.
3) 通过与13种先进方法的对比实验, MS_Transformer模型在操作条件更复杂的FD002和FD004数据集上获得了最优的RMSE和Score值. 在所有四个数据集上, 该模型的平均RMSE和Score最优, 验证了本研究提出的预测模型在发动机剩余使用寿命预测方面的有效性和优越性. 并表明MS_Transformer在不同数据集上均能够稳健地实现较好的性能.
本研究在不考虑预测性能对发动机操作条件复杂性的潜在敏感性的情况下, 基于相关运行数据建立了飞机发动机剩余使用寿命预测模型. 下一步的研究工作将包括通过特征可视化等方法, 深入分析不同操作场景下影响飞机发动机寿命的关键因素. 此外, 将提出的方法扩展到具有类似预测性维护需求的其他领域, 探索其对不同类型设备的适应性, 并评估其在各种应用场景中的稳健性和有效性.
-
表 1 基准问题
Table 1 Benchmark problems
问题 测试函数 维数 变量空间 全局/局部解个数 全局最优解的目标值 F1 Ellipsoid 10/20 $\boldsymbol{X} \in [-1,1]^{D}$ 1/0 0 F2 Ackley 10/20 $\boldsymbol{X} \in [-30,30]^{D}$ 1/many 0 F3 Rastrigin 10/20 $\boldsymbol{X }\in [-5.12,5.12]^{D}$ 1/many 0 F4 Rosenbrock 10/20 $\boldsymbol{X} \in [-2.048,2.048]^{D}$ 1/many 0 F5 Griewank 10/20 $\boldsymbol{X} \in [-600,600]^{D}$ 1/many 0 F6 Reverse five-uneven-peak trap 1 $\boldsymbol{X} \in [0,30] $ 2/3 −200 F7 Reverse equal maxima 1 $\boldsymbol{X} \in [0,1] $ 5/0 −1 F8 Reverse uneven decreasing maxima 1 $\boldsymbol{X} \in [0,1] $ 1/4 −1 F9 Reverse himmelblau 2 $\boldsymbol{X} \in [-6,6]^{D}$ 4/0 −200 F10 Six-hump camel 2 $x_1\in[-1.9,1.9], x_2\in[-1.1,1.1] $ 2/2 −1.031 6 F11 Reverse shubert 2 $\boldsymbol{X} \in [-10,10]^{D}$ 18/many −186.73 F12 Reverse vincent 2 $\boldsymbol{X} \in [0.25,10]^{D}$ 36/0 −1 F13 Reverse modified rastrigin 2 $\boldsymbol{X} \in [0,1]^{D}$ 12/0 2 F14 Reverse CF1 2 $\boldsymbol{X}\in [-5,5]^D$ 6/0 0 F15 Reverse CF2 2 $\boldsymbol{X}\in [-5,5]^D$ 8/0 0 F16 Reverse CF3 2 $\boldsymbol{X} \in[-5,5]^D $ 6/0 0 F17 Reverse CF4 3 $\boldsymbol{X}\in [-5,5]^D$ 8/0 0 F18 UrsemF4 back 2 $\boldsymbol{X }\in [-2,2]^{D}$ 2/0 −0.267 9 F19 Branin RCOS 2 $x_1\in[-5,10], x_2\in[0,15] $ 3/0 0.397 8 F20 Waves 2 $x_1\in[-0.9,1.2], x_2\in[-1.2,1.2]$ 1/9 −7.776 表 2 F6 ~ F20的幅值精度和距离精度
Table 2 Amplitude accuracy and distance accuracy for F6 ~ F20
F6 F7 F8 F9 F10 F11 F12 F13 F14 F15 F16 F17 F18 F19 F20 $R_{v}$ 1 0.05 0.1 0.5 0.05 10 0.1 0.5 1 1 1 1 0.1 0.1 0.5 $R_{d}$ 1 0.05 0.5 0.5 0.2 2 0.5 0.5 1 1 1 1 0.5 1 0.2 表 3 不同$g_{{\rm{max}}}$取值下IMPSO-HES所得的性能指标值
Table 3 Performance values obtained by IMPSO-HES under different $g_{{\rm{max}}}$ values
问题 $g_{{\rm{max}}}$ $GS $均值(标准差) $VR $均值 耗时(s) F5 (D = 10) 3 3.800 7 (3.5E+00)+ — 64 6 1.174 5 (3.7E−02) — 85 9 1.108 3 (2.5E−02) = — 116 F5 (D = 20) 3 8.198 0 (9.8E+00) + — 776 6 1.075 7 (1.6E−02) — 1 400 9 0.807 9 (2.8E−01) − — 2 045 F9 3 −199.93 (3.1E−03) = 0.68 11 6 −199.99 (1.0E−04) 0.70 19 9 −200.00 (1.4E−03) = 0.63 36 F10 3 −1.031 6 (1.7E−06) = 1.00 19 6 −1.031 6 (9.8E−07) 1.00 28 9 −1.031 6 (9.8E−07) = 1.00 38 F12 3 −0.999 0 (7.1E−06) = 0.13 10 6 −0.999 9 (1.0E−06) 0.13 14 9 −0.999 9 (2.2E−06) = 0.11 25 注: 加粗字体表示各组的最优结果值. 表 4 不同Q取值下IMPSO-HES所得的性能指标值
Table 4 Performance values obtained by IMPSO-HES under different Q values
问题 Q GS 均值(标准差) VR 均值 耗时(s) F5 (D = 10) K/5 1.658 1 (2.2E−01) + — 64 K/4 1.174 5 (3.7E−02) — 85 K/3 1.382 1 (1.5E−01) + — 108 K/2 1.269 6 (5.1E−02) + — 160 F5 (D = 20) K/5 1.980 0 (1.0E+00) + — 1137 K/4 1.075 7 (1.6E−02) — 1400 K/3 1.832 1 (1.1E+00) + — 1920 K/2 1.835 2 (1.7E+00) + — 2700 F9 K/5 −199.98 (7.2E−04) = 0.53 17 K/4 −199.99 (1.0E−04) 0.70 19 K/3 −199.98 (4.6E−04) = 0.55 24 K/2 −199.14 (6.8E+00) + 0.33 34 F10 K/5 −1.031 6 (1.1E−09) = 1.00 28 K/4 −1.031 6 (9.8E−07) 1.00 28 K/3 −1.031 6 (9.8E−07) = 1.00 30 K/2 −1.030 0 (1.4E−03) + 0.85 48 F12 K/5 −0.999 1 (2.3E−06) + 0.12 12 K/4 −0.999 9 (1.0E−06) 0.13 14 K/3 −0.999 6 (8.5E−07) + 0.10 18 K/2 −0.994 9 (9.2E−05) + 0.10 24 注: 加粗字体表示各组的最优结果值. 表 5 异构集成与同质集成下IMPSO-HES所得结果
Table 5 Performance values obtained by IMPSO-HES under heterogeneous and homogeneous ensemble
问题 算法 GS均值(标准差) VR均值 耗时(s) F5 (D = 10) IMPSO-PR 1.631 0 (7.1E−01) + — 86 IMPSO-RBFN 45.27 2 (8.9E+02) + — 39 IMPSO-HES 1.174 5 (3.7E−02) — 85 F5 (D = 20) IMPSO-PR 2.003 7 (2.9E+00) + — 1 478 IMPSO-RBFN 116.7 8 (9.5E+02) + — 180 IMPSO-HES 1.075 7 (1.6E−02) — 1 400 F9 IMPSO-PR −196.81 (9.5E+00) + 0.05 16 IMPSO-RBFN −199.99 (4.7E−07) = 0.65 22 IMPSO-HES −199.99 (1.0E−04) 0.70 19 F10 IMPSO-PR −0.962 0 (2.5E−03) + 0.2 17 IMPSO-RBFN −1.031 6 (9.8E−09) = 1.00 20 IMPSO-HES −1.031 6 (9.8E−07) 1.00 28 F12 IMPSO-PR −0.988 6 (1.5E−04) + 0.06 11 IMPSO-RBFN −0.999 5 (9.4E−07) + 0.09 19 IMPSO-HES −0.999 9 (1.0E−06) 0.13 14 注: 加粗字体表示各组的最优结果值. 表 6 不同更新概率$p_{m}$下IMPSO-HES所得结果
Table 6 Performance values obtained by IMPSO-HES under different $p_{m}$ values
问题 $p_{m}$ GS 均值 (标准差) VR 均值 耗时(s) F5 (D = 10) 固定 1.439 3 (3.8E−01) + — 84 自适应 1.174 5 (3.7E−02) — 85 F5 (D = 20) 固定 1.750 3 (1.7E+00) + — 1313 自适应 1.075 7 (1.6E−02) — 1400 F9 固定 −199.91 (2.6E−02) + 0.40 19 自适应 −199.99 (1.0E−04) 0.70 19 F10 固定 −1.031 6 (4.7E−08) = 1.00 26 自适应 −1.031 6 (9.8E−07) 1.00 28 F12 固定 −0.996 9 (4.8E−05) + 0.12 14 自适应 −0.999 9 (1.0E−06) 0.13 14 注: 加粗字体表示各组的最优结果值. 表 7 使用All-S和Mod-S时IMPSO-HES所得结果
Table 7 Performance values obtained by IMPSO-HES with All-S and Mod-S
问题 集成策略 GS 均值 (标准差) VR 均值 耗时(s) F5 (D = 10) All-S 3.878 5 (3.8E+00) + — 243 Mod-S 1.174 5 (3.7E−02) — 85 F5 (D = 20) All-S 8.838 7 (8.1E+00) + — 3 362 Mod-S 1.075 7 (1.6E−02) — 1 400 F9 All-S −187.33 (2.0E+2) + 0.05 80 Mod-S −199.99 (1.0E−04) 0.70 19 F10 All-S −0.9751 (1.4E−02) + 0.70 57 Mod-S −1.031 6 (9.8E−07) 1.00 28 F12 All-S −0.973 7 (1.9E−02) + 0.08 42 Mod-S −0.999 9 (1.0E−06) 0.13 14 注: 加粗字体表示各组的最优结果值. 表 8 不同模型更新策略下IMPSO-HES所得结果
Table 8 Performance values obtained by IMPSO-HES under different model update strategies
问题 更新策略 GS 均值 (标准差) VR 均值 耗时(s) F5 (D = 10) All-up 1.500 9 (3.9E−02) + — 97 Inc-up 1.174 5 (3.7E−02) — 85 F5 (D = 20) All-up 32.184 (2.4E+04) + — 1 509 Inc-up 1.075 7 (1.6E−02) — 1 400 F9 All-up −200.00 (3.6E-10) = 0.63 30 Inc-up −199.99 (1.0E−04) 0.70 19 F10 All-up −1.031 6 (1.2E−04) = 0.95 30 Inc-up −1.031 6 (9.8E−07) 1.00 28 F12 All-up −0.999 8 (2.7E−07) = 0.11 16 Inc-up −0.999 9 (1.0E−06) 0.13 14 注: 加粗字体表示各组的最优结果值. 表 9 IMPSO-HES与5种SAEA所得GS值(均值(方差))
Table 9 GS values obtained by IMPSO-HES and 5 SAEAs (mean (variance))
问题 D IMPSO-HES SA-COSO CAL-SAPSO Gr-based SAPSO PESPSO ESPSO F1 10 3.660 0 3.160 0− 0.115 3− 0.147 6− 0.296 2− 0.664 5− (4.2E+00) (6.5E−02) (4.9E−02) (1.1E−03) (1.3E−03) (5.0E−02) 20 21.398 11.017− 0.229 2− 0.027 9− 1.377 0− 1.866 4− (6.1E+01) (1.2E+01) (1.9E−02) (8.2E−06) (1.2E−01) (2.4E−01) F2 10 17.990 17.248= 18.606+ 15.910− 11.820− 13.786− (1.1E+00) (4.1E−02) (4.8E−01) (6.4E−01) (4.3E+00) (2.0E+00) 20 18.866 18.025− 18.421= 14.717− 12.584− 15.958− (9.0E−01) (4.4E−01) (2.4E+00) (1.1E+00) (2.3E+01) (1.6E+01) F3 10 78.266 97.683+ 79.727= 94.349+ 82.325= 89.952= (1.3E+02) (5.8E+02) (1.6E+03) (7.3E+01) (1.2E+02) (2.0E+02) 20 173.97 177.43= 128.71− 168.14= 173.99= 175.65= (2.4E+02) (6.6E+02) (4.0E+03) (1.6E+02) (1.7E+02) (1.1E+02) F4 10 37.310 537.31+ 39.003= 173.66+ 90.531+ 66.581+ (1.1E+02) (2.4E+04) (2.0E+02) (3.3E+02) (6.7E+02) (1.0E+02) 20 41.469 891.97+ 42.758= 330.37+ 97.508+ 195.90+ (5.7E+02) (1.7E+04) (2.0E+02) (3.9E+03) (6.8E+02) (1.9E+03) F5 10 1.174 5 66.556+ 1.736 4+ 1.310 6+ 2.798 7+ 2.317 2+ (3.7E−02) (1.8E+02) (1.4E−01) (1.7E−02) (2.4E+00) (3.9E−01) 20 1.075 7 43.897+ 2.255 3+ 1.057 2= 6.701 8+ 10.373+ (1.6E−02) (1.9E+02) (3.2E−01) (2.0E−05) (7.4E+00) (6.2E+00) F6 1 −199.15 −200.00− −200.00− −190.91+ −200.00− −200.00− (4.6E+00) (2.1E-10) (1.6E−09) (3.2E+01) (1.2E-13) (1.0E-11) F7 1 −0.999 9 −1.00= −0.505 2+ −0.999 1+ −0.999 9= −0.999 8= (3.1E−06) (0.0E+00) (1.2E−01) (1.1E−07) (2.7E−05) (3.8E−06) F8 1 −0.985 4 −0.980 8= −0.511 4+ −0.944 7+ −0.948 6+ −0.948 6+ (1.3E−05) (1.0E-10) (8.0E−02) (7.4E−04) (5.1E−04) (5.1E−04) F9 2 −199.99 −196.14+ −157.69+ −199.93+ −199.98= −199.74+ (1.0E−04) (3.8E+01) (8.6E+02) (5.1E−04) (2.7E−04) (6.4E−03) F10 2 −1.031 6 −0.995 6+ −0.464 6+ −1.030 6+ −1.030 3+ −1.029 2+ (9.8E−07) (1.6E−03) (1.3E−01) (1.9E−06) (1.7E−07) (5.3E−07) F11 2 −158.32 −89.368+ −52.464+ −113.85+ −130.53+ −94.463+ (1.9E+03) (2.4E+03) (2.6E+03) (3.5E+04) (2.5E+03) (1.5E+03) F12 2 −0.999 9 −0.979 8+ −0.719 4+ −0.984 5+ −0.995 4+ −0.980 0+ (1.0E−06) (5.6E−04) (9.0E−02) (1.9E−04) (2.0E−06) (5.5E−05) F13 2 2.232 9 2.890 3+ 7.846 7+ 2.298 5= 2.022 8− 2.060 9− (2.3E−01) (6.4E−02) (3.0E+01) (1.0E−01) (4.6E−03) (3.1E−03) F14 2 0.087 9 40.011+ 197.39+ 23.774+ 7.588 4+ 9.961 7+ (5.0E−01) (2.6E+02) (9.2E+03) (6.3E+03) (1.1E+02) (3.0E+02) F15 2 36.423 89.091+ 183.14+ 80.557+ 26.116= 57.889+ (3.7E+03) (2.7E+02) (3.6E+03) (1.1E+03) (7.6E+02) (2.8E+03) F16 2 0.242 3 90.430+ 350.88+ 60.296+ 1.162 1+ 18.280+ (1.3E−01) (1.2E+04) (4.8E+04) (3.2E+03) (2.5E+00) (1.2E+03) F17 3 32.566 88.270+ 173.56+ 57.380+ 26.079= 37.233= (2.0E+04) (5.3E+02) (2.6E+04) (2.1E+03) (6.2E+02) (6.0E+02) F18 2 −0.267 9 −0.245 7+ −0.130 4+ −0.267 1+ −0.267 8= −0.267 8= (1.6E−06) (3.6E−04) (5.6E−03) (6.8E−08) (1.6E−06) (5.4E−09) F19 2 0.399 9 1.148 8+ 2.260 3+ 0.425 9+ 0.424 9+ 0.513 6+ (2.4E−05) (8.6E−01) (6.2E+00) (1.3E−03) (1.2E−03) (5.3E−02) F20 2 −7.429 9 −7.776 0− −7.775 3− −6.340 8+ −7.294 3+ −7.451 1= (1.7E−02) (0.0E+00) (4.2E−06) (8.4E−01) (2.2E−01) (2.7E−01) 注: 加粗字体表示各行GS值的最优结果值. 问题 IMPSO-HES SA-COSO CAL-SAPSO Gr-based SAPSO PESPSO ESPSO F2 ~ F5 好/平/差 — 5/2/1 3/4/1 4/2/2 4/2/2 4/2/2 Rank 2.500 0 5.500 0 3.000 0 3.125 0 3.125 0 3.750 0 Adjusted p-value — 0.006 6 0.689 2 0.689 2 0.689 2 0.393 8 F6 ~ F20 好/平/差 — 11/2/2 13/0/2 14/1/0 8/5/2 9/4/2 Rank 1.833 3 4.166 6 5.433 3 4.000 0 2.266 6 3.300 0 Adjusted p-value — 0.001 6 0.000 0 0.002 5 0.525 8 0.039 5 注: 加粗字体表示各组的最优结果值. 表 11 处理F1 ~ F5时IMPSO-HES与7种多模态进化算法所得GS值(均值(方差))
Table 11 GS values obtained by IMPSO-HES and the 7 multimodal EAs on F1 ~ F5 (mean (variance))
问题 D IMPSO-HES LIPS EMO-MMO R3PSO FERPSO NCDE NSDE ANDE F1 10 3.6600 3.3110 −5.0580+ 5.9282 +4.3713 +5.7227 +5.8277 +5.2888 +(4.2E+00) (7.8E-01) (1.3E+00) (2.3E+00) (1.2E+00) (6.4E+00) (1.6E+00) (2.6E+00) 20 21.398 19.528= 26.709+ 31.059+ 18.792- 28.868+ 29.060+ 32.311+ (6.1E+01) (9.8E+00) (2.2E+01) (2.2E+01) (1.2E+01) (5.8E+01) (1.5E+01) (5.5E+01) F2 10 17.990 18.046= 18.022= 19.159+ 18.073= 19.411+ 19.432+ 19.523+ (1.1E+00) (8.1E−01) (7.0E−01) (3.9E−01) (1.06E+00) (1.3E+00) (3.0E−01) (1.5E−01) 20 18.866 18.924= 18.922= 19.663+ 19.313+ 19.895+ 20.108+ 19.950+ (9.0E-01) (3.6E+01) (1.7E−01) (6.5E−02) (2.5E−01) (9.9E−02) (4.9E−02) (8.2E−06) F3 10 78.266 95.069+ 89.325= 108.58+ 100.83+ 110.95+ 101.33+ 106.90+ (1.3E+02) (6.3E+01) (1.2E+02) (2.2E+02) (8.2E+01) (5.5E+02) (1.3E+02) (1.3E+02) 20 173.97 212.48+ 207.09+ 258.90+ 225.25+ 251.77+ 262.26+ 268.57+ (2.4E+02) (2.6E+02) (2.8E+02) (3.3E+02) (5.1E+02) (3.2E+02) (6.5E+02) (1.1E+02) F4 10 37.310 343.96+ 257.96+ 670.32+ 451.41+ 812.90+ 982.18+ 523.1+ (1.1E+02) (4.2E+05) (3.6E+05) (1.3E+05) (2.8E+04) (1.0E+05) (1.1E+05) (2.7E+05) 20 41.469 1431.9 +1399.6 +2853.3 +1722.6 +3031.2 +2737.0 +2416.1 +(5.7E+02) (1.1E+05) (1.5E+05) (3.6E+05) (5.1E+04) (6.9E+05) (7.1E+05) (1.6E+05) F5 10 1.1745 66.246+ 65.750+ 94.936+ 71.342+ 129.69+ 115.66+ 109.05+ (3.7E-02) (3.1E+02) (6.7E+02) (4.7E+02) (4.8E+02) (3.5E+02) (8.8E+02) (6.6E+01) 20 1.0757 160.00+ 156.27+ 305.74+ 194.22+ 298.18+ 300.28+ 300.13+ (1.6E-02) (4.8E+02) (1.1E+03) (7.0E+02) (1.5E+03) (3.7E+03) (2.1E+03) (2.2E+03) 注: 加粗字体表示各组的最优结果值. 表 12 处理F6 ~ F20时IMPSO-HES与7种多模态进化算法所得结果
Table 12 Results of IMPSO-HES and the 7 multimodal EAs on F6 ~ F20
问题 D IMPSO-HES LIPS EMO-MMO R3PSO FERPSO NCDE NSDE ANDE F6 GS 均值 −199.15 −185.64+ −196.52+ −190.93+ −186.31+ −191.25+ −197.86+ −195.52+ (标准差) (4.6E+00) (8.8E+01) (1.0E+02) (6.1E+01) (1.0E+02) (3.4E+02) (4.5E+01) (5.0E+02) VR 均值 0.80 0.20+ 0.40+ 0.10+ 0.00+ 0.65+ 0.75= 0.40+ F7 GS 均值 −0.999 9 −0.999 4+ −0.999 5+ −0.999 1+ −0.998 6+ −0.998 7+ −0.998 4+ −0.998 0+ (标准差) (3.1E−06) (7.3E−07) (2.5E−07) (7.2E−07) (1.0E−06) (8.5E−07) (5.6E−06) (4.6E−06) VR均值 0.78 0.78= 0.76= 0.70= 0.66+ 0.74= 0.78= 0.67+ F8 GS 均值 −0.985 4 −0.969 3+ −0.993 7− −0.993 1− −0.975 8+ −0.966 0+ −0.948 3+ −0.968 3+ (标准差) (1.3E−04) (6.8E−04) (2.5E−04) (6.7E−05) (4.1E−04) (8.9E−04) (5.1E−03) (3.1E−03) VR均值 1.00 0.80+ 0.90+ 1.00= 1.00= 0.90+ 0.60+ 0.80+ F9 GS 均值 −199.99 −197.58+ −197.79+ −196.99+ −196.92+ −197.04+ −196.10+ −197.22+ (标准差) (1.0E−04) (1.7E+00) (9.9E+00) (1.3E+01) (8.6E+00) (5.2E+00) (1.6E+01) (1.3E+01) VR均值 0.70 0.02+ 0.05+ 0.07+ 0.07+ 0.10+ 0.05+ 0.05+ F10 GS 均值 −1.031 6 −1.004 7+ −1.001 6+ −1.003 2+ −0.994 9+ −0.987 8+ −0.973 0+ −1.002 0+ (标准差) (9.8E−07) (3.6E−04) (2.8E−03) (2.8E−03) (8.8E−04) (8.7E−03) (5.0E−03) (3.4E−02) VR均值 1.00 0.55+ 0.10+ 0.45+ 0.30+ 0.40+ 0.35+ 0.5+ F11 GS 均值 −158.32 −105.20+ −134.50= −90.154+ −114.099+ −123.777+ −111.92+ −132.37= (标准差) (1.9E+03) (1.3E+03) (1.7E+03) (5.4E+02) (1.3E+03) (1.0E+03) (2.3E+03) (1.6E+03) VR均值 0.02 0.01= 0.01= 0.00+ 0.00+ 0.00+ 0.00+ 0.01= F12 GS 均值 −0.999 9 −0.973 3+ −0.975 3+ −0.972 7+ −0.976 4+ −0.976 4+ −0.989 0+ −0.988 7+ (标准差) (1.0E−06) (3.2E−04) (4.9E−04) (4.6E−04) (5.8E−04) (5.2E−04) (3.0E−04) (4.6E−03) VR均值 0.13 0.08+ 0.05+ 0.07+ 0.07+ 0.08+ 0.10+ 0.09+ F13 GS 均值 2.232 9 2.714 6+ 2.560 4+ 2.438 4+ 2.590 3+ 2.481 7+ 2.344 6= 2.579 2+ (标准差) (2.3E−01) (3.2E−01) (2.3E+00) (2.1E−01) (2.4E−01) (7.3E−01) (8.7E−01) (2.2E+00) VR均值 0.09 0.08= 0.08= 0.07= 0.08= 0.13+ 0.09= 0.08= F14 GS 均值 0.087 9 44.360+ 45.829+ 43.836+ 38.669+ 40.250+ 38.149+ 41.010+ (标准差) (5.0E−01) (4.0E+03) (4.8E+03) (4.5E+03) (4.5E+03) (4.3E+03) (1.6E+03) (1.2E+02) VR均值 0.24 0.01+ 0.01+ 0.00+ 0.01+ 0.01+ 0.00+ 0.00+ F15 GS 均值 36.423 103.12+ 85.620+ 108.46+ 82.451+ 67.647+ 75.308+ 89.100+ (标准差) (3.7E+03) (1.4E+03) (6.8E+03) (3.2E+03) (2.7E+03) (1.7E+03) (6.6E+03) (1.8E+03) VR均值 0.03 0.00+ 0.01= 0.00+ 0.01= 0.00+ 0.00+ 0.00+ F16 GS 均值 0.242 3 74.272+ 52.296+ 132.800+ 52.555+ 81.104+ 114.04+ 67.231+ (标准差) (1.3E−01) (8.2E+03) (8.1E+03) (6.6E+03) (3.2E+03) (9.0E+03) (1.6E+03) (1.6E+03) VR均值 0.15 0.00+ 0.02+ 0.00+ 0.00+ 0.00+ 0.00+ 0.00+ F17 GS 均值 32.566 127.50+ 141.05+ 165.93+ 148.05+ 192.72+ 162.20+ 100.12+ (标准差) (2.0E+04) (2.3E+03) (2.5E+04) (5.7E+03) (2.0E+03) (8.5E+03) (5.2E+03) (3.2E+03) VR均值 0.13 0.00+ 0.00+ 0.00+ 0.00+ 0.00+ 0.00+ 0.00+ F18 GS 均值 −0.267 9 −0.264 2+ −0.260 3+ −0.257 9+ −0.262 5+ −0.254 8+ −0.260 4+ −0.263 0+ (标准差) (1.6E−06) (6.0E−05) (6.8E−05) (9.1E−05) (4.9E−05) (1.6E−04) (1.8E−05) (1.5E−04) VR均值 1.00 1.00= 0.95= 0.95= 1.00= 0.80+ 0.80+ 0.85+ F19 GS 均值 0.399 9 0.529 2+ 0.882 5+ 0.797 9+ 0.776 3+ 0.789 5+ 1.337 5+ 0.885 8+ (标准差) (2.4E−05) (1.9E−01) (1.8E−01) (1.8E−01) (1.8E−01) (1.7E+00) (8.6E−02) (2.0E−01) VR均值 0.60 0.03+ 0.03+ 0.10+ 0.06+ 0.16+ 0.06+ 0.2+ F20 GS 均值 −7.429 9 −6.619 2+ −6.649 6+ −6.664 4+ −6.728 0+ −6.679 1+ −6.420 4+ −6.981 8+ (标准差) (1.7E−02) (2.9E−01) (8.6E−01) (4.0E−01) (3.3E−01) (4.5E−01) (3.8E−01) (4.6E−01) VR均值 0.40 0.26+ 0.26+ 0.26+ 0.20+ 0.29+ 0.27+ 0.28+ 注: 加粗字体表示各组的最优结果值. 表 13 IMPSO-HES与7种多模态进化算法的统计对比结果
Table 13 Statistical comparison results of IMPSO-HES and the 7 multimodal EAs
问题 IMPSO-HES LIPS EMO-MMO R3PSO FERPSO NCDE NSDE ANDE F1 ~ F5 好/平/差 GS — 6/3/1 7/3/0 10/0/0 8/1/1 10/0/0 10/0/0 10/0/0 Rank 1.300 0 2.800 0 3.000 0 6.100 0 3.300 0 6.300 0 6.800 0 6.700 0 Adjusted p-value — 0.315 3 0.116 0 0.000 2 0.0937 0.000 1 0.000 0 0.000 0 好/平/差 GS — 15/0/0 13/1/1 14/0/1 15/0/0 15/0/0 14/1/0 14/1/0 F6 ~ F20 VR — 11/4/0 10/5/0 11/4/0 11/4/0 14/1/0 12/3/0 13/2/0 Rank 1.258 6 4.827 5 4.268 9 5.551 7 4.603 4 6.103 4 4.862 0 4.224 1 Adjusted p-value — 0.000 0 0.000 0 0.000 0 0.000 0 0.000 0 0.000 0 0.000 0 表 14 问题的决策变量信息
Table 14 Decision variable information of the problem
决策变量 单位 范围 房屋方向 $( ^{ {\circ} } )$ [0, 360) 窗户的长 m (0, 3.6) 窗户的高 m (0, 3.9) 窗户的传热系数 ${\rm{W} }/({\rm{m} }^{2}\cdot{\rm{K} })$ [2, 6] 窗户的日射热取得率 — (0, 0.7) 墙体外保温层厚度 m (0, 0.1] 墙体日射吸收率 — [0.1, 1] 人员密度 ${{\text{人}}/\rm{m} }^{2}$ [0.1, 1) 照明功率密度 ${\rm{W} }/{\rm{m} }^{2}$ [6, 12] 设备功率密度 $\rm{W}/{\rm{m} }^{2}$ [10, 18] 空调供热设置温度 ℃ [18, 23] 空调制冷设置问题 ℃ [24, 28] 表 15 处理建筑节能设计问题时两种算法所得的实验结果
Table 15 Results of the two algorithms on building energy conservation
GS Optimal solutions 时间(s) IMPSO-HES 5.02 X = 71.8, 1.06, 1.85, 3.64, 0.0382 ,0.0905 ,0.2212 ,0.1033 , 6.5, 14.0, 22.3, 26.4, f = 5.1450 X = 297.3, 2.53, 1.63, 4.0065 ,0.0556 ,0.0402 ,0.5983 ,0.1027 , 6.0, 17.2, 19.6, 24.0, f = 5.1X = 351.7, 3.50, 0.38, 2.266, 0.1604 ,0.0567 ,0.8882 ,0.1062 , 6.1, 17.3, 22.6, 24.6, f = 5.11EMO-MMO 4.96 X = 183.2, 1.19, 2.36, 2.32, 0.3439 ,0.0489 ,0.9743 ,0.1085 , 6.18, 12.3, 21.1, 26.3, f = 5.0142 357 X = 215.1, 2.41, 2.09, 5.38, 0.2847 ,0.0532 ,0.4720 ,0.1015 , 6.44, 11.8, 19.3, 27.1, f = 5.02X = 134.7, 1.07, 2.87, 3.73, 0.3129 ,0.0418 ,0.9553 ,0.1015 , 6.02, 12.8, 20.4, 25.3, f = 5.02 -
[1] Kruisselbrink J W, Aleman A, Emmerich M T M, Ijzerman A P, Bender A, Baeck T, et al. Enhancing search space diversity in multi-objective evolutionary drug molecule design using niching. In: Proceedings of the 11th Annual Conference on Genetic and Evolutionary Computation. Montreal, Canada: ACM, 2009. 217−224 [2] Pérez E, Herrera F, Hernández C. Finding multiple solutions in job shop scheduling by niching genetic algorithms. Journal of Intelligent Manufacturing, 2003, 14(3−4): 323−339 [3] 李章维, 肖璐倩, 郝小虎, 周晓根, 张贵军. 蛋白质构象空间的多模态优化算法. 计算机科学, 2020, 47(7): 161−165Li Zhang-Wei, Xiao Lu-Qian, Hao Xiao-Hu, Zhou Xiao-Gen, Zhang Gui-Jun. Multimodal optimization algorithm for protein conformation space. Computer Science, 2020, 47(7): 161−165 [4] Wang Z J, Zhan Z H, Lin Y, Yu W J, Wang H, Kwong S, et al. Automatic niching differential evolution with contour prediction approach for multimodal optimization problems. IEEE Transactions on Evolutionary Computation, 2020, 24(1): 114−128 doi: 10.1109/TEVC.2019.2910721 [5] 李航, 李敏强, 寇纪淞. 遗传算法求解多模态优化问题的动力性. 自动化学报, 2008, 34(2): 180−187Li Hang, Li Min-Qiang, Kou Ji-Song. Dynamical behavior of genetic algorithms on multi-modal optimization. Acta Automatica Sinica, 2008, 34(2): 180−187 [6] Zhang Y, Yuan L J, Zhang Q, Sun X Y. Multi-objective optimization of building energy performance using a particle swarm optimizer with less control parameters. Journal of Building Engineering, 2020, 32: Article No. 101505 doi: 10.1016/j.jobe.2020.101505 [7] Ji X F, Zhang Y, Gong D W, Sun X Y. Dual-surrogate-assisted cooperative particle swarm optimization for expensive multimodal problems. IEEE Transactions on Evolutionary Computation, 2021, 25(4): 794−808 doi: 10.1109/TEVC.2021.3064835 [8] Li X D. Adaptively choosing neighbourhood bests using species in a particle swarm optimizer for multimodal function optimization. In: Proceedings of the Genetic and Evolutionary Computation Conference. Seattle, USA: Springer, 2004. 105−116 [9] Cheng R, Li M Q, Li K, Yao X. Evolutionary multiobjective optimization-based multimodal optimization: Fitness landscape approximation and peak detection. IEEE Transactions on Evolutionary Computation, 2018, 22(5): 692−706 doi: 10.1109/TEVC.2017.2744328 [10] Li X D, Epitropakis M G, Deb K, Engelbrecht A. Seeking multiple solutions: An updated survey on niching methods and their applications. IEEE Transactions on Evolutionary Computation, 2017, 21(4): 518−538 doi: 10.1109/TEVC.2016.2638437 [11] 张淑美, 王福利, 谭帅, 王姝. 多模态过程的全自动离线模态识别方法. 自动化学报, 2016, 42(1): 60−80Zhang Shu-Mei, Wang Fu-Li, Tan Shuai, Wang Shu. A fully automatic offline mode identification method for multi-mode processes. Acta Automatica Sinica, 2016, 42(1): 60−80 [12] Mahfoud S W. Crowding and preselection revisited. In: Proceedings of the Parallel Problem Solving from Nature 2, PPSN-Ⅱ. Brussels, Belgium: Elsevier, 1992. 27−36 [13] 张贵军, 何洋军, 郭海锋, 冯远静, 徐建明. 基于广义凸下界估计的多模态差分进化算法. 软件学报, 2013, 24(6): 1177−1195Zhang Gui-Jun, He Yang-Jun, Guo Hai-Feng, Feng Yuan-Jing, Xu Jian-Ming. Differential evolution algorithm for multimodal optimization based on abstract convex underestimation. Journal of Software, 2013, 24(6): 1177−1195 [14] Petrowski A. A clearing procedure as a niching method for genetic algorithms. In: Proceedings of the IEEE International Conference on Evolutionary Computation. Nagoya, Japan: IEEE, 1996. 798−803 [15] Li X D. Niching without niching parameters: Particle swarm optimization using a ring topology. IEEE Transactions on Evolutionary Computation, 2010, 14(1): 150−169 doi: 10.1109/TEVC.2009.2026270 [16] 王湘中, 喻寿益. 多模态函数优化的多种群进化策略. 控制与决策, 2006, 21(3): 285−288Wang Xiang-Zhong, Yu Shou-Yi. Multi-population evolution strategies for multi-modal function optimization. Control and Decision, 2006, 21(3): 285−288 [17] 张贵军, 陈铭, 周晓根. 动态小生境半径两阶段多模态差分进化算法. 控制与决策, 2016, 31(7): 1185−1191Zhang Gui-Jun, Chen Ming, Zhou Xiao-Gen. Two-stage differential evolution algorithm using dynamic niche radius for multimodal optimization. Control and Decision, 2016, 31(7): 1185−1191 [18] Holland J H. Adaptation in Natural and Artificial Systems. Ann Arbor: University of Michigan, 1975. [19] 李敏强, 寇纪淞. 多模态函数优化的协同多群体遗传算法. 自动化学报, 2002, 28(4): 497−504Li Min-Qiang, Kou Ji-Song. Coordinate multi-population genetic algorithms for multi-modal function optimization. Acta Automatica Sinica, 2002, 28(4): 497−504 [20] Qu B Y, Suganthan P N, Das S. A distance-based locally informed particle swarm model for multimodal optimization. IEEE Transactions on Evolutionary Computation, 2013, 17(3): 387−402 doi: 10.1109/TEVC.2012.2203138 [21] Biswas S, Kundu S, Das S. Inducing niching behavior in differential evolution through local information sharing. IEEE Transactions on Evolutionary Computation, 2015, 19(2): 246−263 doi: 10.1109/TEVC.2014.2313659 [22] Deb K, Saha A. Multimodal optimization using a Bi-objective evolutionary algorithm. Evolutionary Computation, 2012, 20(1): 27−62 doi: 10.1162/EVCO_a_00042 [23] Bandaru S, Deb K. A parameterless-niching-assisted bi-objective approach to multimodal optimization. In: Proceedings of the IEEE Congress on Evolutionary Computation. Cancún, Mexico: IEEE, 2013. 95−102 [24] Yue C T, Liang J J, Qu B Y, Yu K J, Song H. Multimodal multiobjective optimization in feature selection. In: Proceedings of the IEEE Congress on Evolutionary Computation (CEC). Wellington, New Zealand: IEEE, 2019. 302−309 [25] Lim D, Jin Y C, Ong Y S, Sendhoff B. Generalizing surrogate-assisted evolutionary computation. IEEE Transactions on Evolutionary Computation, 2010, 14(3): 329−355 doi: 10.1109/TEVC.2009.2027359 [26] Liu B, Zhang Q F, Gielen G G E. A Gaussian process surrogate model assisted evolutionary algorithm for medium scale expensive optimization problems. IEEE Transactions on Evolutionary Computation, 2014, 18(2): 180−192 doi: 10.1109/TEVC.2013.2248012 [27] Clarke S M, Griebsch J H, Simpson T W. Analysis of support vector regression for approximation of complex engineering analyses. Journal of Mechanical Design, 2005, 127(6): 1077−1087 doi: 10.1115/1.1897403 [28] Regis R G. Evolutionary programming for high-dimensional constrained expensive black-box optimization using radial basis functions. IEEE Transactions on Evolutionary Computation, 2014, 18(3): 326−347 doi: 10.1109/TEVC.2013.2262111 [29] Roux W J, Stander N, Haftka R T. Response surface approximations for structural optimization. Numerical Methods in Engineering, 1998, 42(3): 517−534 doi: 10.1002/(SICI)1097-0207(19980615)42:3<517::AID-NME370>3.0.CO;2-L [30] Wang H D, Jin Y C, Doherty J. Committee-based active learning for surrogate-assisted particle swarm optimization of expensive problems. IEEE Transactions on Cybernetics, 2017, 47(9): 2664−2677 doi: 10.1109/TCYB.2017.2710978 [31] Min A T W, Ong Y S, Gupta A, Goh C K. Multiproblem surrogates: Transfer evolutionary multiobjective optimization of computationally expensive problems. IEEE Transactions on Evolutionary Computation, 2019, 23(1): 15−28 doi: 10.1109/TEVC.2017.2783441 [32] Wang H D, Jin Y C, Sun C L, Doherty J. Offline data-driven evolutionary optimization using selective surrogate ensembles. IEEE Transactions on Evolutionary Computation, 2019, 23(2): 203−216 doi: 10.1109/TEVC.2018.2834881 [33] Loshchilov I, Schoenauer M, Sebag M. Comparison-based optimizers need comparison-based surrogates. In: Proceedings of the 11th International Conference on Parallel Problem Solving From Nature. Krakow, Poland: Springer, 2010. 364−373 [34] 龙腾, 郭晓松, 彭磊, 刘莉. 基于信赖域的动态径向基函数代理模型优化策略. 机械工程学报, 2014, 50(7): 184−190 doi: 10.3901/JME.2014.07.184Long Teng, Guo Xiao-Song, Peng Lei, Liu Li. Optimization strategy using dynamic radial basis function metamodel based on trust region. Journal of Mechanical Engineering, 2014, 50(7): 184−190 doi: 10.3901/JME.2014.07.184 [35] Chugh T, Jin Y C, Miettinen K, Hakanen J, Sindhya K. A surrogate-assisted reference vector guided evolutionary algorithm for computationally expensive many-objective optimization. IEEE Transactions on Evolutionary Computation, 2018, 22(1): 129−142 doi: 10.1109/TEVC.2016.2622301 [36] 孙超利, 李贞, 金耀初. 模型辅助的计算费时进化高维多目标优化. 自动化学报, 2022, 48(4): 1119−1128Sun Chao-Li, Li Zhen, Jin Yao-Chu. Surrogate-assisted expensive evolutionary many-objective optimization. Acta Automatica Sinica, 2022, 48(4): 1119−1128 [37] 田杰, 孙超利, 谭瑛, 曾建潮. 基于多点加点准则的代理模型辅助社会学习微粒群算法. 控制与决策, 2020, 35(1): 131−138Tian Jie, Sun Chao-Li, Tan Ying, Zeng Jian-Chao. Similarity-based multipoint infill criterion for surrogate-assisted social learning particle swarm optimization. Control and Decision, 2020, 35(1): 131−138 [38] 田杰, 谭瑛, 孙超利, 曾建潮. 代理模型辅助进化算法在高维优化问题中的应用. 机械设计与制造, 2018, 12: 269−272Tian Jie, Tan Ying, Sun Chao-Li, Zeng Jian-Chao. Surrogate-assisted evolutionary optimization for high-dimensional expensive optimization. Machinery Design and Manufacture, 2018, 12: 269−272 [39] Sun C L, Jin Y C, Zeng J C, Yu Y. A two-layer surrogate-assisted particle swarm optimization algorithm. Soft Computing, 2015, 19(6): 1461−1475 doi: 10.1007/s00500-014-1283-z [40] Cai X W, Qiu H B, Gao L, Jiang C, Shao X Y. An efficient surrogate-assisted particle swarm optimization algorithm for high-dimensional expensive problems. Knowledge-Based Systems, 2019, 184: Article No. 104901 doi: 10.1016/j.knosys.2019.104901 [41] Liao P, Sun C L, Zhang G C, Jin Y C. Multi-surrogate multi-tasking optimization of expensive problems. Knowledge-Based Systems, 2020, 205: Article No. 106262 doi: 10.1016/j.knosys.2020.106262 [42] Tang Y F, Chen J Q, Wei J H. A surrogate-based particle swarm optimization algorithm for solving optimization problems with expensive black box functions. Engineering Optimization, 2013, 45(5): 557−576 doi: 10.1080/0305215X.2012.690759 [43] Li F, Cai X W, Gao L. Ensemble of surrogates assisted particle swarm optimization of medium scale expensive problems. Applied Soft Computing, 2019, 74: 291−305 doi: 10.1016/j.asoc.2018.10.037 [44] Liu Q F, Wu X F, Lin Q Z, Ji J K, Wong K C. A novel surrogate-assisted evolutionary algorithm with an uncertainty grouping based infill criterion. Swarm and Evolutionary Computation, 2021, 60: Article No. 100787 doi: 10.1016/j.swevo.2020.100787 [45] Dong H C, Li C S, Song B W, Wang P. Multi-surrogate-based differential evolution with multi-start exploration (MDEME) for computationally expensive optimization. Advances in Engineering Software, 2018, 123: 62−76 doi: 10.1016/j.advengsoft.2018.06.001 [46] Gu J C, Li W Q, Cai Y Z. A hybrid meta-model based global optimization method for expensive problems. Computers and Industrial Engineering, 2019, 136: 421−428 [47] Guo D, Jin Y C, Ding J L, Chai T Y. Heterogeneous ensemble-based infill criterion for evolutionary multiobjective optimization of expensive problems. IEEE Transactions on Cybernetics, 2019, 49(3): 1012−1025 doi: 10.1109/TCYB.2018.2794503 [48] Tenne Y. Online ensemble topology selection in expensive optimization problems. International Journal of Control, Automation and Systems, 2020, 18(4): 955−965 doi: 10.1007/s12555-018-0356-7 [49] 陈万芬, 王宇嘉, 林炜星. 异构集成代理辅助多目标粒子群优化算法. 计算机工程与应用, 2021, 57(23): 71−80Chen Wan-Fen, Wang Yu-Jia, Lin Wei-Xing. Heterogeneous ensemble surrogate assisted multi-objective particle swarm optimization algorithm. Computer Engineering and Applications, 2021, 57(23): 71−80 [50] Branke J, Schmidt C. Faster convergence by means of fitness estimation. Soft Computing, 2005, 9(1): 13−20 doi: 10.1007/s00500-003-0329-4 [51] Wang H D, Jin Y C, Yang C E, Jiao L C. Transfer stacking from low-to high-fidelity: A surrogate-assisted bi-fidelity evolutionary algorithm. Applied Soft Computing, 2020, 92: Article No. 106276 doi: 10.1016/j.asoc.2020.106276 [52] Emmerich M, Giotis A, Özdemir M, Bäeck T, Giannakoglou K. Metamodel-assisted evolution strategies. In: Proceedings of the 7th International Conference on Parallel Problem Solving From Nature. Granada, Spain: Springer, 2002. 361−370 [53] Yahyaie F, Filizadeh S. A surrogate-model based multi-modal optimization algorithm. Engineering Optimization, 2011, 43(7): 779−799 doi: 10.1080/0305215X.2010.517528 [54] Eberhart R, Kennedy J. A new optimizer using particle swarm theory. In: Proceedings of the 6th International Symposium on Micro Machine and Human Science. Nagoya, Japan: IEEE, 1995. 39−43 [55] Shi Y, Eberhart R. A modified particle swarm optimizer. In: Proceedings of the IEEE International Conference on Evolutionary Computation, IEEE World Congress on Computational Intelligence (Cat. No.98TH8360). Anchorage, USA: IEEE, 1998. 69−73 [56] Sun C L, Jin Y C, Cheng R, Ding J L, Zeng J C. Surrogate-assisted cooperative swarm optimization of high-dimensional expensive problems. IEEE Transactions on Evolutionary Computation, 2017, 21(4): 644−660 doi: 10.1109/TEVC.2017.2675628 [57] Tian J, Sun C L, Tan Y, Zeng J C. Granularity-based surrogate-assisted particle swarm optimization for high-dimensional expensive optimization. Knowledge-Based Systems, 2020, 187: Article No. 104815 doi: 10.1016/j.knosys.2019.06.023 [58] Goel T, Haftka R T, Shyy W, Queipo N V. Ensemble of surrogates. Structural and Multidisciplinary Optimization, 2007, 33(3): 199−216 doi: 10.1007/s00158-006-0051-9 [59] Gutmann H M. A radial basis function method for global optimization. Journal of Global Optimization, 2001, 19(3): 201−227 doi: 10.1023/A:1011255519438 [60] Zhou L G, Chen H Y, Merigó J M, Gil-Lafuente A M. Uncertain generalized aggregation operators. Expert Systems With Applications, 2012, 39(1): 1105−1117 doi: 10.1016/j.eswa.2011.07.110 [61] 李德清, 韩国柱, 曾文艺, 余先川. 基于布尔矩阵的区间数排序方法. 控制与决策, 2016, 31(4): 629−634Li De-Qing, Han Guo-Zhu, Zeng Wen-Yi, Yu Xian-Chuan. Ranking method of interval numbers based on Boolean matrix. Control and Decision, 2016, 31(4): 629−634 [62] Fan C D, Hou B, Zheng J H, Xiao L Y, Yi L Z. A surrogate-assisted particle swarm optimization using ensemble learning for expensive problems with small sample datasets. Applied Soft Computing, 2020, 91: Article No. 106242 doi: 10.1016/j.asoc.2020.106242 [63] Efron B, Tibshirani R J. An Introduction to the Bootstrap. New York: Chapman & Hall, 1993. [64] Li X D, Engelbrecht A, Epitropakis M G. Benchmark Functions for CEC'2013 Special Session and Competition on Niching Methods for Multimodal Function Optimization, Technical Report, RMIT University, Melbourne, Australia, 2013. [65] Stoean C, Preuss M, Stoean R, Dumitrescu D. Multimodal optimization by means of a topological species conservation algorithm. IEEE Transactions on Evolutionary Computation, 2010, 14(6): 842−864 doi: 10.1109/TEVC.2010.2041668 [66] Qu B Y, Suganthan P N, Liang J J. Differential evolution with neighborhood mutation for multimodal optimization. IEEE Transactions on Evolutionary Computation, 2012, 16(5): 601−614 doi: 10.1109/TEVC.2011.2161873 [67] Friedman M. The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, 1937, 32(200): 675−701 doi: 10.1080/01621459.1937.10503522 [68] Finner H. On a monotonicity problem in step-down multiple test procedures. Journal of the American Statistical Association, 1993, 88(423): 920−923 doi: 10.1080/01621459.1993.10476358 期刊类型引用(0)
其他类型引用(1)
-