-
摘要: 惯性权重和加速因子是影响粒子群算法优化性能的重要参数.基于常用的12个测试函数,本文通过实验研究了不同参数组合下粒子的探索能力和算法的优化性能,在此基础上推荐了一组固定的参数组合.通过惯性权重和加速因子的不同变化策略组合对算法性能影响的实验分析,推荐了一种变化的参数设置方法.基于CEC2015发布的15个基准函数进一步验证了本文推荐的参数选取方法的有效性.最后讨论了粒子群优化(Particle swarm optimization,PSO)算法在连续优化和离散优化方面的应用问题.Abstract: Inertia weight and acceleration factors have significant impact on the performance of particle swarm optimization (PSO) algorithm. Through simulation experiments on twelve classical benchmark functions, this paper studies the algorithm's exploitation ability and optimization performance with different parameters. Based on the experimental results, we recommend a setting for fixed parameters. Furthermore, we study the situation where inertia weight remains unchanged and acceleration factors change with iterations. Then a setting for varying parameters is recommended. The recommended parameters setting methods are verified through 15 benchmark functions that were published in CEC2015. At the end of the paper, a discussion of the PSO application issue on continuous optimization problems and discrete optimization problems is given.
-
粒子群优化(Particle swarm optimization, PSO)算法是Kennedy和Eberhart在1995年提出的一种群智能优化算法[1], 源于对鸟群捕食行为的研究. 1998年, Shi等[2]在原始PSO中引入了惯性权重, 后来被称为标准PSO.由于PSO结构简单、易于实现, 且不需要借助问题的特征信息, 已受到众多学者的关注, 在算法的性能改进和分析方面不断取得新的成果[3-4], 在多个领域得到广泛应用[5].
在PSO算法中, 有一些需要调节的参数:种群规模(种群的个体数目) $N$ , 速度限值 ${{\pmb {V}}_{\rm {max}}}$ , 位置限值 ${{\pmb {X}}_{\rm max}}$ , 惯性权重 $w$ , 加速因子 ${c_1}$ 和 ${c_2}$ .其中, $w$ , ${c_1}$ 和 ${c_2}$ 对算法性能的影响较大, 目前有很多学者对其设定和调节方式进行了研究.在参数选取方面, 文献[6 $-$ 9]通过实验或理论分析, 推荐了一组固定参数值.在时变参数的调节方面, 对于惯性权重的调整, 文献[2, 10]提出了随迭代次数减小惯性权重, 文献[11 $-$ 12]给出了随机惯性权重策略, 文献[13 $-$ 15]根据种群的信息自适应地调节惯性权重; 对于加速因子的调整, 文献[16]提出在迭代的过程中, ${c_1}$ 和 ${c_2}$ 线性递减, 文献[17]则提出 ${c_1}$ 线性递减、 ${c_2}$ 线性递增, 文献[18]基于个体的更新信息给出了一种 ${c_1}$ 和 ${c_2}$ 的自适应调整策略.以上这些参数的调整方法, 都在一定程度上提高了算法的性能, 但是, 当涉及到时变参数时, 并没有考虑到惯性权重和加速因子之间的配合作用.单独依靠调整惯性权重或加速因子, 并不能在种群的局部开发能力(Exploitation ability)和全局探索能力(Exploration ability)之间进行平衡.事实上, 各个参数之间需要相互配合, 才能够达到预定的效果.本文考虑了各个参数之间的配合, 基于在感兴趣的参数范围内进行的优化测试实验数据, 通过定义最优解超越次数, 推荐了一组固定和时变的参数值.
本文其余部分安排如下:第1节先给出标准粒子群算法的形式; 第2节通过仿真实验研究不同参数对粒子探索能力、算法成功率和算法性能的影响, 推荐一组固定参数值; 第3节研究算法中的认知参数 ${c_1}$ 和社会参数 ${c_2}$ 的变化策略对算法性能的影响, 并推荐一组变参数的组合设定方式; 第4节基于CEC2015发布的15个基准函数进一步验证本文推荐的参数选取方法的有效性; 第5节讨论PSO算法在连续优化和离散优化方面的应用问题; 第6节对全文进行了总结.
1. 标准粒子群SPSO算法
在粒子群算法中, 每个粒子代表寻优空间中一个潜在的解, 有一个由被优化的函数决定的适应值.在每一次迭代进化中, 粒子通过自身和群体的历史最优位置更新当前的速度和位置.在任意 ${t+1}$ 时刻, 粒子群算法中第 $i$ 个粒子第 $d$ 维的速度和位置更新公式为
$ \begin{align} &{v_{id}}(t + 1) = w{v_{id}}(t) + {c_1}{r_{1d}}(t)({p_i}_d(t)~ - \nonumber\\[1mm] &\qquad {x_{id}}(t)) + {c_2}{r_{2d}}(t)({p_g}_d(t) - {x_{id}}(t)) \end{align} $
(1) $ \begin{align} {x_{id}}(t + 1) = {x_{id}}(t) + {v_{id}}(t + 1) \end{align} $
(2) 其中, ${v_{id}}$ 和 ${x_{id}}$ 分别为粒子的速度和位置, $w$ 为惯性权值, ${c_1}$ 和 ${c_2}$ 称为加速因子, 分别为认知参数和社会参数, ${p_{id}}$ 和 ${p_{gd}}$ 分别为个体和群体的历史最优位置, ${r_{1d}}$ 和 ${r_{2d}}$ 为两个相互独立的服从[0, 1]之间均匀分布的随机数, 正是这两个随机数的引入, 使得算法的进化过程具有一定的不确定性, 也因此赋予了算法一定的空间探索能力, 从而有利于找到问题的最优解.
2. 粒子群算法的性能分析
下面通过实验说明粒子的探索能力和算法的性能与参数之间的关系.我们感兴趣的参数区域是 $w$ $\in$ $\left[{-1, 1} \right]$ , ${c_1} + {c_2} \in \left[{0, 8} \right]$ , 这也是绝大多数文献研究的区域.所有的实验都基于以下12个常用的基准函数, 由于这些基准函数被普遍应用, 在此只给出函数的名称, 即: Fun 1: Sphere; Fun 2: Rosenbrock; Fun 3: Schwefel $'$ s P2.21; Fun 4: Schwefel $'$ s P2.22; Fun 5: Schwefel $'$ s P1.2; Fun 6: Rastrigin; Fun 7: Griewank; Fun 8: Ackley; Fun 9: Schwefel; Fun 10: Weierstrass; Fun 11: Penalized1; Fun 12: Penalized2.
2.1 参数对粒子探索能力的影响
粒子群算法参数 $w$ , ${c_1}$ , ${c_2}$ 的选取对算法的优化性能有很大影响.不同的参数组合下, 粒子的轨迹形式是不同的, 决定了粒子探索能力的大小.在种群进化过程中的第 $t$ 代, 若粒子能够找到比 $t-1$ 代的全局最优解更好的解, 那么则认为粒子具有一定的探索能力.我们通过以下实验观察不同的参数对粒子探索能力的影响.设种群规模为 $N$ , 为每个粒子设置不同的参数, 设置变量 $Pnu{m_i}$ 记录具有不同参数的粒子 $i$ 在进化的过程中超越上一代的全局最优解的次数:
$ \begin{align*} &Pnu{m_i}(t) =\\ &\ \, \begin{cases} {Pnu{m_i}(t - 1) + 1, }& \mbox {若}~f({p_i}(t)) < f({p_g}(t - 1))\\ {Pnu{m_i}(t - 1), }& \mbox {若}~f({p_i}(t)) \ge f({p_g}(t - 1)) \end{cases} \end{align*} $
其中, $t = 2, 3, \cdots, {t_{\max }}$ .
将上面定义的 $Pnu{m_i}$ 称为粒子 $i$ 的第 $t$ 代最优解超越次数, 它表征了粒子探索能力的大小.显然, 探索能力大的粒子更有可能找到全局最优解.
对于所有的粒子设置相同参数的粒子群算法, 则所有的粒子在统计意义上具有相同的探索能力; 随着算法进化进程的推进, 具有不同的状态的粒子在当前迭代步则具有不同的探索能力; 被设置不同参数的粒子, 一般则具有不同的探索能力.这已得到作者们进行的大量仿真优化计算实例的证实. 图 1为4组不同的PSO种群在优化函数Sphere时每个粒子的 $Pnum$ 值:种群大小均为50, 函数设置为10维, 最大迭代次数为500, 每组种群运行50次, 记录每个粒子 $Pnum$ 值的平均值. 图 1(a)为种群中粒子设置为相同的参数时( $w = 0.6$ , ${c_1} = {c_2} = 1.7$ )每个粒子的 $Pnum$ 值; 图 1(b)、图 1(c)和图 1(d) 为种群中粒子设置不同参数时每个粒子的 $Pnum$ 值, 其中图 1(b)中, 第 $1$ $\sim$ $50$ 个粒子的 $w$ 值均为0.6, ${c_1}$ $=$ ${c_2}$ 为 $0.04:0.04:2$ ; 图 1(c)中, 第 $1$ $\sim$ $50$ 个粒子的 $w$ 值均为1.7, ${c_1} = {c_2}$ 分别为 $0.02:0.02:1$ , 图 1(d)中, 第 $1$ $\sim$ $10$ 个粒子的 $w$ 值均为0.2, ${c_1} = {c_2}$ 分别为 $0.2:0.2:2$ , 第 $11$ $\sim$ $20$ 个粒子的 $w$ 均为0.4, ${c_1}$ $=$ ${c_2}$ 分别为 $0.2:0.2:2$ , 依此类推, 第 $41$ $\sim$ $50$ 个粒子的 $w$ 均为1.0, ${c_1} = {c_2}$ 分别为 $0.2:0.2:2$ .
在 $w \in \left[{-1, 1} \right]$ , ${c_1} + {c_2} \in \left[{0, 8} \right]$ 的参数区域上对所用的12个基准函数进行蒙特卡罗实验.每个函数进行两组实验: 1)种群中的个体取相同的 $w$ , ${c_1}=$ ${c_2}$ 则取不同的数值.本组实验中, 根据种群参数 $w$ 的值分为51组子实验, $w$ 的取值按0.04的间隔从 $-1$ $\sim$ $1$ , 每个子实验中, 种群大小均为81, ${c_1}$ $=$ ${c_2}$ 按0.05的间隔从 $0$ $\sim$ $4$ 取81个值分配给不同的粒子, 函数运行50次, 记录不同粒子在50次运行中的 $Pnum$ 的平均值. 2)种群中的个体取不同的 $w$ , 而 ${c_1}$ $=$ ${c_2}$ 取相同的固定值.本组实验中, 根据种群参数 ${c_1}$ $({c_2})$ 的值分为81组子实验, ${c_1} = {c_2}$ 的取值按0.05的间隔从 $0$ $\sim$ $4$ , 每个子实验中, 种群大小均为51, $w$ 按0.04的间隔从 $-1$ $\sim$ $1$ 共取51个值分配给不同的粒子, 函数运行50次, 记录不同粒子在50次运行中的 $Pnum$ 的平均值.将两组实验中得到的相同参数组合下粒子 $i$ 的 $Pnu{m_i}$ 进行求和, 得到此参数组合在不同种群环境中的综合探索性能, 进而得到整个参数区域内不同参数组合的综合超越次数.相比于超越次数的绝对值, 我们更关心不同参数组合下粒子探索能力的相对关系, 因此对每个函数得到的结果分别进行归一化处理, 结果如图 2所示.值得注意的是, 在 $6 < {c_1} + {c_2}\leq 8$ 的区域中, 对于任意的 $w$ 运行结果 $Pnu{m_i}$ 均为0, 因此, $6 < {c_1} + {c_2}$ $\leq$ $8$ 的区域并未在图中进行展示.从图 2可以明显地看到粒子群算法的参数取值对不同基准函数的优化性能的共性和特性, 即对每个基准函数来说, 算法的探索能力对参数的取值表现出明显的区域性, 总体来说大同小异, 这为PSO的参数选择提供了很好的指导作用.
2.2 参数对算法成功率的影响
在 $w \in \left[{-1, 1} \right]$ , ${c_1} + {c_2} \in \left[{0, 8} \right]$ 矩形域上按照等间隔的网格取点, $\left( {{c_1} + {c_2}} \right)$ 轴取点间隔为0.02, 共101点, $w$ 轴取点间隔为0.04, 共201点, 共可得到20 301组不同的参数组合.对每一组参数组合进行蒙特卡罗仿真实验, 优化12个基准函数.种群规模 $N$ 为50, 最大迭代次数 ${t_{\rm {max}}}$ 为500, 每个函数独立运行50次.为每个函数设置寻优精度goal, 记录不同参数组合下达到所设置寻优精度的成功率, 绘制成灰度图像.每个函数的寻优精度为图中的goal所示, 是通过实验测试得到的, 原则是不会使测试结果得到的最佳参数组合区域过大而失去指导意义, 也不会使其过小而失去一般性参考价值.设置一定的寻优精度, 实验结果如图 3所示.
由图 3可以看到, 除了Fun 2、Fun 6、Fun 7和Fun 9, 其他8个函数的最优参数区域在形状上非常相似, 并且都出现在靠近过渡区域的边界部分.这一部分的参数使得粒子轨迹能够以一定的幅值振荡, 使得探索能力和开发能力获得很好的平衡.对于Fun 2、Fun 6、Fun 7和Fun 9这4个函数, Fun 2为很难极小化的典型病态二次函数; Fun 6、Fun 7为典型的具有大量局部最优点的复杂多峰函数; Fun 9的全局最优点与第2最优点相距很远, 算法往往朝着错误的方向(第2最优点)收敛.这4个函数只靠调节算法参数很难得到满意的解, 运行结果的规律性没有其他函数那么明显.
将图 2与图 3对比可以看到, 图 2和图 3并不是完全对应的. 图 2中展示的粒子的探索能力为粒子的局部探索能力和全局探索能力的总和, 而不同的函数具有不同的特性, 对群体的局部探索能力和全局探索能力的要求是不同的.虽然总的探索能力与寻优性能并不是完全对应的, 但是, 没有探索能力的参数区域, 基本上是不可取的.
几种典型参数选取策略的性能对比及一组固定参数推荐值}由图 3可以看到, 使得算法获得优良性能的参数区域因函数的不同而有一些差异, 基本上没有一组参数能够使得所有的函数同时获得最优, 尤其可以看到, Fun 2和Fun 9的较优参数区域的交集部分是非常小的.尽管如此, 仍然可以选择出一些参数, 使算法在所有函数上获得比较令人满意的综合性能.为了能够更加容易地选择出在12个函数上综合性能较优的参数, 我们将不同函数下得到的运行结果进行整合, 得到算法在不同参数下的综合性能的示意图, 见图 4.
图 4中标示的PARA1和PARA2分别为文献[6]和文献[7]推荐的参数取值.其中, 参数组合PARA1 ( $w=0.7298$ , ${c_1}={c_2}=1.49618$ )是Eberhart等[6]将带有惯性权重和带有收缩因子的两种形式的粒子群算法进行比较后推荐的一组参数; 参数组合PARA2 ( $w = 0.6$ , ${c_1} = {c_2} = 1.7$ )是[7]在分析粒子轨迹收敛域的基础上推荐的参数.参数组合PARA3是我们根据性能综合图, 即图 4推荐的一组参数: $w = 0.4$ , ${c_1} = {c_2} = 2$ .在另外的工作中, Samal等[8]在理论分析的基础上给出了一组具有较快收敛速度的参数: $w = 0.6$ , ${c_1}{r_1}=0.103$ , ${c_2}{r_2} = 2.897$ (参数组合PARA4); Carlisle等[9]在文献[6]的基础上进行了进一步的实验, 考虑了 $c_1' \ne c_2'$ 的情况, 通过仿真实验得到, 当 $c_1' = 2.8$ , $c_2' = 1.3$ 时, 算法的性能较优, 即 $w=0.7298$ , ${c_1} = 2.0434$ , ${c_2} = 0.9487$ (参数组合PARA5).我们将这5组参数在12个函数上进行测试, 种群规模、最大迭代次数和每个函数独立运行的次数都与第2.2节一致.记录运行数次结果中的最小值(min)、最大值(max)、平均值 $\pm$ 标准差(mean $\pm$ std), 以及优化成功率(Success rate, SR), 并且记录了不同参数在每个函数指定寻优精度下的成功率, 结果列于表 1中.为了清晰地显示参数对算法性能的影响, 此处为12个函数指定的寻优精度依次为: ${10^{ - 20}}$ , 3, ${10^{ - 5}}$ , ${10^{ - 10}}$ , ${10^{ - 20}}$ , 5, ${10^{ - 1}}$ , ${10^{ - 10}}$ , 500, ${10^{ - 3}}$ , ${10^{ - 20}}$ , ${10^{ - 20}}$ .以下各测试试验中所用的寻优精度均与此相同.首先来看参数PARA1 $\sim$ PARA3的运行结果, 这三个参数组合基本上都在图 4中的较优区域里.三组参数在Fun 1, Fun 3, Fun 4, Fun 8, Fun 11和Fun 12上的运行结果差别不大.在Fun 2, Fun 5, Fun 6, Fun 7, Fun 9和Fun 10上的差别相对较大, 参数PARA1在Fun 2, Fun 7上表现较优, 在Fun 5上表现较差; 参数PARA2在Fun 6, Fun 9上表现较差; 参数PARA3在Fun 6, Fun 9和Fun 10上表现较优, 在Fun 2, Fun 7上表现较差.正如从图 3中看到的, 每组参数都有其适应的函数.再来看参数PARA4和参数PARA5, 同样的, 每组参数在不同函数上表现出的性能也是有差别的.参数PARA4的综合性能在所有的参数中是比较差的.参数PARA5是在参数PARA1的基础上发展而来的, 保持 ${c_1}$ 与 ${c_2}$ 之和不变, 改变 ${c_1}$ 和 ${c_2}$ 的比例, 除了在Fun 2上, 参数PARA5的性能要优于参数PARA1.
表 1 5组参数的运行结果对比Table 1 Comparison of running results on 5 parameters函数 PARA min max mean±std SR Fun 1 1 1.47E-25 8.64E-22 6.32E-23±1.34E-22 1.00 2 9.05E-36 5.64E-31 1.73E-32±7.16E-32 1.00 3 1.98E-40 2.94E-34 1.31E-35±4.50E-35 1.00 4 1.81E-57 2.84E-33 2.86E-35±2.84E-34 1.00 5 1.63E-27 1.45E-23 2.71E-25±1.46E-24 1.00 Fun 2 1 2.72E-02 7.29E+00 2.40E+00±1.43E+00 0.84 2 3.18E-03 1.20E+02 3.75E+00±1.19E+01 0.76 3 1.20E-03 8.27E+00 3.45E+00±1.96E+00 0.30 4 6.03E-02 8.96E+00 4.30E+00±1.57E+00 0.07 5 2.21E-02 8.45E+00 3.45E+00±1.40E+00 0.31 Fun 3 1 6.55E-10 8.21E-08 1.38E-08±1.58E-08 1.00 2 5.68E-14 1.07E-10 9.80E-12±1.70E-11 1.00 3 2.98E-11 7.36E-09 8.82E-10±1.32E-09 1.00 4 7.06E-12 4.01E-04 6.10E-06±4.09E-05 0.94 5 1.23E-10 1.02E-08 1.63E-09±1.77E-09 1.00 Fun 4 1 1.06E-14 1.00E+01 5.00E-01±2.19E+00 0.95 2 7.73E-20 1.00E+01 1.00E-01±1.00E+00 0.99 3 7.38E-23 7.89E-20 9.10E-21±1.60E-20 1.00 4 8.37E-20 1.00E+01 1.00E-01±1.00E+00 0.98 5 1.64E-15 1.12E-13 1.82E-14±1.87E-14 1.00 Fun 5 1 1.14E-25 1.00E+04 2.00E+02±1.40E+03 0.00 2 6.54E-35 1.82E-29 2.24E-31±1.82E-30 1.00 3 1.74E-39 2.36E-33 1.04E-34±3.60E-34 1.00 4 2.45E-54 6.74E-34 6.74E-36±6.74E-35 1.00 5 1.44E-26 7.31E-24 5.72E-25±9.94E-25 0.32 Fun 6 1 9.91E-13 1.39E+01 5.73E+00±3.06E+00 0.55 2 9.94E-01 1.59E+01 6.61E+00±3.23E+00 0.43 3 0.00E+00 1.39E+01 4.87E+00±2.94E+00 0.68 4 9.94E-01 4.47E+01 9.87E+00±7.05E+00 0.23 5 1.66E-13 7.95E+00 3.29E+00±1.84E+00 0.85 Fun 7 1 1.47E-02 1.64E-01 7.49E-02±3.35E-02 0.83 2 7.39E-03 1.84E-01 7.77E-02±3.52E-02 0.77 3 1.47E-02 2.21E-01 7.94E-02±4.10E-02 0.74 4 1.72E-02 3.05E-01 1.12E-01±5.99E-02 0.53 5 1.11E-15 1.69E-01 6.15E-02±3.39E-02 0.86 Fun 8 1 2.38E-13 1.99E+01 1.99E-01±1.99E+00 0.99 2 3.55E-15 7.10E-15 3.94E-15±1.11E-15 1.00 3 3.55E-15 7.10E-15 3.97E-15±1.16E-15 1.00 4 3.55E-15 1.15E+00 1.15E-02±1.15E-01 0.97 5 1.42E-14 6.18E-13 1.51E-13±1.19E-13 1.00 Fun 9 1 0.00E+00 1.30E+03 6.41E+02±2.28E+02 0.35 2 0.00E+00 1.42E+03 6.83E+02±2.86E+02 0.30 3 1.18E+02 1.54E+03 6.41E+02±3.04E+02 0.44 4 1.18E+00 1.19E+03 6.40E+02±2.51E+02 0.36 5 0.00E+00 9.49E+02 4.48E+02±1.86E+02 0.67 Fun 10 1 3.55E-10 1.57E+00 1.46E-01±4.41E-01 0.86 2 0.00E+00 3.07E+00 1.69E-01±5.28E-01 0.86 3 0.00E+00 1.50E+00 6.00E-02±2.96E-01 0.96 4 1.81E-13 3.00E+00 1.40E-01±4.50E-01 0.46 5 0.00E+00 3.46E-02 3.46E-04±3.46E-03 0.99 Fun 11 1 5.76E-27 5.30E-21 5.90E-23±5.30E-22 1.00 2 4.71E-32 1.90E-31 4.94E-32±1.53E-32 1.00 3 4.71E-32 3.11E-01 1.55E-02±6.81E-02 0.95 4 4.71E-32 3.11E-01 1.24E-02±6.12E-02 0.95 5 5.16E-29 3.55E-24 5.37E-26±2.57E-25 1.00 Fun 12 1 6.86E-27 6.65E-22 2.13E-23±7.32E-23 1.00 2 1.34E-32 4.65E-31 2.13E-32±4.68E-32 1.00 3 1.34E-32 2.72E-26 5.45E-28±3.85E-27 1.00 4 1.34E-32 4.23E-13 4.23E-15±4.26E-14 0.99 5 2.78E-28 1.93E-23 2.82E-25±1.93E-24 1.00 为了能够比较全面地了解 ${c_1}$ 和 ${c_2}$ 的比例对算法的影响, 我们保持参数PARA1中的 $w = 0.7298$ , ${c_1}+{c_2}=2.992$ , 将 ${c_1}$ 在 ${c_1} + {c_2}$ 的总和中所占的比率由0逐渐增加到1, 在12个函数上的运行结果如图 5所示. Fun 2, Fun 6, Fun 7和Fun 9在整个比率范围内的变化情况较为复杂, 图 5(a)为这4个函数的变化情况, 另外8个函数的优化情况展示在图 5(b)中.当 ${c_1}$ 在 ${c_1}$ 与 ${c_2}$ 之和中所占比例 ${c_1}/( {c_1} + {c_2} )$ 在0.6 $\sim$ 0.8之间时, 图 5(b)中的8个函数都获得了很好的性能, 而图 5(a)中, 算法在Fun 6, Fun 7和Fun 9上的成功率随 ${c_1}/( {c_1} + {c_2})$ 的增加而增大, 在0.8附近到达最好值; Fun 2则相反, 成功率随着 ${c_1}/({c_1}+{c_2})$ 的增加而减小, 在0.8时的成功率非常低.当 ${c_1}/({c_1}+{c_2})$ 取为0.683时, 便可得到参数组合PARA5, 对于图 5(b)的8个函数来说, 是最好的选择.而对于图 5(a)的4个函数来说, 是综合考虑的折中选择.
3. 几种典型参数变化策略的性能对比及一种变化参数推荐值
以上的实验和讨论都是基于在种群进化过程中 ${c_1}$ 和 ${c_2}$ 为定值的情形下进行的, 从表 1和图 5的运行结果可以看到, 无论 ${c_1}$ 和 ${c_2}$ 是否相等, 采用 ${c_1}$ 和 ${c_2}$ 定值的调节算法在算法性能上是有局限性的.为了进一步提高算法的性能, 下面观察在迭代的过程中 ${c_1}$ 和 ${c_2}$ 按照不同的方式变化时对算法性能的影响.实验仍然基于12个测试函数, 对于固定的 $w$ , ${c_1}$ 和 ${c_2}$ 有9种不同的调整策略, 为简洁表示, 引入3个符号: `` $\rightarrow$ ''表示参数 ${c_1}$ 或 ${c_2}$ 保持不变, 为1.5; `` $\uparrow$ ''表示参数 ${c_1}$ 或 ${c_2}$ 在迭代的过程中线性地由0.5上升到2.5; `` $\downarrow$ ''表示参数 ${c_1}$ 或 ${c_2}$ 在迭代的过程中线性地由2.5下降到0.5.则 ${c_1}$ 和 ${c_2}$ 的9种调节策略表示为:
1) ${c_1}\rightarrow$ , ${c_2}\rightarrow$ ; ~~~2) ${c_1}\rightarrow$ , ${c_2}\uparrow$ ; ~~~3) ${c_1}\rightarrow$ , ${c_2}\downarrow$ ;
4) ${c_1}\uparrow$ , ${c_2}\rightarrow$ ; ~~~~5) ${c_1}\uparrow$ , ${c_2}\uparrow$ ; ~~~6) ${c_1}\uparrow$ , ${c_2}\downarrow$ ;
7) ${c_1}\downarrow$ , ${c_2}\rightarrow$ ; ~~~~8) ${c_1}\downarrow$ , ${c_2}\uparrow$ ; ~~~9) ${c_1}\downarrow$ , ${c_2}\downarrow$ .
对于每个函数, 进行如下实验: $w$ 从0逐渐增加到1, 对于每个 $w$ 的值, 分别用以上9种策略进行实验.每个优化实验运行50次.记录最终结果到达指定精度的成功率.运行结果如图 6所示, 纵轴为算法寻优的成功率, 横轴为 $w$ 值, 每个子图中的9条曲线, 分别对应上述 ${c_1}$ 和 ${c_2}$ 的9种取值策略.
由图 6可以看到, 每一种 ${c_1}$ 和 ${c_2}$ 的取值策略都有与其对应的 $w$ 的最佳取值范围.除了Fun 2, Fun 6, Fun 7和Fun 9, 各种策略的性能随着 $w$ 的变化情况是类似的, 即:沿着 $w$ 轴的正方向, $w$ 的整个区间可以分为5个区域: 1)初始阶段, 成功率几乎为0; 2)紧随其后的很小的区域内, 成功率由0迅速上升达到曲线的最大值; 3)在一段区域内, 成功率保持为最大值; 4)紧随其后的很小的区域内, 成功率迅速下降; 5)最后区域, 成功率几乎为零.区域1和区域3的大小与参数的取值策略紧密相关.而所有的策略在 $w>0.68$ 时, 成功率几乎均为0.区域3正是我们需要的部分.在这8个函数上, 策略3、策略7和策略9使得区域3较为宽广.再来看Fun 6, Fun 7和Fun 9, 策略2取得了最好的成功率, 其次为策略8.在Fun 6和Fun 7上, 对于某些 ${c_1}$ 和 ${c_2}$ 的取值策略, $w$ 的取值可以比较小, 也能够使算法获得不错的性能.在Fun 2上, 各个策略相适应的 $w$ 值范围都很小.相比较而言, 不论是从 $w$ 的适用范围的大小还是从成功率的高低来看, 策略4、策略5和策略6都是不可取的, 即增大的调节方式总是不可取的.综合12个测试函数来看, 策略8在Fun 6, Fun 7和Fun 9上, 在 $w=0.68$ 时具有很突出的效果, 并且, 在其他8个函数上, 虽然策略8的 $w$ 的适用范围并不宽广, 但在 $w=0.68$ 时, 恰恰都具有很好的性能, 因此, $w=0.68$ , ${c_1}$ 在迭代过程中由2.5线性减小到0.5, ${c_2}$ 由0.5线性增加到2.5, 是一种很好的参数设置方式.这与Ratnaweera等[17]提出的 ${c_1}$ 递减和 ${c_2}$ 递增的调整策略是相符的, 在文献[17]中, ${c_1}$ 和 ${c_2}$ 的变化范围与本文相同, 而 $w$ 的取值由0.9随迭代线性减小到0.4.本文提出的和文献[17]中的参数设置方法在12个函数上的运行结果如表 2所示.在表 2中, Method-ours指本文推荐的 $w=0.68$ , ${c_1}$ 在迭代过程中由2.5线性减小到0.5, ${c_2}$ 由0.5线性增加到2.5. Method-[17]是指文献[17]给出的 $w$ 的取值由0.9随迭代线性减小到0.4, ${c_1}$ 和 ${c_2}$ 的变化范围与Method-ours相同.由表 2的运行结果可以看到, 本文的参数设置方法要优于文献[17]中的方法.值得注意的是, ${c_1}$ 和 ${c_2}$ 的变化范围, 与使其获得较优性能的 $w$ 也是相互配合的, 在我们的实验中发现, 当变化范围为[0.5, 2.05]时, $w$ 取0.75的性能要优于0.68.因此, 3个参数之间的相互配合是非常重要的.
表 2 本文与文献[17]参数设置的优化结果比较Table 2 Comparison of optimization results between the parameters set in this paper and [17]函数M Method min max mean±std SR Fun 1 Ours
[17]3.91E-33 1.42E-29 1.20E-30±2.51E-30 1.00 5.01E-33 6.95E-29 3.09E-30±9.83E-30 1.00 Fun 2 Ours
[17]9.79E-02 2.26E+00 1.30E+00±5.31E-01 1.00 1.00E+00 5.72E+00 2.40E+00±7.33E-01 0.84 Fun 3 Ours
[17]5.90E-13 2.27E-10 2.13E-11±3.88E-11 1.00 6.03E-13 2.48E-10 2.99E-11±4.90E-11 1.00 Fun 4 Ours
[17]5.58E-18 7.20E-16 1.60E-16±1.52E-16 1.00 8.12E-18 2.87E-13 6.86E-15±4.09E-14 1.00 Fun 5 Ours
[17]7.24E-32 3.86E-28 1.60E-29±5.49E-29 1.00 2.12E-32 3.44E-28 1.65E-29±5.70E-29 1.00 Fun 6 Ours
[17]9.94E-01 7.95E+00 3.34E+00±1.55E+00 0.92 1.98E+00 1.09E+01 5.49E+00±2.36E+00 0.54 Fun 7 Ours
[17]0.00E+00 1.42E-01 5.20E-02±2.94E-02 0.96 0.00E+00 1.84E-01 7.81E-02±3.58E-02 0.76 Fun 8 Ours
[17]3.55E-15 7.10E-15 4.68E-15±1.67E-15 1.00 3.55E-15 2.13E-14 7.81E-15±3.58E-15 1.00 Fun 9 Ours
[17]1.18E+02 1.04E+03 4.71E+02±1.99E+02 0.64 1.18E+02 1.19E+03 5.48E+02±2.16E+02 0.42 Fun 10 Ours
[17]0.00E+00 1.44E-02 6.04E-04±2.51E-03 0.94 0.00E+00 1.15E-01 3.03E-03±1.64E-02 0.84 Fun 11 Ours
[17]4.71E-32 2.90E-27 9.03E-29±4.35E-28 1.00 4.71E-32 1.34E-28 3.09E-30±1.90E-29 1.00 Fun 12 Ours
[17]1.34E-32 6.16E-29 3.88E-30±9.45E-30 1.00 1.34E-32 1.09E-02 2.19E-04±1.55E-03 0.98 4. 本文参数设置方式优化性能的进一步验证
为进一步验证本文参数设置方法的有效性, 将第2节的一组固定参数推荐值和第3节的时变参数设置方式, 应用于2015年的进化计算世界大会, 即CEC2015发布的15个基准函数[19].
对于参数优化能力的验证, 种群大小与前面所有试验设置相同(设置为50), 函数维数为10, 最大迭代次数为5 000, 每个函数运行次数为100.试验仅记录达到指定精度的成功率(Success rate, SR), 其中, F1 $\sim$ F15的指定精度分别为: 3 000, 1 500, 20, 10, 500, 1 000, 10, 200, 110, 1 000, 500, 110, 30, 3 000, 110.
对图 4给出的3种典型固定参数, 即文献[6]和文献[7]推荐的参数取值PARA1和PARA2, 以及本文的参数推荐取值PARA3, 表 3给出了应用于CEC2015的15个基准函数上运行结果的对比.可以看出, 本文的参数推荐值PARA3在15个函数上的表现略优于PARA1和PARA2.
表 3 本文给出的固定参数推荐值在CEC2015基准函数F1~F15上的运行结果Table 3 Running results on CEC2015 Benchmark functions F1~F15 with fixed parameters对第3节推荐的时变参数设置方式和文献[17]的参数设置方式, 表 4给出了应用于CEC2015的15个基准函数上运行结果的对比.可以看出, 本文推荐的时变参数设置方式在15个函数上的表现优于文献[17]的参数设置方式.
表 4 本文给出的时变参数设置方式在CEC2015基准函数F1~F15上的运行结果Table 4 Running results on CEC2015 Benchmark functions F1~F15 with time-varying parametersMethod F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11 F12 F13 F14 F15 Ours 0.70 0.26 0.30 0.94 1.00 0.64 1.00 0.50 1.00 0.95 1.00 1.00 0.25 0.40 0.96 [17] 0.16 0.14 0.01 0.82 0.85 0.25 1.00 0.22 1.00 0.85 1.00 1.00 0.20 0.40 0.90 5. 本文推荐的PSO参数应用于连续优化问题和离散优化问题的讨论
PSO算法最初是针对连续优化问题提出的, 相关研究也主要集中在连续函数优化方面[20-22], 即第1节描述的标准算法被广泛研究和应用.本文研究的出发点也主要是针对连续优化问题, 文中给出的12个标准测试函数和CEC2015发布的15个基准函数[19]的优化测试, 验证了本文方法在连续优化问题上的有效性.
对于离散优化(或组合优化)问题而言, 解空间是离散点的集合, 而非连续区域, 因此利用PSO算法解决离散优化问题, 一般需要修正位置和速度更新公式, 或者对问题进行变形, 这方面的工作大致可分为如下三类[21-22]: 1)直接将连续PSO用于离散优化问题的求解; 2)将速度作为位置变化的概率; 3)重新定义PSO算法的操作算子.对于前两种情形, 本文推荐的参数取值方法仍然适用, 因为算法在本质上依然遵从标准的PSO连续问题求解规则.但对于第三种情形, 一般都是针对要求解的具体问题, 定义不同的PSO操作算子, 使得PSO算法在形式上与标准PSO算法差别较大, 从而本文推荐的参数取值方法难以保证其优化效果, 这方面的问题有待进一步研究.
6. 结论
粒子群算法的可调参数共同影响着算法的优化性能, 本文将研究重点放在了惯性权重 $w$ 和加速因子 ${c_1}$ , ${c_2}$ 的设定和调节上.基于12个常用的、不同类型的基准函数, 在 $w \in \left[{-1, 1} \right]$ , ${c_1} + {c_2} \in \left[{0, 8} \right]$ 的参数区域内进行了全面的仿真研究.通过实验结果可以看到, 常常被提到的``惯性权重起着调节种群全局搜索能力和局部搜索能力''的说法是欠全面的, 种群的搜索能力和算法的性能, 是依靠 $w$ , ${c_1}$ 和 ${c_2}$ 的相互配合来调节的, 并不是仅靠一个参数可以决定的.在对固定参数的情形进行仿真并给出参数推荐值后, 还研究了时变参数对算法的影响, 给出了一种推荐的时变参数设置方法.最后通过CEC2015发布的15个基准函数进一步验证了本文推荐的参数选取方法的有效性, 并讨论了PSO算法在连续优化问题和离散优化问题方面的应用.
-
表 1 5组参数的运行结果对比
Table 1 Comparison of running results on 5 parameters
函数 PARA min max mean±std SR Fun 1 1 1.47E-25 8.64E-22 6.32E-23±1.34E-22 1.00 2 9.05E-36 5.64E-31 1.73E-32±7.16E-32 1.00 3 1.98E-40 2.94E-34 1.31E-35±4.50E-35 1.00 4 1.81E-57 2.84E-33 2.86E-35±2.84E-34 1.00 5 1.63E-27 1.45E-23 2.71E-25±1.46E-24 1.00 Fun 2 1 2.72E-02 7.29E+00 2.40E+00±1.43E+00 0.84 2 3.18E-03 1.20E+02 3.75E+00±1.19E+01 0.76 3 1.20E-03 8.27E+00 3.45E+00±1.96E+00 0.30 4 6.03E-02 8.96E+00 4.30E+00±1.57E+00 0.07 5 2.21E-02 8.45E+00 3.45E+00±1.40E+00 0.31 Fun 3 1 6.55E-10 8.21E-08 1.38E-08±1.58E-08 1.00 2 5.68E-14 1.07E-10 9.80E-12±1.70E-11 1.00 3 2.98E-11 7.36E-09 8.82E-10±1.32E-09 1.00 4 7.06E-12 4.01E-04 6.10E-06±4.09E-05 0.94 5 1.23E-10 1.02E-08 1.63E-09±1.77E-09 1.00 Fun 4 1 1.06E-14 1.00E+01 5.00E-01±2.19E+00 0.95 2 7.73E-20 1.00E+01 1.00E-01±1.00E+00 0.99 3 7.38E-23 7.89E-20 9.10E-21±1.60E-20 1.00 4 8.37E-20 1.00E+01 1.00E-01±1.00E+00 0.98 5 1.64E-15 1.12E-13 1.82E-14±1.87E-14 1.00 Fun 5 1 1.14E-25 1.00E+04 2.00E+02±1.40E+03 0.00 2 6.54E-35 1.82E-29 2.24E-31±1.82E-30 1.00 3 1.74E-39 2.36E-33 1.04E-34±3.60E-34 1.00 4 2.45E-54 6.74E-34 6.74E-36±6.74E-35 1.00 5 1.44E-26 7.31E-24 5.72E-25±9.94E-25 0.32 Fun 6 1 9.91E-13 1.39E+01 5.73E+00±3.06E+00 0.55 2 9.94E-01 1.59E+01 6.61E+00±3.23E+00 0.43 3 0.00E+00 1.39E+01 4.87E+00±2.94E+00 0.68 4 9.94E-01 4.47E+01 9.87E+00±7.05E+00 0.23 5 1.66E-13 7.95E+00 3.29E+00±1.84E+00 0.85 Fun 7 1 1.47E-02 1.64E-01 7.49E-02±3.35E-02 0.83 2 7.39E-03 1.84E-01 7.77E-02±3.52E-02 0.77 3 1.47E-02 2.21E-01 7.94E-02±4.10E-02 0.74 4 1.72E-02 3.05E-01 1.12E-01±5.99E-02 0.53 5 1.11E-15 1.69E-01 6.15E-02±3.39E-02 0.86 Fun 8 1 2.38E-13 1.99E+01 1.99E-01±1.99E+00 0.99 2 3.55E-15 7.10E-15 3.94E-15±1.11E-15 1.00 3 3.55E-15 7.10E-15 3.97E-15±1.16E-15 1.00 4 3.55E-15 1.15E+00 1.15E-02±1.15E-01 0.97 5 1.42E-14 6.18E-13 1.51E-13±1.19E-13 1.00 Fun 9 1 0.00E+00 1.30E+03 6.41E+02±2.28E+02 0.35 2 0.00E+00 1.42E+03 6.83E+02±2.86E+02 0.30 3 1.18E+02 1.54E+03 6.41E+02±3.04E+02 0.44 4 1.18E+00 1.19E+03 6.40E+02±2.51E+02 0.36 5 0.00E+00 9.49E+02 4.48E+02±1.86E+02 0.67 Fun 10 1 3.55E-10 1.57E+00 1.46E-01±4.41E-01 0.86 2 0.00E+00 3.07E+00 1.69E-01±5.28E-01 0.86 3 0.00E+00 1.50E+00 6.00E-02±2.96E-01 0.96 4 1.81E-13 3.00E+00 1.40E-01±4.50E-01 0.46 5 0.00E+00 3.46E-02 3.46E-04±3.46E-03 0.99 Fun 11 1 5.76E-27 5.30E-21 5.90E-23±5.30E-22 1.00 2 4.71E-32 1.90E-31 4.94E-32±1.53E-32 1.00 3 4.71E-32 3.11E-01 1.55E-02±6.81E-02 0.95 4 4.71E-32 3.11E-01 1.24E-02±6.12E-02 0.95 5 5.16E-29 3.55E-24 5.37E-26±2.57E-25 1.00 Fun 12 1 6.86E-27 6.65E-22 2.13E-23±7.32E-23 1.00 2 1.34E-32 4.65E-31 2.13E-32±4.68E-32 1.00 3 1.34E-32 2.72E-26 5.45E-28±3.85E-27 1.00 4 1.34E-32 4.23E-13 4.23E-15±4.26E-14 0.99 5 2.78E-28 1.93E-23 2.82E-25±1.93E-24 1.00 表 2 本文与文献[17]参数设置的优化结果比较
Table 2 Comparison of optimization results between the parameters set in this paper and [17]
函数M Method min max mean±std SR Fun 1 Ours
[17]3.91E-33 1.42E-29 1.20E-30±2.51E-30 1.00 5.01E-33 6.95E-29 3.09E-30±9.83E-30 1.00 Fun 2 Ours
[17]9.79E-02 2.26E+00 1.30E+00±5.31E-01 1.00 1.00E+00 5.72E+00 2.40E+00±7.33E-01 0.84 Fun 3 Ours
[17]5.90E-13 2.27E-10 2.13E-11±3.88E-11 1.00 6.03E-13 2.48E-10 2.99E-11±4.90E-11 1.00 Fun 4 Ours
[17]5.58E-18 7.20E-16 1.60E-16±1.52E-16 1.00 8.12E-18 2.87E-13 6.86E-15±4.09E-14 1.00 Fun 5 Ours
[17]7.24E-32 3.86E-28 1.60E-29±5.49E-29 1.00 2.12E-32 3.44E-28 1.65E-29±5.70E-29 1.00 Fun 6 Ours
[17]9.94E-01 7.95E+00 3.34E+00±1.55E+00 0.92 1.98E+00 1.09E+01 5.49E+00±2.36E+00 0.54 Fun 7 Ours
[17]0.00E+00 1.42E-01 5.20E-02±2.94E-02 0.96 0.00E+00 1.84E-01 7.81E-02±3.58E-02 0.76 Fun 8 Ours
[17]3.55E-15 7.10E-15 4.68E-15±1.67E-15 1.00 3.55E-15 2.13E-14 7.81E-15±3.58E-15 1.00 Fun 9 Ours
[17]1.18E+02 1.04E+03 4.71E+02±1.99E+02 0.64 1.18E+02 1.19E+03 5.48E+02±2.16E+02 0.42 Fun 10 Ours
[17]0.00E+00 1.44E-02 6.04E-04±2.51E-03 0.94 0.00E+00 1.15E-01 3.03E-03±1.64E-02 0.84 Fun 11 Ours
[17]4.71E-32 2.90E-27 9.03E-29±4.35E-28 1.00 4.71E-32 1.34E-28 3.09E-30±1.90E-29 1.00 Fun 12 Ours
[17]1.34E-32 6.16E-29 3.88E-30±9.45E-30 1.00 1.34E-32 1.09E-02 2.19E-04±1.55E-03 0.98 表 3 本文给出的固定参数推荐值在CEC2015基准函数F1~F15上的运行结果
Table 3 Running results on CEC2015 Benchmark functions F1~F15 with fixed parameters
表 4 本文给出的时变参数设置方式在CEC2015基准函数F1~F15上的运行结果
Table 4 Running results on CEC2015 Benchmark functions F1~F15 with time-varying parameters
Method F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11 F12 F13 F14 F15 Ours 0.70 0.26 0.30 0.94 1.00 0.64 1.00 0.50 1.00 0.95 1.00 1.00 0.25 0.40 0.96 [17] 0.16 0.14 0.01 0.82 0.85 0.25 1.00 0.22 1.00 0.85 1.00 1.00 0.20 0.40 0.90 -
[1] Kennedy J, Eberhart R. Particle swarm optimization. In:Proceedings of the 1995 IEEE International Conference on Neural Networks. Perth, Australia:IEEE, 1995. 1942-1948 http://www.oalib.com/references/17617167 [2] Shi Y, Eberhart R. A modified particle swarm optimizer. In:Proceedings of the 1998 IEEE International Conference on Evolutionary Computation. Anchorage, AK, USA:IEEE, 1998. 69-73 [3] 张勇, 巩敦卫, 张婉秋.一种基于单纯形法的改进微粒群优化算法及其收敛性分析.自动化学报, 2009, 35(3):289-298 doi: 10.3724/SP.J.1004.2009.00289Zhang Yong, Gong Dun-Wei, Zhang Wan-Qiu. A simplex method based improved particle swarm optimization and analysis on its global convergence. Acta Automatica Sinica, 2009, 35(3):289-298 doi: 10.3724/SP.J.1004.2009.00289 [4] 潘峰, 周倩, 李位星, 高琪.标准粒子群优化算法的马尔科夫链分析.自动化学报, 2013, 39(4):381-389 doi: 10.1016/S1874-1029(13)60037-3Pan Feng, Zhou Qian, Li Wei-Xing, Gao Qi. Analysis of standard particle swarm optimization algorithm based on Markov chain. Acta Automatica Sinica, 2013, 39(4):381-389 doi: 10.1016/S1874-1029(13)60037-3 [5] 刘朝华, 周少武, 刘侃, 章兢.基于双模态自适应小波粒子群的永磁同步电机多参数识别与温度监测方法.自动化学报, 2013, 39(12):2121-2130 http://www.aas.net.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=18241Liu Zhao-Hua, Zhou Shao-Wu, Liu Kan, Zhang Jing. Permanent magnet synchronous motor multiple parameter identification and temperature monitoring based on binary-modal adaptive wavelet particle swarm optimization. Acta Automatica Sinica, 2013, 39(12):2121-2130 http://www.aas.net.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=18241 [6] Eberhart R C, Shi Y. Comparing inertia weights and constriction factors in particle swarm optimization. In:Proceedings of the 2000 Congress on Evolutionary Computation. La Jolla, CA:IEEE, 2000. 84-88 [7] Trelea I C. The particle swarm optimization algorithm:convergence analysis and parameter selection. Information Processing Letters, 2003, 85(6):317-325 doi: 10.1016/S0020-0190(02)00447-7 [8] Samal N R, Konar A, Das S, Abraham A. A closed loop stability analysis and parameter selection of the particle swarm optimization dynamics for faster convergence. In:Proceedings of the 2007 IEEE Congress on Evolutionary Computation. Singapore:IEEE, 2007. 1769-1776 http://www.academia.edu/2724938/A_closed_loop_stability_analysis_and_parameter_selection_of_the_particle_swarm_optimization_dynamics_for_faster_convergence [9] Carlisle A, Dozier G. An off-the-shelf PSO. In:Proceedings of the 2001 Workshop on Particle Swarm Optimization. Indianapolis, USA, 2001. 1-6 [10] 胡建秀, 曾建潮.微粒群算法中惯性权重的调整策略.计算机工程, 2007, 33(11):193-195 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJC200711069.htmHu Jian-Xiu, Zeng Jian-Chao. Selection on inertia weight of particle swarm optimization. Computer Engineering, 2007, 33(11):193-195 http://www.cnki.com.cn/Article/CJFDTOTAL-JSJC200711069.htm [11] 延丽平, 曾建潮.具有自适应随机惯性权重的PSO算法.计算机工程与设计, 2006, 27(24):4677-4679, 4706 http://www.cnki.com.cn/Article/CJFDTOTAL-SJSJ200624020.htmYan Li-Ping, Zeng Jian-Chao. Particle swarm optimization with self-adaptive stochastic inertia weight. Computer Engineering and Design, 2006, 27(24):4677-4679, 4706 http://www.cnki.com.cn/Article/CJFDTOTAL-SJSJ200624020.htm [12] Chalermchaiarbha S, Ongsakul W. Stochastic weight trade-off particle swarm optimization for nonconvex economic dispatch. Energy Conversion and Management, 2013, 70:66-75 doi: 10.1016/j.enconman.2013.02.009 [13] 敖永才, 师奕兵, 张伟, 李焱骏.自适应惯性权重的改进粒子群算法.电子科技大学学报, 2014, 43(6):874-880 http://www.cnki.com.cn/Article/CJFDTOTAL-DKDX201406014.htmAo Yong-Cai, Shi Yi-Bing, Zhang Wei, Li Yan-Jun. Improved particle swarm optimization with adaptive inertia weight. Journal of University of Electronic Science and Technology of China, 2014, 43(6):874-880 http://www.cnki.com.cn/Article/CJFDTOTAL-DKDX201406014.htm [14] Zhan Z H, Zhang J, Li Y, Chung H S H. Adaptive particle swarm optimization. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2009, 39(6):1362-1381 doi: 10.1109/TSMCB.2009.2015956 [15] Alfi A. PSO with adaptive mutation and inertia weight and its application in parameter estimation of dynamic systems. Acta Automatica Sinica, 2011, 37(5):541-549 doi: 10.1016/S1874-1029(11)60205-X [16] Suganthan P N. Particle swarm optimiser with neighbourhood operator. In:Proceedings of the 1999 Congress on Evolutionary Computation. Washington DC, USA:IEEE, 1999. 1958-1962 [17] Ratnaweera A, Halgamuge S K, Watson H C. Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients. IEEE Transactions on Evolutionary Computation, 2004, 8(3):240-255 doi: 10.1109/TEVC.2004.826071 [18] Yamaguchi T, Yasuda K. Adaptive particle swarm optimization:self-coordinating mechanism with updating information. In:Proceedings of the 2006 IEEE International Conference on Systems, Man, and Cybernetics. Taipei, China:IEEE, 2006. 2303-2308 [19] Liang J J, Qu B Y, Suganthan P N, Chen Q. Problem Definitions and Evaluation Criteria for the CEC 2015 Competition on Learning-based Real-parameter Single Objective Optimization. Technical Report 201411A, Computational Intelligence Laboratory, Zhengzhou University, Zhengzhou China, and Technical Report, Nanyang Technological University, Singapore, 2014. http://web.mysites.ntu.edu.sg/epnsugan/PublicSite/Shared%20Documents/CEC-2015/Learning-Based%20Single%20Objective%20Optimization/CEC%202015%20Learning_based.pdf [20] 崔志华, 曾建潮.微粒群优化算法.北京:科学出版社, 2011.Cui Zhi-Hua, Zeng Jian-Chao. Particle Swarm Optimization. Beijing:Science Press, 2011. [21] 王凌, 刘波.微粒群优化与调度算法.北京:清华大学出版社, 2008.Wang Ling, Liu Bo. Particle Swarm Optimization and Scheduling Algorithms. Beijing:Tsinghua University Press, 2008. [22] 郭文忠, 陈国龙.离散粒子群优化算法及其应用.北京:清华大学出版社, 2012.Guo Wen-Zhong, Chen Guo-Long. Discrete Particle Swarm Optimization Algorithm and Its Application. Beijing:Tsinghua University Press, 2012. 期刊类型引用(119)
1. 刘育敏,杨丽荣. 基于粒子群算法的碎矿机械手轨迹规划研究. 机械工程师. 2025(02): 61-66 . 百度学术
2. 刘宇蕊,陈云阳,余鑫. 基于改进粒子群优化算法的多无人机协同欺骗干扰技术. 舰船电子对抗. 2024(01): 72-76 . 百度学术
3. 郭飞燕,宋长杰,张硕,童清云,白雪涛,刘连喜. 面向精度提升与工艺改进的容差分配多目标模型融合方法. 计算机集成制造系统. 2024(03): 926-941 . 百度学术
4. 黄君泽,吴文渊,李轶,石明全,王正江. 面向动态公交的离散分层记忆粒子群优化算法. 计算机工程. 2024(04): 20-30 . 百度学术
5. 熊波,杨峰,张大琳,纪小明. 密集假目标干扰峰均比优化方法分析. 电子信息对抗技术. 2024(03): 8-13 . 百度学术
6. 邱麒添. 基于PSO-BP算法的投资者年龄预测研究. 现代计算机. 2024(09): 61-65 . 百度学术
7. 邱麒添. 基于主成分分析的PSO-BP算法对肥胖水平预测研究. 现代计算机. 2024(19): 13-18 . 百度学术
8. 史笑宇,王欣,王钢. 基于PSO-SVM组合模型的短期电力需求预测. 东北电力大学学报. 2024(06): 74-81 . 百度学术
9. 陈吉文,杨浈,张帅,崔恩迪,李明. 基于多峰协同和纯元素特征峰面积归一化的重叠峰快速解析算法. 光谱学与光谱分析. 2023(01): 151-155 . 百度学术
10. 宋志强,夏庆锋,陈少博,邹佳佳. 基于改进球面向量粒子群优化的UAV航迹规划. 电光与控制. 2023(04): 56-60 . 百度学术
11. 王闯,韩非,申雨轩,李学贵,董宏丽. 基于事件触发的全信息粒子群优化器及其应用. 自动化学报. 2023(04): 891-903 . 本站查看
12. 王延年,范昊,李鹏程,王栋. 基于PSO的GPC-PID的细纱机锭速控制算法. 西安工程大学学报. 2023(02): 9-16 . 百度学术
13. 张昭昭,代强,朱应钦. 改进模糊神经网络PID的瓦斯掺混浓度控制. 西安科技大学学报. 2023(02): 388-397 . 百度学术
14. 苗丽娟,李锦涛. 无线传感器网络功率自适应控制算法研究. 信息技术与信息化. 2023(06): 214-217 . 百度学术
15. 贺楚寒,刘宇娇,汤可宗. 改进粒子群算法在陶瓷配方问题上的应用. 福建电脑. 2023(07): 25-29 . 百度学术
16. 刘海鹏,方奇文,王蒙,何艳苹,念紫帅,刘晓茜. 改进ODPSO算法在光伏MPPT中的应用研究. 控制工程. 2023(07): 1357-1367 . 百度学术
17. 焦育威,王鹏. 基于种群个体数自适应的多尺度量子谐振子优化算法. 自动化学报. 2023(07): 1587-1600 . 本站查看
18. 程俊,董学平,张志军. 基于改进狼群算法的AGV路径规划. 合肥工业大学学报(自然科学版). 2023(07): 879-885 . 百度学术
19. 乔力晖,李明澈,张睿,方宗杰. 直流微网蓄电池-SMES混合储能系统容量配置方法. 综合智慧能源. 2023(09): 59-64 . 百度学术
20. 王毅,谭聪,沈红伟,李梦娇,聂伟,刘期烈. 基于自适应形态学的直流故障电弧检测特征增强研究. 国外电子测量技术. 2023(11): 121-128 . 百度学术
21. 杨力,何兆斌,孔志翔. 天地一体化智能网络智能节点部署策略. 小型微型计算机系统. 2022(01): 159-164 . 百度学术
22. 王凇瑶,张智晟. 基于量子加权GRU神经网络的电力系统短期负荷预测. 电力系统及其自动化学报. 2022(01): 1-7 . 百度学术
23. 王铁广,王明华,丁锐,李文勤,邢凯,李明. 基于粒子群算法的大棚温度自适应离散模糊控制系统. 机械工程师. 2022(03): 34-37+41 . 百度学术
24. 张文静,曹博文,李宽欣,高亚苹,岳强,徐洪泽. 中速磁悬浮列车的分数阶运行控制方法. 铁道学报. 2022(02): 42-48 . 百度学术
25. 高昶霖,宋燕利,左洪洲,章诚. 基于动态权重的自适应PSO-BP神经网络焊接缺陷成因诊断. 焊接学报. 2022(01): 98-106+119-120 . 百度学术
26. 孙晶云,鲁东丽,郭军,高云,陈宇峰,向郑涛. 基于GAPSO-SVM模型的行驶工况识别. 湖北汽车工业学院学报. 2022(01): 28-32+37 . 百度学术
27. 朱春梦,蓝兴英. 基于粒子群优化算法的化工稳态流程模拟参数优化. 石油科学通报. 2022(01): 50-60 . 百度学术
28. 王成,王朝立,赵忆文. 基于改进粒子群优化的乒乓球发球机械手轨迹规划. 智能计算机与应用. 2022(04): 1-9+14 . 百度学术
29. 高艳龙,万仁霞,陈瑞典. 基于粒子群的三支聚类算法. 福州大学学报(自然科学版). 2022(03): 301-307 . 百度学术
30. 于军琪,高之坤,赵安军,周敏,虎群. 改进并行粒子群算法用于冷却水系统节能优化. 控制理论与应用. 2022(03): 421-431 . 百度学术
31. 范升旭,杨春曦,杨启良,韩世昌. 基于粒子群-随机森林算法和气象数据的三七叶面积生长预测模型. 中草药. 2022(10): 3103-3110 . 百度学术
32. 刘亮,唐勇,陶呈纲,甄子洋,刘继承. 基于控制分配的推力矢量短距起飞垂直降落飞机减速过渡控制. 哈尔滨工程大学学报. 2022(06): 832-841 . 百度学术
33. ZHANG Sisi,YAN Jie,JIANG Mingshun,SUI Qingmei,ZHANG Lei,LUO Yuxiang. Visual reconstruction of flexible structure based on fiber grating sensor array and extreme learning machine algorithm. Optoelectronics Letters. 2022(07): 390-397 . 必应学术
34. 罗逸轩,刘建华,胡任远,张冬阳,卜冠南. 融合经验共享Q学习的粒子群优化算法. 计算机科学与探索. 2022(09): 2151-2162 . 百度学术
35. 方奇文,刘海鹏,王蒙,刘晓茜. 基于改进离散粒子群算法的风光储容量优化配置. 陕西理工大学学报(自然科学版). 2022(05): 23-31 . 百度学术
36. 周宏宇,王小刚,单永志,赵亚丽,崔乃刚. 基于改进粒子群算法的飞行器协同轨迹规划. 自动化学报. 2022(11): 2670-2676 . 本站查看
37. 王坤,侯树贤. 基于改进PSO-LSTM的APU排气温度预测研究. 计算机仿真. 2022(11): 32-37 . 百度学术
38. 胡蓉,李洋,钱斌,金怀平,向凤红. 结合聚类分解的增强蚁群算法求解复杂绿色车辆路径问题. 自动化学报. 2022(12): 3006-3023 . 本站查看
39. 王振东,刘尧迪,杨书新,王俊岭,李大海. 基于天牛群优化与改进正则化极限学习机的网络入侵检测. 自动化学报. 2022(12): 3024-3041 . 本站查看
40. 许威,林月娥,张霞. 基于智能建筑环境的吞吐量和QoS优化方案. 电子设计工程. 2022(21): 146-150 . 百度学术
41. 毛志勇,崔鹏杰,黄春娟,韩榕月. KPCA-CS-SVM下的矿井突水水源判别模型. 辽宁工程技术大学学报(自然科学版). 2021(02): 104-111 . 百度学术
42. 高俊婷,张丽萍,赵凤荣. 基于聚类和关键词提取的软件缺陷分析方法. 计算机工程与设计. 2021(03): 830-839 . 百度学术
43. 王新颖,赵斌,张瑞程,黄旭安,陈海群. 基于IPSO-DBN的管道故障诊断方法. 消防科学与技术. 2021(02): 263-267 . 百度学术
44. 张勇,杨康,郝国生,巩敦卫. 基于相似历史信息迁移学习的进化优化框架. 自动化学报. 2021(03): 652-665 . 本站查看
45. 李杰,靳孟宇,马士豪. 改进粒子群算法优化支持向量机的短期负荷预测. 测控技术. 2021(04): 76-79 . 百度学术
46. 廉小亲,刘钰,陈彦铭,黄静,龚永罡,霍亮生. 基于自适应粒子群算法的多峰谱线分离方法研究. 光谱学与光谱分析. 2021(05): 1452-1457 . 百度学术
47. 张涛. 混合粒子群算法的电火花成型加工工艺参数优化. 佳木斯大学学报(自然科学版). 2021(02): 88-90+123 . 百度学术
48. 卿东升,邓巧玲,李建军,刘帅,刘鑫,曾素平. 基于粒子群算法的满载需求可拆分车辆路径规划. 控制与决策. 2021(06): 1397-1406 . 百度学术
49. 罗忠,徐迪,李雷,马辉. 基于改进二阶循环平稳解卷积的轴承故障检测方法. 东北大学学报(自然科学版). 2021(05): 673-678 . 百度学术
50. 王延年,宋功庆. 基于改进神经网络的降低锭子转速波动控制算法. 纺织高校基础科学学报. 2021(02): 52-58 . 百度学术
51. 王海舰,黄梦蝶,高兴宇,卢士林,张强. 考虑截齿损耗的多传感信息融合煤岩界面感知识别. 煤炭学报. 2021(06): 1995-2008 . 百度学术
52. 陈伟超,符强. 基于倒位变异的蜉蝣优化算法. 计算机系统应用. 2021(08): 157-163 . 百度学术
53. 马力,张建国,张雷铭,涂宇航,武璟,廉开元. 基于IPSO-ELM模型的露天矿抛掷爆破效果预测研究. 煤炭科学技术. 2021(09): 69-75 . 百度学术
54. 于航,王子谦,雷振宇,高尚策. 面向特征选择问题的差分鲸鱼优化算法. 电子设计工程. 2021(21): 12-17+22 . 百度学术
55. 李眩,吴晓兵,童百利. 基于动态自适应变参的粒子群优化算法. 四川轻化工大学学报(自然科学版). 2021(05): 41-47 . 百度学术
56. 朱辰晨,贾群. 利用Lyapunov函数确定粒子群算法参数选择. 数字技术与应用. 2021(09): 112-115+119 . 百度学术
57. 杜守信,毋涛. 双种群混合遗传算法的裁剪分床应用研究. 计算机工程与应用. 2021(22): 182-189 . 百度学术
58. 陈玲星,苏强,赵新龙. 基于改进PSO的非对称Bouc-Wen模型参数辨识. 压电与声光. 2021(06): 834-839 . 百度学术
59. 王欣,谢文华,张利君. 基于Shapley值组合模型的电力需求预测研究. 内蒙古电力技术. 2021(06): 40-44+48 . 百度学术
60. 周其洪,欧思凡,李青青,孙志宏,陈革. 基于粒子群优化的立体管状织机引纬系统. 控制工程. 2020(01): 134-137 . 百度学术
61. 张书强,郭福成,张敏,李曦. 大气折射对高程约束下时差定位误差的影响及修正. 系统工程与电子技术. 2020(03): 521-527 . 百度学术
62. 曹江涛,秦跃雁,姬晓飞. 基于视频的火焰检测算法综述. 数据采集与处理. 2020(01): 35-52 . 百度学术
63. 刘耿耿,庄震,郭文忠,陈国龙. VLSI中高性能X结构多层总体布线器. 自动化学报. 2020(01): 79-93 . 本站查看
64. 龚锦霞,刘艳敏. 基于深度确定策略梯度算法的主动配电网协调优化. 电力系统自动化. 2020(06): 113-125 . 百度学术
65. 陈德海,马原,潘韦驰. 改进PSO-RBF算法的锂电池额定容量实时估计. 计算机应用与软件. 2020(03): 45-50 . 百度学术
66. 吴玉洋,薛薇,许亮,姚远. 基于改进PSO算法优化极限学习机的气动光学成像偏移预测. 光电子·激光. 2020(01): 64-70 . 百度学术
67. 田兴华,张纪会,李阳. 基于混沌映射的自适应退火型粒子群算法. 复杂系统与复杂性科学. 2020(01): 45-54 . 百度学术
68. 王书涛,刘诗瑜,王志芳,张靖昆,孔德明,王玉田. 基于ICSO-SVM和三维荧光光谱的山梨酸钾浓度检测. 光谱学与光谱分析. 2020(05): 1614-1619 . 百度学术
69. 富坤,仇倩,赵晓梦,高金辉. 基于节点演化分阶段优化的事件检测方法. 计算机科学. 2020(05): 96-102 . 百度学术
70. 吴长林,陈玉,高文根. 基于VMD-IPSO-RFR模型的光伏发电功率预测. 四川轻化工大学学报(自然科学版). 2020(02): 73-79 . 百度学术
71. 张新生,张玥. 基于Lasso-PSO-BP神经网络的腐蚀管道失效压力的预测. 材料保护. 2020(04): 46-52 . 百度学术
72. 林家泉,孙凤山,李亚冲,庄子波. 基于IPSO-Elman神经网络的飞机客舱能耗预测. 航空学报. 2020(07): 234-243 . 百度学术
73. 赵志彪,李瑞,刘彬,周武洲. 基于速度交流的共生多种群粒子群算法. 计量学报. 2020(08): 1012-1022 . 百度学术
74. 陆文星,戴一茹,李楚,李克卿. 基于改进PSO-BP神经网络的旅游客流量预测方法. 系统科学与数学. 2020(08): 1407-1419 . 百度学术
75. 沈超,王逊,黄树成. 一种实现微博兴趣挖掘的粒子群优化k-means算法. 计算机与数字工程. 2020(08): 1819-1823 . 百度学术
76. 白杰,刘雨兴. 改进粒子群算法的航空发动机转速系统辨识. 机械工程与自动化. 2020(05): 7-9 . 百度学术
77. 唐苏州,程娥,吕妍菲. 基于粒子群仿真优化的准时生产看板数量决策方法. 计算机集成制造系统. 2020(10): 2735-2742 . 百度学术
78. 孙玉豹,王少华,吴春洲,肖洒. 海上N油田蒸汽驱注采参数智能优化设计. 科技和产业. 2020(11): 221-228+256 . 百度学术
79. 王侃,李金亮,王景华,张磊安. 基于单粒子寻优算法的铺层装备支架梁结构优化设计. 可再生能源. 2020(12): 1621-1625 . 百度学术
80. 张雨萌,管光华. 基于数值仿真的单目标多变量渠道控制参数寻优算法研究. 灌溉排水学报. 2020(12): 78-86 . 百度学术
81. 秦立新,张凯,王玉宝,陈宁. 基于优化PSO-RBF的柴油机故障诊断方法. 柴油机. 2020(06): 23-28 . 百度学术
82. 张淑卿,李卓桐,张立红. 改进PSO-RBF神经网络的电网故障检测模型. 计算机时代. 2019(01): 5-8+12 . 百度学术
83. 李杰,靳孟宇,马士豪. 基于粒子群算法的极限学习机短期电力负荷预测. 制造业自动化. 2019(01): 154-157 . 百度学术
84. 石博文,尹燕燕,刘飞. 基于PSO-控制变量参数化混合策略的间歇化工过程优化控制. 化工学报. 2019(03): 979-986 . 百度学术
85. 邢雪. 基于自适应惯性权重PSO图像分割方法研究. 自动化技术与应用. 2019(02): 87-91 . 百度学术
86. 邓晓红,宫磊,刘兴民. 基于PSO-LS-SVMR的公共建筑能耗短期预测模型. 建筑节能. 2019(04): 120-124 . 百度学术
87. Zhiming Lv,Linqing Wang,Zhongyang Han,Jun Zhao,Wei Wang. Surrogate-Assisted Particle Swarm Optimization Algorithm With Pareto Active Learning for Expensive Multi-Objective Optimization. IEEE/CAA Journal of Automatica Sinica. 2019(03): 838-849 . 必应学术
88. 王书涛,吴兴,朱文浩,李明珊. 平行因子结合支持向量机对多环芳烃的荧光检测. 光学学报. 2019(05): 397-405 . 百度学术
89. 董超,李静娴,张安民. 改进CPSO-LSSVM的腐蚀预测模型. 计算机工程与设计. 2019(06): 1682-1688 . 百度学术
90. 陈林,张帅伟,钟卫东,杨晓元,刘文超. 基于粒子群优化算法的多S盒相关性能量分析方法. 武汉大学学报(理学版). 2019(03): 309-315 . 百度学术
91. 陈伟,吴建虎,裴喜平. 基于谐波电压畸变率机会约束的光伏极限接入容量计算方法. 电气应用. 2019(07): 52-59 . 百度学术
92. 裴家正,黄勇,董云龙,何友,陈小龙,陈唯实. 基于PHD的粒子滤波检测前跟踪改进算法. 雷达科学与技术. 2019(03): 263-270+279 . 百度学术
93. 李明军,王均星,王亚洲. 基于改进粒子群优化算法和极限学习机的混凝土坝变形预测. 天津大学学报(自然科学与工程技术版). 2019(11): 1136-1144 . 百度学术
94. 邹德龙,王宝华. 一种混合优化算法面向高维函数优化的研究. 计算机工程与应用. 2019(20): 122-127 . 百度学术
95. 张浩,库涛,张丁一. 考虑订单组批特性的特种铝锭组炉优化. 控制理论与应用. 2019(10): 1730-1737 . 百度学术
96. 龚梦,赵熙临,马霁旻,何晶晶. 考虑光伏发电不确定性的系统补偿AGC方法. 湖北工业大学学报. 2019(05): 46-51 . 百度学术
97. 陈德海,马原,潘韦驰. 改进PSO-RBF模型的分阶查表法荷电状态估计. 储能科学与技术. 2019(06): 1190-1196 . 百度学术
98. 苗长伟,唐志荣,唐英杰. 基于相关系数平方和最大的三维点云配准. 激光与光电子学进展. 2019(22): 157-162 . 百度学术
99. 文乐,张宝锋,张恩享,童博,赵勇. 并网型多能互补系统优化规划方法. 热力发电. 2019(11): 68-72 . 百度学术
100. 李昊,罗云,李瑞东,苏永健,陈雪林,徐义巍,郭洪远,李鹏竹. 基于粒子群优化算法优化BP神经网络模型的间接空冷散热器性能监测. 动力工程学报. 2019(12): 973-980 . 百度学术
101. 孙乾,任小洪,乐英高. 基于粒子群优化极限学习机数据预测模型研究. 四川理工学院学报(自然科学版). 2019(05): 35-41 . 百度学术
102. 郑连清,曾治强,唐永红. 基于BP-PSO的SVC附加阻尼控制大电网试验. 电力科学与工程. 2018(03): 7-13 . 百度学术
103. 吴国忠,胡鑫浩,齐晗兵,王秋实,李栋. 基于粒子群算法反演液体光学常数新方法. 光学与光电技术. 2018(04): 23-29 . 百度学术
104. 孙吉伟,冯辅周,闵庆旭,徐超,朱俊臻. 涡流脉冲热像技术中检测条件的粒子群优化. 红外与激光工程. 2018(08): 240-246 . 百度学术
105. 王晓蒙,王会峰,姚乃夫. 基于粒子群算法的激光位移传感器参量优化. 激光技术. 2018(02): 181-186 . 百度学术
106. 张鑫,邹德旋,沈鑫. 含交叉项的混合二范数粒子群优化算法. 计算机应用. 2018(08): 2148-2156+2163 . 百度学术
107. 陈德海,任永昌,黄艳国,华铭. 基于改进PSO-RBF算法的纯电动汽车剩余里程实时预测. 汽车工程. 2018(07): 764-769 . 百度学术
108. 赵珊,张纪会,朱玉菲. 基于模糊推理的带收缩因子的粒子群算法. 青岛大学学报(工程技术版). 2018(03): 9-14+37 . 百度学术
109. 欧中亚. 试论基于视觉特性的图形图像分割算法. 信息技术与信息化. 2018(07): 101-104 . 百度学术
110. 张强,刘丽杰. 一种动态分组多策略果蝇优化算法. 信息与控制. 2018(04): 479-485 . 百度学术
111. 马振峰,李松松. 利用截止期感知的云计算调度方法. 湘潭大学自然科学学报. 2018(02): 89-92 . 百度学术
112. 孟蓉歌,张春化,梁继超. 改进粒子群优化-Elman算法在发动机曲轴脉宽预测中的应用. 中国机械工程. 2018(07): 766-770 . 百度学术
113. 陈侠,胡乃宽. 基于改进型支持向量机的侦察无人机作战效能评估. 火力与指挥控制. 2018(10): 31-34 . 百度学术
114. 徐文星,王万红,王芳,刘才,景邵星,赵国新. 基于PSOGSA前向神经网络的石化控制系统入侵检测. 化工学报. 2018(S2): 350-357 . 百度学术
115. 刘路民根. 支持向量机径向基核参数优化研究. 科学技术创新. 2018(26): 48-49 . 百度学术
116. 李建强,陈星旭,赵凯. 基于PSO-SVR模型的凝汽器真空目标值预测. 电力科学与工程. 2017(02): 66-72 . 百度学术
117. 姜凤利,张宇,王永刚. 一种基于引导策略的自适应粒子群优化算法. 计算机应用研究. 2017(12): 3599-3602 . 百度学术
118. 唐文秀,刘凯伟,孙丽萍,王海刚. 木塑复合材料挤出机料筒温度的控制方法. 木材工业. 2017(04): 43-46 . 百度学术
119. 谭莉,于春梅. IIWPSO-PNN在化工过程故障诊断中的应用. 自动化仪表. 2017(09): 10-14 . 百度学术
其他类型引用(182)
-