Fuzzy Partical Swarm Optimization Based on Filled Function and Transformation Function
-
摘要: 本文提出了一种基于变换函数与填充函数的模糊粒子群优化算法(Fuzzy partical swarm optimization based on filled function and transformation function,FPSO-TF).以基于不同隶属度函数的多回路模糊控制系统为基础,进一步结合变换函数与填充函数,使该算法减少了陷入局部最优的可能,又可以跳出局部极小值点至更小的点,快速高效地搜索到全局最优解.最后采用基准函数对此算法进行测试,并与几种不同类型的改进算法进行对比分析,验证了此算法的有效性与优越性.Abstract: A fuzzy partical swarm optimization (PSO) based on filled function and transformation function (FPSO-TF) is proposed. Based on the multi-loop fuzzy controlsystem with different membership function the algorithm combines transformation function and filled function to reduce the chances of falling into local minima, and jumping out of a local minimum. It is fast and efficient to search for the global optimal solution. To compare the proposed algorithm with several different types of improved algorithms, a Matlab simulation is given. The result also verifies the effectiveness of the algorithm.
-
在现代信号处理和数据分析领域, 从高维输入信号中提取能够反映系统本质属性的信息是一件非常有意义的工作, 通常将能够完成此类工作的方法称为系统特征提取方法, 而主成分分析方法是应用比较广泛的一种系统特征提取方法.主成分分析主要是通过正交变换将高维的数据映射到低维空间, 从而达到数据压缩和系统特征提取的目的[1].在信号处理领域, 通常又将输入信号自相关矩阵最大特征值对应的特征向量称之为信号的主成分, 将由信号的多个主成分张成的子空间称为信号的主子空间, 而将能够实现对输入信号的主成分或主子空间进行提取的方法称为主成分分析方法[2].目前, 主成分分析方法已经广泛应用于图像处理[3]、故障诊断[4]、模式识别[5]等领域.
采用神经网络方法来提取输入信号中的主成分是目前国内外的一个研究热点.因为相比传统的数值算法, 如EVD (Eigenvalue decomposition)和SVD (Singular value decomposition), 神经网络算法可以避免对输入信号自相关矩阵的计算, 而且能够处理非平稳的随机输入信号.自从Oja提出的第一个主成分分析神经网络算法以来[6], 学者们相继提出了很多主成分分析算法, 如NIC (Novel information criterion)算法[7]、ULA (Unified learning algorithm)算法[8]、UIC (Unified information criterion)算法[9]等.虽然这些算法已经在各个领域得到了广泛的应用.但是这些算法在应用范围上仍然存在一定的限制, 如Oja算法和ULA算法只能提取一个主成分; NIC算法和UIC算法只能进行主子空间跟踪, 不能提取多个主成分.而在某些信号处理领域需要对信号的多个主成分进行提取, 因此研究如何提取多个主成分就成为一件非常有意义的工作.
目前为止, 学者们已经提出了一些多个主成分提取算法.根据主成分的获取方式不同, Ouyang等将现行算法分为串行算法和并行算法两类[10].串行算法首先采用单个主成分提取算法提取信号的第一个主成分, 然后采用压缩技术对采样信号进行处理, 消除信号中第一个主成分的影响, 而后依旧采用单个主成分提取算法来提取信号的第二个主成分; 重复上述步骤, 就可以实现多个主成分的提取.串行算法的缺点主要有以下4个方面: 1) 由于串行算法在每次提取过程中都需要用到全部的采样数据, 因此需要大量的存储器件; 2) 由于主成分的提取过程是顺序进行的, 因此会造成很大的提取时延; 3) 由于下一个主成分的提取依赖于当前主成分的提取结果, 因此当前主成分的提取误差会传播到下一次提取过程中, 当提取主成分的维数很大时, 串行算法会造成很大的误差累积; 4) 串行算法必须是信号全部采集完成后才能使用, 因此难以满足实时信号处理的要求.相比串行算法, 并行算法可以在一个算法迭代过程中实现多个主成分的同时提取, 因此可以避免串行算法的上述缺点.此外由于并行算法还具有很好的实时性, 因此引发了大量学者的研究.
在文献[11]中, Oja等采用对神经网络输出进行加权的方式, 提出了第一个多个主成分并行提取算法; Ouyang等则是对NIC算法进行了加权改进, 提出了一种非对称结构的算法---WNIC (Weighted NIC)算法[10]; Tanaka等[12]对加权的Oja算法进行改进, 提出了一类更为一般化的多个主成分提取算法; 通过对正交投影子空间跟踪算法(Orthogonal projection approximation and subspace tracking, OPAST)进行适当改进, Bartelmaos等提出了一种可以并行提取多个主成分的PC-OPAST (Principal component-OPAST)算法[13], 仿真实验表明PC-OPAST算法的估计精度要高于WNIC算法; Li等通过对NIC算法进行了改进, 提出了一种具有对称结构的算法---MNIC (Modified NIC)算法[14];此后基于Givens空间旋转变换法, Thameri等[15-16]采用提出了4种不同类型的多个主成分并行提取算法(MED-GOPAST (Maximum error deviation-generalized OPAST)、IMED-GOPAST (Improved MED-generalized OPAST)、AS-GOPAST (Automatic selection-generalized OPAST)、H-GOPAST (Hybrid-generalized OPAST)).相比上述其他算法, Thameri等所提算法具有较低的计算复杂度.然而, 上述大多数并行提取算法都属于二阶算法, 算法的收敛速度较慢.为了进一步提升算法的收敛速度, 本文提出了一种新型的算法.
本文的章节安排如下:第1节主要介绍本文中符号的命名规则和重要符号说明; 第2节根据现有的算法提出了一种新型的多个主成分提取算法; 第3节主要是对算法进行收敛性分析; 算法的自稳定性证明安排在第4节; 第5节是算法的数值仿真和实际应用; 第6节是本文的结论.
1. 符号说明
为了规范符号使用, 这里对本文中符号的使用规则进行确定.在本文中, 矩阵用斜体大写字母表示(如 ${{R}}$ ); 而加粗的斜体小写字母则代表向量(如 ${{\pmb y}}$ ); 标量一般用不加粗的斜体小写字母表示(如 $\eta $ ).此外, 这里还给出了一些常用符号的含义:
${{R}}$ 向量的自相关矩阵
${{W}}$ 神经网络的权矩阵
${{A}}$ 加权矩阵
$\eta $ 神经网络的学习因子
$\alpha$ 遗忘因子
$n$ 提取主成分的维数
2. 新型的多个主成分提取算法
考虑满足如下多输入多输出关系的线性神经网络模型:
$ \begin{equation} {{\pmb y}}(k)= {{{W}}^{\rm T}}(k){{\pmb x}}(k) \end{equation} $
(1) 其中, ${{\pmb y}}(k)\in\textbf{R}{^{r \times 1}}$ 是神经网络的输出, ${{W}}(k)\in \textbf{R} {^{n \times r}}$ 是神经网络的权矩阵, 输入信号 ${{\pmb x}}(k)\in {\textbf{R}^{n \times 1}}$ 是一个零均值的随机过程, 这里作为神经网络的输入, $n$ 代表输入向量的维数, $r$ 代表所需提取主成分的维数.
令为输入信号的自相关矩阵, ${\lambda _i}$ 和分别为自相关矩阵 ${{R}}$ 的特征值和对应的特征向量.则根据矩阵理论的知识可得:矩阵 ${{R}}$ 是一个对称正定矩阵, 且其特征值均是非负的.对矩阵 ${{R}}$ 进行特征值分解得:
$ \begin{equation} {{R}} = {{U\Lambda }}{{{U}}^{\rm T}} \end{equation} $
(2) 其中, 是由矩阵 ${{R}}$ 的特征向量构成的矩阵, 是由矩阵 ${{R}}$ 的特征值组成的对角矩阵.为了后续使用方便, 这里将特征值按照降序的方式进行排列, 即特征值满足如下方程:
$ \begin{equation} {\lambda _1} > {\lambda _2} > \cdots > {\lambda _r} > \cdots > {\lambda _n} > 0 \end{equation} $
(3) 根据主成分的定义可知, 特征值所对应的特征向量称为矩阵 ${{R}}$ 的前 $r$ 主成分, 而通常将由这些主成分张成的空间称为信号的主子空间.而多个主成分提取算法的任务就是构造合适的神经网络权矩阵迭代更新方程, 使神经网络的权矩阵能够收敛到矩阵 ${{R}}$ 的前 $r$ 主成分.
在文献[11]中, Oja等利用加权子空间法提出了多个主成分并行提取算法, 其算法形式为:
$ \begin{align} {{W}}(k + 1)=& {{W}}(k)+ \eta [{{RW}}(k)- \nonumber\\ &{{W}}(k){{{W}}^{\rm T}}(k){{RW}}(k){{A}}] \end{align} $
(4) 其中, $\eta$ 是神经网络的学习因子且满足关系 $0< \eta <1$ , $A$ 是一个 $r \times r$ 维对角矩阵且其对角线元素为: .在式(4) 所描述的学习算法的约束下, 神经网络算法的权矩阵将收敛到信号自相关矩阵 ${{R}}$ 的前 $r$ 个主成分.然而算法(4) 存在收敛速度慢的问题, 为此本文提出了如下算法, 其算法形式为:
$ \begin{align} {{W}}(k &+ 1) =\nonumber\\ &{{W}}(k)+ \eta {{W}}(k)[{({{{W}}^{\rm T}}(k){{W}}(k))^{-1}}- \nonumber\\ &{{I}}]+\eta ({{RW}}(k){{{W}}^{\rm T}}(k){{W}}(k){{{A}}^2} -\nonumber\\ &{{W}}(k){{A}}{{{W}}^{\rm T}}(k){{RW}}(k){{A}}) \end{align} $
(5) 其中矩阵 ${{A}}$ 同样为一个 $r \times r$ 维对角矩阵且其对角线元素为: ${a_1} > {a_2} > \cdots > {a_r} > 0$ , 这点是与算法(4) 一致的.式(5) 是一种全新的多个主成分提取算法.对比式(4) 和式(5) 可以发现, 式(5) 是一个非二阶的算法.根据文献[9]的结论, 非二阶算法可以在算法迭代过程中引入一个自适应的学习因子, 进而加速算法的收敛速度.因此式(5) 所描述的算法应具有较快的收敛速度, 这点将在稍后的仿真实验部分予以验证.
在主成分分析神经网络算法领域, 通常将与学习因子相乘的项称为算法的学习步长[9].显然, 式(5) 中算法的学习步长由两部分构成.为了简便起见, 这里令矩阵和矩阵.如果令式(5) 中的加权矩阵 ${{A}} = {{I}}$ , 且省去算法的矩阵 $C$ , 则算法退化成为另外一种主成分分析算法---Chen算法[17].然而仅仅由矩阵 ${{B}}$ 构成学习步长时, 算法很容易发生边界不稳定现象.为此, 需要对神经网络的加权矩阵加以限制, 最常用的方法就是增加正交约束[9].这里采用了一个非二阶的权矩阵约束措施(即添加矩阵 $C$ ), 这一操作不仅可以解决算法的不稳定问题, 还可以提升算法的收敛速度.
式(5) 所描述的算法只适用于自相关矩阵已知的情况, 而在实际使用时只能得到信号的观测值, 自相关矩阵通常是未知的且是需要实时估计的.这里给出自相关矩阵的估计公式:
$ \begin{equation} {{\hat R}}(k)= \frac{{(k - 1)}}{k}\alpha {{\hat R}}(k - 1)+ \frac{{{{{\pmb x}}_k}{{\pmb x}}_k^{\rm T}}}{k} \end{equation} $
(6) 其中, $\alpha$ 为遗忘因子, 且满足 $0<\alpha <1$ .显然当时, 矩阵 ${{\hat R}}(k)\to {{R}}$ .因此式(5) 在实际使用时, 应首先使用式(6) 对自相关矩阵进行估计, 然后将估计得到的矩阵代入式(5), 即可以完成对输入信号多个主成分的提取.为方便使用, 这里将式(5) 所描述的算法记为FMPCE (Fast multiple principle components extraction algorithm)算法.
3. 多个主成分提取算法的性能分析
本节将对所提算法在平稳点处的收敛特性进行分析, 相关结论由定理1给出.
定理1. 当且仅当权矩阵 ${{W}} = {{P}}$ 时, 式(5) 所描述的FMPCE算法达到稳定状态, 其中 $P$ 是由矩阵 $R$ 的前 $r$ 个特征值对应的特征向量构成的矩阵, 即有.
证明. 根据文献[18]的描述, 算法的学习步长通常为一个损失函数的梯度.通过对损失函数平稳点的分析就可以完成算法收敛性的分析.这里假设该损失函数为 $JW$ , 则该损失函数对于权矩阵 $W$ 的一阶微分可以表示为:
$ \begin{align} \nabla J({{W}})&=\nonumber \\ &{{RW}}{{{W}}^{\rm T}}{{W}}{A^2} - {{WA}}{{{W}}^{\rm T}}{{RWA}}+ \nonumber\\ & {{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} - {{W}} \end{align} $
(7) 如果权矩阵 ${{W}} = {{P}}$ , 则有
$ \begin{align} \nabla J({{W}})&|_{W= P}=\nonumber\\& {{RP}}{{{P}}^{\rm T}}{{P}}{{{A}}^2} - {{PA}}{{{P}}^{\rm T}}{{RPA}}~+ \nonumber\\&{{P}}{({{{P}}^{\rm T}}{{P}})^{ - 1}} - {{P}}=\nonumber\\& {{P}}{{{\Lambda }}_r}{{{A}}^2} - {{PA}}{{{\Lambda }}_r}{{A}}= {{0}} \end{align} $
(8) 其中, 是由矩阵 $R$ 的前 $r$ 个特征值构成的对角矩阵.反之, 根据矩阵分析理论, 在平稳点处有 $\nabla J({{W}})= {{0}}$ , 即
$ \begin{equation} \begin{split} &{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} - {{WA}}{{{W}}^{\rm T}}{{RWA}} = \\ &~~~~~~~~~{{W}} - {{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} \end{split} \end{equation} $
(9) 对上式两边左乘以 ${{{W}}^{\rm T}}$ , 可得
$ \begin{equation} \begin{split} &{{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} - {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}}=\\ & \quad\quad\quad\quad {{{W}}^{\rm T}}{{W}} - {{I}} \end{split} \end{equation} $
(10) 定义矩阵 ${{Q}} = {{{W}}^{\rm T}}{{W}} - {{I}}$ , 则矩阵 $Q$ 是一个对称矩阵, 由于权矩阵 $W$ 的任意性, 则有矩阵和分别是两个对称矩阵, 即有
$ \begin{equation} {{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2} = {{{A}}^2}{{{W}}^{\rm T}}{{W}}{{{W}}^{\rm T}}{{RW}} \end{equation} $
(11) $ \begin{equation} {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}} = {{A}}{{{W}}^{\rm T}}{{RWA}}{{{W}}^{\rm T}}{{W}} \end{equation} $
(12) 由于矩阵 ${{{W}}^{\rm T}}{{RW}}$ 和矩阵 $A$ 均是对称矩阵, 则根据上面两式可得 ${{{W}}^{\rm T}}{{W}} = {{I}}$ .也就是说, 在 $J({{W}})$ 的平稳点处权矩阵 $W$ 的各列向量之间是相互正交的.将其代入式(9) 可得, $J({{W}})$ 平稳点有:
$ \begin{equation} {{RW}}{{{A}}^2} = {{WA}}{{{W}}^{\rm T}}{{RWA}} \end{equation} $
(13) 令是矩阵的特征值分解, 其中 $Q$ 是一个正交矩阵.将其代入式(13) 可得: ${{RP'}} = {{P'}}{{{\Lambda '}}_r}$ , 其中, .由于矩阵 ${{{\Lambda '}}_r}$ 是一个对角矩阵且 ${{P'}}$ 是一个列满秩矩阵, 则矩阵 ${{{\Lambda'}}_r}$ 和 ${{P'}}$ 必定等于矩阵 ${{{\Lambda }}_r}$ 和 ${{P}}$ .
下面对加权矩阵 ${{A}}$ 的作用做进一步讨论.令和 ${{{R}}_y} = {{{W}}^{\rm T}}{{RW}}$ , 将其代入式(13) 并进行适当化简可得:
$ \begin{equation} {{W}} = {{{R}}_{xy}}{({{A}}{{{R}}_y}{{{A}}^{ - 1}})^{ - 1}} \end{equation} $
(14) 矩阵的作用就是对矩阵 ${{{R}}_{xy}}$ 的各列向量施加Gram-Schmidt正交化操作[19].由于矩阵是一个非对称矩阵且矩阵的各元素可以写为:
$ \begin{align} \begin{array}{l} {{A}}{{{R}}_y}{{{A}}^{ - 1}}=~~~~~\\ ~~~ \left[{\begin{array}{*{10}{c}} {{\rm E}\{ z_1^2\} }&{\dfrac{{{a_1}}}{{{a_2}}}z}&{\dfrac{{{a_1}}}{{{a_3}}}z}& \cdots &{\dfrac{{{a_1}}}{{{a_r}}}z}\\ {\dfrac{{{a_2}}}{{{a_1}}}z}&{{\rm E}\{ z_2^2\} }&{\dfrac{{{a_2}}}{{{a_3}}}z}& \cdots &{\dfrac{{{a_2}}}{{{a_r}}}z}\\ \vdots&\vdots&\vdots &\ddots&\vdots \\ {\dfrac{{{a_r}}}{{{a_1}}}z}&{\dfrac{{{a_2}}}{{{a_r}}}z}&{\dfrac{{{a_3}}}{{{a_r}}}z}& \cdots &{{\rm E}\{ z_r^2\} } \end{array}} \right] \end{array} \end{align} $
(14) 其中用 $z$ 来代表矩阵 ${{{R}}_y}$ 的元素.根据式(15) 可得矩阵 ${{{R}}_y}$ 的上三角部分的元素均是乘以一个大于1的数, 而下三角部分则是乘以一个小于1的数.通过使用第一列正交化 ${{R}}_{xy}$ 可以获得矩阵 ${{{R}}}$ 的第一个主成分, 通过第二列正交化 ${{R}}_{xy}$ 可以获得矩阵 ${{{R}}}$ 的第二个主成分, 依次类推.值得注意的是第二列中只有一个大于1的系数 ${{a}_{1}}/{{a}_{2}}$ , 而其他所有系数均是小于1.根据文献[20]可得, 系数 ${{a}_{1}}/{{a}_{2}}$ 可以避免后续操作对已经提取的主成分造成影响.上述分析表明, 可以通过合理的选择加权矩阵 ${{A}}$ , 使得算法最终将能够实现对矩阵 $R$ 的多个主成分的提取.
4. 算法的自稳定性分析
自稳定性是指不论神经网络初始权矩阵如何选择, 神经网络权矩阵的模值均能收敛到一个常值, 而与初始权矩阵无关.在文献[21]中Möller指出:所有不具备自稳定性的神经网络算法都具有发散的可能性, 因此自稳定性已经成为了神经网络算法的一个必备特性.本节将对FMPCE算法的自稳定性进行分析证明.
定理2. 如果输入信号是有界的且学习因子 $\eta$ 足够小, 则FMPCE算法的权矩阵模值将收敛到一个常值(该值等于提取主成分维数的均方根, 即 $\sqrt{r}$ ), 而与初始权矩阵的选择无关.
证明. 根据式(5) 可得, 在 $k+1$ 时刻权矩阵的模值为:
$ \begin{align*} \begin{array}{l} \left\| {{{W}}(k + 1)} \right\|_F^2=~~~~\\ ~~~~~~~~ {\rm tr}\left[{{{{W}}^{\rm T}}(k + 1){{W}}(k + 1)} \right]=\\~~~~~~~~ {\rm tr}\left\{ {\left[{{{W}} + \eta {{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}- \eta {{W}}-} \right.} \right.\\~~~~~~~~ {\left. {\eta {{WA}}{{{W}}^{\rm T}}{{RWA}} + \eta {{W}}{{({{{W}}^{\rm T}}{{W}})}^{-1}}} \right]^{\rm T}}\times\\~~~~~~~~ \left[{{{W}} + \eta {{W}}{{({{{W}}^{\rm T}}{{W}})}^{-1}}-\eta {{W}}} \right. + \\~~~~~~~~ \left. {\left. { \eta {{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}-\eta {{WA}}{{{W}}^{\rm T}}{{RWA}}} \right]} \right\}=\\~~~~~~~~ {\rm tr}\left\{ {{{{W}}^{\rm T}}{{W}} + 2\eta {{{W}}^{\rm T}}{{RW}}{{{W}}^{\rm T}}{{W}}{{{A}}^2}}- \right.\\~~~~~~~~ 2\eta {{{W}}^{\rm T}}{{WA}}{{{W}}^{\rm T}}{{RWA}} - 2\eta {{{W}}^{\rm T}}{{W}}+ \\~~~~~~~~ 2\eta {{{W}}^{\rm T}}{{W}}{({{{W}}^{\rm T}}{{W}})^{ - 1}} + o(\eta ) \approx\\~~~~~~~~ {\rm tr}\left\{ {{{{W}}^{\rm T}}{{W}}} \right\} + 2\eta {\rm tr}\left\{ {{{I}} - {{{W}}^{\rm T}}{{W}}} \right\} \end{array}\\[-6mm] \end{align*} $
(16) 在上式中为了书写方便, 而省略了第二个等号以后的迭代时刻符号 $k$ .由于学习因子足够小, 因此可以忽略有关学习因子的二阶项.对比前后两个时刻权矩阵模值的大小可得:
$ \begin{equation} \begin{split} &\frac{{\left\| W(k + 1) \right\|_F^2}}{{\left\| {{{W}}(k)} \right\|_F^2}}=~~~~~~~~~~~~\\ &~~~~~~~~~~~~1+\frac{{ 2\eta {\rm tr}\left\{ {{{I}} - {{{W}}^{\rm T}}(k){{W}}(k)} \right\}}}{{{\rm tr}\left\{ {{{{W}}^{\rm T}}(k){{W}}(k)} \right\}}}=\\ &~~~~~~~~~~~~ 1 + 2\eta \frac{{r - \left\| {{{W}}(k)} \right\|_F^2}}{{\left\| {{{W}}(k)} \right\|_F^2}}~~~~~~\\ &~~~~~~~~~~~~ \left\{ {\begin{array}{*{20}{c}} { > 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} < \sqrt r }\\ { = 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} = \sqrt r }\\ { < 1}, &\mbox{若}&{\left\| {{{W}}(k)} \right\|_F^{} > \sqrt r } \end{array}} \right. \end{split} \end{equation} $
(17) 通过式(17) 可以发现, 无论 $k$ 时刻的权矩阵模值是否等于 $\sqrt r $ , 下一时刻 $k+1$ 的权矩阵模值都将趋于 $\sqrt r $ , 即在收敛时权矩阵模值将趋于一个常数.这一特性表明, 无论初始时刻的权矩阵模值如何选择, 将不会对算法的收敛结果造成任何影响, 即FMPCE算法具有自稳定性.
5. 仿真实验
本节将提供4个仿真实验来对所提算法的性能进行验证.第一个实验主要验证FMPCE算法提取信号中多个主成分的能力; 第二实验主要考察FMPCE算法的自稳定性; 第三个实验则是将FMPCE算法与一些现存的多个主成分提取算法进行比较; 第四个实验则是应用FMPCE算法进行图像压缩和重建并与一些现有算法进行比较.在整个实验过程中, 为了定量地对算法性能进行评价, 这里引入如下两个评价函数, 第一个是方向余弦(Direction cosine, DC):
$ \begin{equation} {\rm DC}_i(k)= \frac{{\left| {{{\pmb w}}_i^{\rm T}(k){{{\pmb u}}_i}} \right|}}{{\left\| {{{\pmb w}_i}(k)} \right\| \cdot \left\| {{{{\pmb u}}_i}} \right\|}} \end{equation} $
(18) 其中, $i = 1, 2, \cdots, r$ 且 ${{{\pmb w}}_i}$ 代表权矩阵 $W$ 的第 $i$ 列, ${{{\pmb u}}_i}$ 则代表信号的第 $i$ 个主成分.从式(18) 可以得出:如果方向余弦曲线能够收敛到1, 神经网络算法的权矩阵必定已经收敛到信号主成分的方向.方向余弦衡量的是算法的估计精度, 而权向量模值则能够评价算法的收敛性.
$ \begin{equation} {\rm{Nor}}{{\rm{m}}_i}{\rm{(}}k{\rm{)= }}\left\| {{{{\pmb w}}_i}(k)} \right\|, {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} i = 1, 2, \cdots, r \end{equation} $
(19) 5.1 多个主成分提取能力验证
本实验采用文献[10]中所使用的信号产生方法, 输入信号采用如下一阶滑动回归模型来产生:
$ \begin{equation} x(k)= 0.75x(k - 1)+ e(k) \end{equation} $
(20) 该模型由一个均值为0方差为1的高斯白噪声 $e(k)$ 作为模型驱动输入.取该模型的10个不连续的输出构成神经网络的输入向量, 即 $n=10$ .接下来采用本文所提出的FMPCE算法对该输入信号的前3个主成分进行提取, 即 $r=3$ . FMPCE算法的初始化参数设置为:初始权矩阵为随机的, 学习因子 $\eta=0.1$ , 加权矩阵 ${{A}} ={\rm diag}\{3, 2, 1\}$ .图 1和图 2分别给出了FMPCE算法的仿真结果, 在该图中, 所有学习曲线均是为100次独立实验的平均结果.
从图 1中可以看出:大约经过1500次左右的迭代后, FMPCE算法的3条方向余弦曲线就都收敛到了1, 这就说明FMPCE算法的权矩阵已经收敛到了信号主成分的方向; 对照图 2可以看出, 经过30次迭代运算后, 权矩阵模值均已经收敛到1, 也就是说此时的FMPCE算法已经收敛.该仿真实验表明: FMPCE算法具备提取信号多个主成分的能力.
5.2 FMPCE算法的自稳定性实验
本实验主要对FMPCE算法的自稳定性进行仿真验证.本实验同样采取式(20) 产生的输入信号. FMPCE算法的初始化参数设置为:学习因子 $\eta = 0.01$ , 加权矩阵, 初始化权矩阵为随机产生的且其模值被标准化为模值大于3, 等于3和小于3等情况.然后分别考察在这种不同初始权矩阵情况下, FMPCE算法的权矩阵模值收敛情况.
图 3是经过100次独立仿真获得的FMPCE算法权矩阵模值曲线, 从图 3中可以看出:不论初始权矩阵如何选择, FMPCE算法收敛时权矩阵模值均等于 $\sqrt{3}$ , 这点是与定理2中的分析一致的.通过该实验可得: FMPCE算法具有自稳定性.
5.3 FMPCE算法与其他算法的对比
本节将所提出的FMPCE算法与文献[14]中的MNIC算法和文献[15]中的MED-GOPAST算法进行对比.本实验中的输入信号同样由式(20) 产生, 这里分别采用这三种算法对该输入信号的前2个主成分进行提取, 即 $r=2$ .三种算法的初始化参数设置为:对MNIC算法和FMPCE算法而言, 加权矩阵 ${{A}} ={\rm diag}\{2, 1\}$ , 学习因子 $\eta = 0.15$ ; 对MED-GOPAST算法而言, 遗忘因子 $\alpha = 0.998$ .为了公平比较, 三种算法的初始化权矩阵均是随机产生的.三种算法对于该信号的提取结果如图 4和图 5所示, 该结果是100次独立实验结果的平均值.
从图 4和图 5中可以看出:大约经历了200次左右的迭代运算后, FMPCE算法的方向余弦曲线就已经收敛到了1, 这一收敛速度要优于MED-GOPAST算法和MNIC算法.从上面两图的最后放大结果中还可以看出, 虽然三种算法均收敛到了单位1, 但是三种算法的最终收敛值并不相同:其中MNIC算法与单位1偏差最大, MED-GOPAST算法次之, 三种算法中FMPCE算法偏差最小.由于方向余弦可以表征算法的估计精度, 所以可以说在这三种算法中, FMPCE算法具有最好的估计精度.通过此实验可以得出结论: FMPCE算法不仅具有较快的收敛速度, 而且具有很高的估计精度.
5.4 FMPCE算法在图像压缩中的应用
图像压缩一直是计算机图形图像学领域内的热点问题, 通过图像压缩技术可以减小图像数据中的冗余信息从而实现更加高效的格式存储和数据传输, 而基于主成分分析的压缩方法又是图像压缩领域内的一种常用方法[22].本小节将采用主成分分析方法对著名的Lena图像进行压缩和重构. Lena原始图像如图 6(a)所示, 该图像的分辨率512像素 $\times$ 512像素.这里将Lena图像分解为若干个8像素 $\times$ 8像素的不重叠小块并将这些小块按照从左到右从上到下的顺序排列, 就构成了一个64维的数据向量.将这些数据进行中心化处理后作为主成分分析算法的输入序列.然后分别采用FMPCE算法、MED-GOPAST算法和MNIC算法对Lena图像进行压缩后重建.
三种算法的初始化参数设置方法与第5.3节相同, 这里不再重复.图 6(b) $\sim$ (d)分别给出了在重构维数为1, 4, 7三种不同情况下采用FMPCE算法对于Lena图像的重构结果, 表 1给出了在不同的重构维数下, 三种算法的重构误差.从图 6和表 1中可以得出:利用FMPCE算法对Lena图像进行压缩重构可以获得较清晰的重构图像和较低的重构误差, 即可以利用FMPCE算法解决图像重构问题.对比三种不同算法的重构误差还可以发现, 在相同的重构维数下FMPCE算法具有最小的重构误差, 即FMPCE算法对提取的主成分具有最高的估计精度, 这点是与第5.3节中的结论一致的.
表 1 不同重构维数下三种算法的重构误差Table 1 Reconstitution errors of the three algorithms with different reconstitution dimensions重构维数 1 4 7 FMPCE 0.094 0.0837 0.0813 MED-GOPAST 0.0959 0.0852 0.0846 MNIC 0.1283 0.1015 0.0933 6. 结论
本文首先对一些多个主成分提取并行算法进行了研究, 针对现有算法收敛速度慢的问题, 提出了一种新的具有较快收敛速度的非二阶算法, 该算法可以从输入信号中并行提取多个主成分; 然后采用平稳点分析法对所提算法的收敛性和自稳定性进行了证明; 最后通过仿真实验对所提算法的性能进行了验证.仿真结果表明:相比一些现有算法, 所提算法不仅收敛速度快而且估计精度较高.
-
图 11 (a) $F$1, (b) $F$2, (c) $F$3, (d) $F$4, (e) $F$5, (f) $F$6 (这里曲线在每次迭代时都加78.33233140745), (g) $F$7, (h) $F$8, (i) $F$9, (j) $F$10, (k) $F$11, (l) $F$12 (这里曲线在每次迭代时都加0.000381827), (m) $F$13, (n) $F$14和(o) $F$15的收敛曲线
Fig. 11 Convergence progress of the FPSO-TF on (a) $F$1, (b) $F$2, (c) $F$3, (d) $F$4, (e) $F$5, (f) $F$6 (where curves are obtained by subtracting 78.33233140745 from the true value of $F$6 for each iteration), (g) $F$7, (h) $F$8, (i) $F$9, (j) $F$10, (k) $F$11, (l) $F$12 (where curves are obtained by subtracting 0.000381827 from the true value of $F$12 for each iteration), (m) $F13$, (n) $F14$ and (o) $F15$
表 1 测试函数
Table 1 Test functions
测试函数 维数 可行域 最优值/最优点 $f_1=\sum\limits_{i=1}^n(x_i^2-10\cos(2\pi x_i)+10)$ 30 $[-5.12,5.12]^D$ 0.0/0, 0, $\cdots$, 0 $f_2=-20\exp(-0.2\sqrt{\sum\limits_{i=1}^n\frac{x_i^2}{n}})-\exp(\sum\limits_{i=1}^n\frac{\cos(2\pi x_i)}{n})+20+\exp(1)$ 30 $[-32,32]^D$ 0.0/0, 0, $\cdots$, 0 $f_3=\sum\limits_{i=1}^n\frac{x_i^2}{4\,000}-\prod\limits_{i=1}^n\cos(\frac{x_i}{\sqrt{i}})+1$ 30 $[-600,600]^D$ 0.0/0, 0, $\cdots$, 0 $f_4=\frac{\pi}{n}(10\sin^2(\pi y_1)+(y_n-1)^2+\sum\limits_{i=1}^{n-1}(y_i-1)^2(1+10\sin^2(\pi y_{i+1}))) y_i=1+\frac{(1+x_i)}{4}$ 30 $[-50,50]^D$ $ 0.0/-1,\ -1, \cdots,\ -1 $ $ f_5=\frac{1}{10}(\sin^2(3\pi x_1)+(x_n-1)^2(1+\sin^2(2\pi x_n))+ \quad \sum\limits_{i=1}^{n-1}(x_n-1)^2(1+\sin^2(3\pi x_{i+1})))$ 30 $[-50,50]^D$ 0.0/1, 1, $\cdots$, 1 $f_6=\sum\limits_{i=1}^n{\frac{(x_i^4-16x_i^2+5x_i)}{n}}$ 30 $[-5,5]^D$ $-78.3323/-2.90353,-2.90353, \cdots,-2.90353$ $f_7=\sum\limits_{i=1}^{n-1}\left({100(x_i^2-x_{i+1})^2+(x_i-1)^2}\right)$ 30 $[-5,10]^D$ 0.0/1, 1, $\cdots$, 1 $f_8=\sum\limits_{i=1}^nx_i^2$ 30 $[-100,100]^D$ 0.0/0, 0, $\cdots$, 0 $f_9=\sum\limits_{i=1}^nx_i^4$ 30 $[-1.28,1.28]^D$ 0.0/0, 0, $\cdots$, 0 $f_{10}=\sum\limits_{i=1}^n\left[{\sum\limits_{j=1}^i x_j}\right]^2$ 30 $[-100,100]^D$ 0.0/0, 0, $\cdots$, 0 $f_{11}=\sum\limits_{i=1}^n\left[\sum\limits_{k=0}^{k\max}\left(a^k\cos(2\pi b^k(x_i+0.5))\right)\right]- \quad n\sum\limits_{k=0}^{k\max}\left(a^k\cos(2\pi b^k0.5)\right) a=0.5,b=3,k\max=20$ 30 $[-0.5,0.5]^D$ 0.0/0, 0, $\cdots$, 0 $f_{12}=418.9829\times n-\sum\limits_{i=1}^nx_i\sin(\sqrt{|x_i|})$ 30 $[-500,500]^D$ 0.000381827/420.97, 420.97, $\cdots$, 420.97 $f_{13}=\sum\limits_{i=1}^ni\times x_i^4+{\rm Random}(0,1)$ 30 $[-1.28,1.28]^D$ 0.0/0, 0, $\cdots$, 0 $f_{14}=\frac{\pi}{n}\Big(10\sin^2(\pi y_1)+(y_n-1)^2+\sum\limits_{i=1}^{n-1}(y_i-1)^2(1+ \quad 10\sin^2(\pi y_{i+1}))\Big) +\sum\limits_{i=1}^nu_i(x_i,10,100,4), \\ y_i=1+\frac{1+x_i}{4} u_i(x_i,a,k,m)=\left\{\!\!\!\begin{array}{ll} k(x_i-a)^m, & x_i>a \\ 0, &-a \leq x_i \leq a \\ k(-x_i-a)^m, & x_i <a \end{array}\right. $ 30 $[-50,50]^D$ $0.0/-1,-1,\cdots,-1 $ $f_{15}=\frac{1}{10}(\sin^2(3\pi x_1)+(x_n-1)^2(1+\sin^2(2\pi x_n))+\quad \sum\limits_{i=1}^{n-1}(x_n-1)^2(1+\sin^2(3\pi x_{i+1})))+\sum\limits_{i=1}^nu_i(x_i,5,100,4)$ 30 $[-50,50]^D$ 0.0/1, 1, $\cdots$, 1 表 2 参数初值
Table 2 The initial values of the parameters
测试函数 $d_1/d_2/d_3/d_4/d_5$ $\eta_1/\eta_2/\eta_3/\eta_4$ $a_1/R/N_\sigma$ $MN/TT/FMN$ $F1 $ 1E-6/1E-18/30/1/12 2E-2/1E-4/1E-4/0.1 1E-3/-1/6 1 000/2 000/100 $F2 $ 1E-4/1E-26/40/0.1/30 5E-3/1E-4/1E-5/0.1 1E-4/-1/5 5 000/8 000/100 $F3 $ 1E-6/1E-15/25/0.3/18 1E-4/1E-3/1E-3/1E-2 1E-3/-1/3 15 000/9 000/60 $F4$ 1E-4/1E-18/35/0.2/15 1.6/0.1/1E-5/0.1 1E-4/-1/5 12 000/20 000/100 $F5 $ 1E-4/1E-18/35/0.05/18 1.4/1E-2/1E-5/0.1 1E-3/0/3 8 000/20 000/100 $F6 $ 1E-5/1E-11/12/1/13 0.6/1E-4/1E-3/1E-2 1E-3/-1/5 1 000/2 000/60 $F7 $ 1E-15/1E-16/19/0.2/10 1/1E-3/1E-4/1E-3 1E-3/-1/4 190 000/40 000/100 $F8 $ 1E-5/1E-24/35/1/30 6E-2/1E-3/1E-4/6E-3 1E-4/-1/3 30 000/4 000/100 $F9$ 1E-3/1E-18/25/1/25 3E-2/1E-4/1E-4/1E-3 1E-3/-1/5 8 000/5 000/60 $F10$ 1E-9/1E-21/35/1/30 0.6/0.3/1E-4/0.8 1E-4/-1/5 50 000/250 000/130 $F11$ 1E-9/1E-20/25/1/25 3E-3/1E-4/1E-3/1E-3 1E-4/-1/5 20 000/18 000/100 $F12 $ 1E-6/1E-4/10/1/14 6E-4/1E-3/1E-5/0.1 1E-4/-1/5 300/1 000/60 $F13$ 1E-15/1E-10/20/1/11 1/1E-3/1E-4/1E-2 1E-4/-1/10 80 000/6 000/60 $F14 $ 1E-4/1E-18/35/0.2/15 1.5/0.1/1E-5/0.1 1E-4/-1/3 12 000/20 000/100 $F15 $ 1E-4/1E-18/35/0.05/18 1.4/0.01/1E-5/0.1 1E-4/0/3 10 000/20 000/100 表 3 仿真结果
Table 3 Results of simulation
Functions Average value Best value Worst value Confidence interval N/30 CPU times (s) SA $F1 $ 0 0 0 0±0 30/30 12.7 1E-15 $F2$ 2.37E-16 0 3.55E-15 2.37E-16±2.90724E-31 30/30 58.2 1E-10 $F3 $ 0 0 0 0±0 30/30 42.7 1E-15 $F4$ 1.57E-32 1.57E-32 1.60E-32 1.57E-32±1.5E-69 30/30 119 1E-15 $F5$ 1.35E-32 1.35E-32 1.35E-32 1.35E-32±2.5E-95 30/30 118 1E-15 $F6$ -78.33233141 -78.33233141 -78.33233141 -78.33233141±1.9E-24 30/30 7.3 1E-7 $F7 $ 3.23E-22 2.61E-26 4.39E-21 3.23E-22±3.66E-43 30/30 205 1E-15 $F8 $ 1.21E-78 2.91E-221 3.60E-77 1.21E-78±1.54E-155 30/30 42.8 1E-15 $F9$ 1.64E-52 1.94E-53 4.59E-52 1.64E-52±5.11E-105 30/30 18.2 1E-15 $F10$ 2.74E-22 3.35E-32 1.11E-21 2.74E-22±5.12E-44 30/30 219 1E-15 $F11$ 2.75E-07 0 7.87E-06 2.75E-07±7.39168E-13 30/30 1 816 1E-5 $F12$ 3.82E-04 3.82E-04 3.82E-04 3.82E-04±2.71969E-38 30/30 4.1 1E-8 $F13$ 6.36E-04 3.03E-05 2.54E-03 6.36E-04±1.7E-07 30/30 30.9 1E-2 $F14$ 1.57E-32 1.57E-32 1.6E-32 1.57E-32±1.55E-69 30/30 126 1E-15 $F15$ 1.35E-32 1.35E-32 1.35E-32 1.35E-32±2.5E-95 30/30 119 1E-15 表 4 与现有算法的结果比较
Table 4 Comparison with other algorithms
Functions FPSO-TF FEP OGA/Q CMA-ES JADE OLPSO-L OLPSO-G $F1$ Mean 0 4.6E-2 0 1.76E+2 0 0 1.07 SD 0 1.2E-2 0 13.89 0 0 0.99 Rank 1 2 1 4 1 1 3 t-test - -19.17 0 -63.36 0 0 -8.5 $F2$ Mean 2.37E-16 1.8E-2 4.4E-16 12.124 4.4E-15 4.14E-15 7.98E-015 SD 2.90724E-31 2.1E-3 3.99E-17 9.28 0 0 2.03E-15 Rank 1 6 2 7 4 3 5 t-test - -42.8 -5 -6.5 -7.2E+16 -6.5+16 -19 $F3$ Mean 0 1.6E-2 0 9.59E-16 2.E-4 0 4.8E-3 SD 0 2.2E-2 0 3.5E-16 1.4E-3 0 8.63E-3 Rank 1 5 1 2 3 1 4 t-test - -3.64 0 -13.7 -0.7 0 -2.7 $F7$ Mean 3.23E-22 5.06 0.75 2.33E-15 0.32 1.26 21.52 SD 3.66E-43 5.87 0.11 7.7E-16 1.1 1.4 29.92 Rank 1 6 4 2 3 5 7 t-test - -4.26 -34.1 -15.1 -1.45 -4.5 -1.2 $F8$ Mean 1.21E-78 5.7E-4 0 4.56E-16 1.3E-54 1.11E-38 4.1E-54 SD 1.54E-155 1.3E-4 0 1.13E-16 9.2E-54 1.3E-38 6.32E-54 Rank 2 7 1 5 3 6 4 t-test - -21.9 0 -20.4 -0.7 --4.3 -3.2 $F12$ Mean 3.82E-4 14.98 3.03E-2 3.15E+3 7.1 3.82E-4 3.84E+2 SD 2.71969E-38 52.6 6.45E-4 5.79E+2 28 0 2.17E+2 Rank 1 4 2 6 3 1 5 t-test - -1.4 -234.8 -27.2 -1.3 0 -8.8 $F13$ Mean 6.36E-4 7.6E-3 6.3E-3 5.92E-2 6.8E-4 1.64E-2 1.16E-2 SD 1.7E-7 2.6E-3 4.07E-4 1.73E-2 2.5E-4 3.25E-3 4.1E-3 Rank 1 4 3 7 2 6 5 t-test - -13.5 -71.3 -16.9 -0.88 -26.3 -12.8 $F14$ Mean 1.57E-32 9.2E-6 6.02E-6 1.63E-15 1.6E-32 1.57E-32 1.57E-32 SD 1.55E-69 3.6E-6 1.16E-6 4.93E-16 5.5E-48 2.79E-48 1.01E-33 Rank 1 5 4 3 2 1 1 t-test - -12.8 -1.65 -16 -2.7E+18 0 0 $F15$ Mean 1.35E-32 1.6E-4 1.87E-4 1.71E-15 1.4E-32 1.35E-32 4.39E-4 SD 2.5E-95 7.3E-5 2.62E-5 3.7E-16 1.1E-47 5.6E-48 2.2E-3 Rank 1 4 5 3 2 1 6 t-test - -10 -35.6 -23 -0.23E+15 0 -0.99 Ave.rank 1.1 4.7 2.5 4 2.6 4.9 5.6 Final rank 1 5 2 4 3 6 7 -
[1] Kennedy J, Eberhart R. Particle swarm optimization. In:Proceedings of the 1995 IEEE International Conference on Neural Network. Perth, Australia:IEEE, 1995. 1942-1948 [2] 吕强, 刘士荣, 邱雪娜.基于信息素机制的粒子群优化算法的设计与实现.自动化学报, 2009, 35(11):1410-1419 http://www.aas.net.cn/CN/Y2009/V35/I11/1410Lv Qiang, Liu Shi-Rong, Qiu Xue-Na. Design and realization of particle swarm optimization based on pheromone mechanism. Acta Automatica Sinica, 2009, 35(11):1410-1419 http://www.aas.net.cn/CN/Y2009/V35/I11/1410 [3] Wang Y P, Dang C Y. An evolutionary algorithm for global optimization based on level-set evolution and Latin squares. IEEE Transactions on Evolutionary Computation, 2007, 11(5):579-595 doi: 10.1109/TEVC.2006.886802 [4] Lu B Q, Gao G Q, Lu Z Y. The block diagram method for designing the particle swarm optimization algorithm. Journal of Global Optimization, 2012, 52(4):689-710 doi: 10.1007/s10898-011-9699-9 [5] Zhan Z H, Zhang J, Li Y, Shi Y H. Orthogonal learning particle swarm optimization. IEEE Transactions on Evolutionary Computation, 2011, 15(6):832-847 doi: 10.1109/TEVC.2010.2052054 [6] Ustundag B, Eksin I, Bir A. A new approach to global optimization using a closed loop control system with fuzzy logic controller. Advances in Engineering Software, 2002, 33(6):309-318 doi: 10.1016/S0965-9978(02)00036-4 [7] Lee J, Chiang H D. A dynamical trajectory-based methodology for systematically computing multiple optimal solutions of general nonlinear programming problems. IEEE Transactions on Automatic Control, 2004, 49(6):888-889 doi: 10.1109/TAC.2004.829603 [8] Motee N, Jadbabaie A. Distributed multi-parametric quadratic programming. IEEE Transactions on Automatic Control, 2009, 54(10):2279-2289 doi: 10.1109/TAC.2009.2014916 [9] Nedic A. Asynchronous broadcast-based convex optimization over a network. IEEE Transactions on Automatic Control, 2011, 56(6):1337-1351 doi: 10.1109/TAC.2010.2079650 [10] Necoara I. Random coordinate descent algorithms for multi-agent convex optimization over networks. IEEE Transactions on Automatic Control, 2013, 58(8):2001-2012 doi: 10.1109/TAC.2013.2250071 [11] 李宝磊, 施心陵, 苟常兴, 吕丹桔, 安镇宙, 张榆锋.多元优化算法及其收敛性分析.自动化学报, 2015, 41(5):949-959 http://www.aas.net.cn/CN/Y2015/V41/I5/949Li Bao-Lei, Shi Xin-Ling, Gou Chang-Xing, Lv Dan-Ju, An Zhen-Zhou, Zhang Yu-Feng. Multivariant optimization algorithm and its convergence analysis. Acta Automatica Sinica, 2015, 41(5):949-959 http://www.aas.net.cn/CN/Y2015/V41/I5/949 [12] 陆志君, 安俊秀, 王鹏.基于划分的多尺度量子谐振子算法多峰优化.自动化学报, 2016, 42(2):235-245 http://www.aas.net.cn/CN/Y2016/V42/I2/235Lu Zhi-Jun, An Jun-Xiu, Wang Peng. Partition-based MQHOA for multimodal optimization. Acta Automatica Sinica, 2016, 42(2):235-245 http://www.aas.net.cn/CN/Y2016/V42/I2/235 [13] 陈振兴, 严宣辉, 吴坤安, 白猛.融合张角拥挤控制策略的高维多目标优化.自动化学报, 2015, 41(6):1145-1158 http://www.aas.net.cn/CN/abstract/abstract18689.shtmlChen Zhen-Xing, Yan Xuan-Hui, Wu Kun-An, Bai Meng. Many-objective optimization integrating open angle based congestion control strategy. Acta Automatica Sinica, 2015, 41(6):1145-1158 http://www.aas.net.cn/CN/abstract/abstract18689.shtml [14] Ma S Z, Yang Y J, Liu H Q. A parameter free filled function for unconstrained global optimization. Applied Mathematics and Computation, 2010, 215(10):3610-3619 doi: 10.1016/j.amc.2009.10.057 [15] Gao C L, Yang Y J, Han B S. A new class of filled functions with one parameter for global optimization. Computers & Mathematics with Applications, 2011, 62(6):2393-2403 https://www.researchgate.net/publication/220511247_A_new_class_of_filled_functions_with_one_parameter_for_global_optimization 期刊类型引用(18)
1. 丁先,李汪繁,徐佳敏,臧剑南,吴何来. 融合多策略改进的灰狼优化算法及其在汽轮机转子应力监测上的应用. 汽轮机技术. 2024(02): 138-144 . 百度学术
2. 吴桂联,陈浩,林佳. 基于组合赋权法和模糊综合评估法对110 kV线路防雷策略的研究. 电瓷避雷器. 2024(05): 21-29+38 . 百度学术
3. 李佳媛,张莹. 一个新的单参数填充函数及其在水库年径流预报中的应用. 高等学校计算数学学报. 2023(03): 254-271 . 百度学术
4. 姚信威,王佐响,姚远,黄伟. 融合改进天牛须和正余弦的双重搜索优化算法. 小型微型计算机系统. 2022(08): 1644-1652 . 百度学术
5. 李子旭,吴凌宇,葛婉贞,赵新超. 一种基于搜索历史信息的粒子群算法. 燕山大学学报. 2022(05): 446-454 . 百度学术
6. 张志文,杜文杰,梁君飞,张艳岗,武雅文. 基于燃料电池的复合电源式装载机分层控制. 北京航空航天大学学报. 2022(11): 2165-2176 . 百度学术
7. 张新明,姜云,刘尚旺,刘国奇,窦智,刘艳. 灰狼与郊狼混合优化算法及其聚类优化. 自动化学报. 2022(11): 2757-2776 . 本站查看
8. 周宏宇,王小刚,单永志,赵亚丽,崔乃刚. 基于改进粒子群算法的飞行器协同轨迹规划. 自动化学报. 2022(11): 2670-2676 . 本站查看
9. 王正通,程凤芹,尤文,李双. 基于改进灰狼优化算法的校园电采暖软启动应用. 现代电子技术. 2021(03): 167-171 . 百度学术
10. 王正通,程凤芹,尤文,李双. 基于翻筋斗觅食策略的灰狼优化算法. 计算机应用研究. 2021(05): 1434-1437 . 百度学术
11. 林安平,李翔,于盈. 环形综合学习粒子群算法研究. 湘南学院学报. 2021(05): 36-42+50 . 百度学术
12. 刘耿耿,庄震,郭文忠,陈国龙. VLSI中高性能X结构多层总体布线器. 自动化学报. 2020(01): 79-93 . 本站查看
13. 刘庆国,刘新学,武健,李亚雄. 单个天基对地飞行器停泊轨道的优化设计. 系统工程与电子技术. 2020(01): 157-165 . 百度学术
14. 杜玉香,赵月爱. 基于PSO优化极限学习机的机器人控制研究. 辽宁科技大学学报. 2020(04): 299-303 . 百度学术
15. 龙文,伍铁斌,唐明珠,徐明,蔡绍洪. 基于透镜成像学习策略的灰狼优化算法. 自动化学报. 2020(10): 2148-2164 . 本站查看
16. 朱经纬,方虎生,邵发明,蒋成明. 具有自适应弹射机制的粒子群算法. 模式识别与人工智能. 2019(02): 108-116 . 百度学术
17. 任林,王东风. 基于QPSO优化模糊—SVM的电站锅炉燃煤结渣特性预测. 山东电力技术. 2019(07): 38-43+60 . 百度学术
18. 薛南,吕柏权,倪陈龙. 基于自编码器和填充函数的深度学习优化算法. 电子测量技术. 2019(23): 79-84 . 百度学术
其他类型引用(10)
-