2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于残差分析的混合属性数据聚类算法

邱保志 张瑞霖 李向丽

李温鹏, 周平. 高炉铁水质量鲁棒正则化随机权神经网络建模. 自动化学报, 2020, 46(4): 721-733. doi: 10.16383/j.aas.2018.c170670
引用本文: 邱保志, 张瑞霖, 李向丽. 基于残差分析的混合属性数据聚类算法. 自动化学报, 2020, 46(7): 1420-1432. doi: 10.16383/j.aas.2018.c180030
LI Wen-Peng, ZHOU Ping. Robust Regularized RVFLNs Modeling of Molten Iron Quality in Blast Furnace Ironmaking. ACTA AUTOMATICA SINICA, 2020, 46(4): 721-733. doi: 10.16383/j.aas.2018.c170670
Citation: QIU Bao-Zhi, ZHANG Rui-Lin, LI Xiang-Li. Clustering Algorithm for Mixed Data Based on Residual Analysis. ACTA AUTOMATICA SINICA, 2020, 46(7): 1420-1432. doi: 10.16383/j.aas.2018.c180030

基于残差分析的混合属性数据聚类算法

doi: 10.16383/j.aas.2018.c180030
基金项目: 

河南省基础与前沿技术研究项目 152300410191

详细信息
    作者简介:

    邱保志  郑州大学信息工程学院教授.主要研究方向为数据库, 先进智能系统, 数据挖掘. E-mail: iebzqiu@zzu.edu.cn

    李向丽  郑州大学信息工程学院教授.主要研究方向为计算机网络, 数据挖掘. E-mail: iexlli@zzu.edu.cn

    通讯作者:

    张瑞霖  郑州大学信息工程学院硕士研究生.主要研究方向为模式识别和数据挖掘.本文通信作者. E-mail: zzurlz@163.com

Clustering Algorithm for Mixed Data Based on Residual Analysis

Funds: 

Basic and Advanced Technology Research Project of Henan Province 152300410191

More Information
    Author Bio:

    QIU Bao-Zhi   Professor at the School of Information Engineering, Zhengzhou University. His research interest covers database, advanced intelligent system, and data mining

    LI Xiang-Li   Professor at the School of Information Engineering, Zhengzhou University. Her research interest covers computer network and data mining

    Corresponding author: ZHANG Rui-Lin   Master student at the School of Information Engineering, Zhengzhou University. His research interest covers pattern recognition and data mining. Corresponding author of this paper
  • 摘要: 针对混合属性数据聚类结果精度不高、聚类结果对参数敏感等问题, 提出了基于残差分析的混合属性数据聚类算法(Clustering algorithm for mixed data based on residual analysis) RA-Clust.算法以改进的熵权重混合属性相似性度量对象间的相似性, 以提出的基于KNN和Parzen窗的局部密度计算方法计算每个对象的密度, 通过线性回归和残差分析进行聚类中心预选取, 然后以提出的聚类中心目标优化模型确定真正的聚类中心, 最后将其他数据对象按照距离高密度对象的最小距离划分到相应的簇中, 形成最终聚类.在合成数据集和UCI数据集上的实验结果验证了算法的有效性.与同类算法相比, RA-Clust具有较高的聚类精度.
    Recommended by Associate Editor ZHANG Min-Ling
  • 高炉炼铁是钢铁工业的重要生产环节.由于工艺相对简单、产量大、劳动生产率高, 因而高炉炼铁仍是现代炼铁的最主要方式, 其产量约占世界生铁总产量的95%以上.如图 1所示, 现代化的高炉炼铁系统分为高炉本体、上料系统、送风系统、喷吹系统、煤气净化系统、渣铁处理系统和环保除尘系统等几个子系统[1-2].高炉炼铁时, 铁矿石、焦炭、溶剂按一定比例根据布料制度逐层从高炉顶部装载到炉喉位置.同时, 在高炉下部, 将预热的空气、氧气和煤粉通过热风口鼓入炉缸中.空气、氧气、煤粉和焦炭在高温作用下发生一系列复杂物理化学反应, 生成大量的高温还原性气体, 这些还原性气体不断向上运动将铁从铁矿石中还原出来.上行气体最终变为高炉煤气从炉顶回收, 而下行炉料则随着炉缸中焦炭的不断燃烧和铁水的不断滴落逐渐向下运动, 在下降过程中, 炉料经过加热、还原、熔化等一系列复杂的物理化学变化, 最终生成液态的铁水和炉渣从出铁口排出[1-4].高炉炼铁需要准确判断整个高炉运行态势, 及时调整相关操作制度(如布料制度、热风制度等)及工艺参数, 使炉内煤气分布合理、热量充分利用、渣铁顺利排放, 实现高炉生产的优质、高产、低耗和长寿运行.为了实现这一目标, 就应对高炉运行状态进行实时监测和有效控制.然而高炉内部冶炼环境极其严酷, 炉内温度高达2000多度, 压强高达标准大气压的4倍左右, 且伴随着固、液、气多相共存的状态, 使高炉内部状态的实时监测难以实现, 从而难以对高炉进行控制与操作优化[1, 5].目前, 被广泛用来间接反映高炉运行状态的指标为出铁口的铁水质量指标, 包括铁水温度(Molten iron temperature, MIT)、硅含量([Si])、磷含量([P])和硫含量([S]):

    图 1  高炉炼铁工艺示意图
    Fig. 1  Diagram of a typical BF ironmaking process

    1) MIT是表征高炉热状态、能量消耗的重要指标. MIT过低不仅影响高炉顺行, 而且会影响后续转炉炼钢的运行性能, 增加生产成本.高炉生产操作时应及时掌握MIT及变化趋势, 预见性地采取调控措施, 这对于稳定高炉热制度、减少炉况波动以及提高生铁质量和降低焦比等具有重要意义.

    2) 铁水[Si]是反映铁水化学热的重要指标.铁水[Si]过高, 渣量增加, 会使生铁变硬变脆, 收得率降低.另外, 高[Si]会使渣中SiO含量过高, 影响石灰渣化速度, 延长吹炼时间, 同时也会加剧对炉衬的冲蚀.因此, 必须对[Si]进行严格监视.

    3) 硫和磷在钢材中均是有害元素, [S]过高会使铁硬脆, 产生热脆性和减低铁液流动性, 而[P]过高会加重炉衬的冲刷蚀损, 影响炉龄.因此, 在高炉冶炼过程中应严格监视铁水中的[S]和[P].

    采用上述铁水质量指标作为高炉运行状态的评判指标可以较全面地了解高炉内部的运行状态, 为高炉日常操作与调节提供指导.然而, 现有检测技术难以对铁水质量指标进行直接在线测量, 且离线化验过程滞后时间较长, 通常为1小时左右.另外, 高炉炼铁是一个包含气、固、液三相混合和耦合交错, 物理化学反应极其复杂的过程, 其炉内环境极其恶劣, 导致操作人员难以对其运行状态的变化进行实时监测.因此有必要建立准确可靠的铁水质量模型来反映高炉当前和预期的铁水质量指标参数变化, 为现场操作人员提供炉况和铁水质量信息[1, 5-8].

    目前常见的铁水质量模型有机理模型、知识推理模型和数据驱动模型三大类[5].机理模型在大量假设条件下, 依赖于高炉炼铁过程的冶炼机理, 从化学反应动力学和流体动力学的角度构建高炉内部反应场, 对反应场内的温度分布、物料运动状态等进行仿真[9-11].高炉炼铁是一个极为复杂、大时滞、高度耦合的非线性动态时变系统, 基于大量假设的机理模型难以用于实际高炉炼铁生产; 知识推理模型完全依赖于系统集成的有限专家知识, 无法应对复杂多样的实际高炉冶炼过程[12-13];数据驱动铁水质量智能建模不需要了解高炉内部发生的复杂机理, 仅通过数学工具和智能算法对运行数据进行处理而建立需要的铁水质量模型, 因而成为近年高炉炼铁过程建模研究的热点[1-5, 8].

    现有数据驱动建模方法主要有多元统计分析方法[14-15]、神经网络(Neural network, NN)建模方法[8, 15-18]和支持向量回归(Support vector regression, SVR)建模方法[2, 3, 6-7, 19]等.其中, 神经网络是一种最常见的数据驱动建模方法, 它是对人脑神经系统进行抽象、简化和模仿所得到的复杂信息处理系统, 能够以任意精度逼近复杂非线性连续函数, 特别适用于处理高炉炼铁这种动态机理复杂、内部状态未知, 仅可获得过程的输入输出数据的复杂工业过程建模[16].常见的神经网络建模算法主要有BP-NN (BP neural network)和RBF-NN (Radial basis function neural network), 但是这些算法普遍存在"过拟合"、易陷入局部极小的问题.另外, 基于批学习的NN网络权值和偏差迭代算法容易造成网络训练时间长、收敛速度慢的问题[16-17, 20-21].

    近年, 具有学习速度极快且泛化能力好的随机权神经网络(Random vector functional-link networks, RVFLNs)及其改进算法可有效克服传统神经网络的上述缺点, 被广泛用于高炉炼铁过程建模与控制[5, 20-21]. RVFLNs的最大特点是网络输入权值与偏置在给定范围随机选取, 然后采用最小二乘算法对输出权值进行计算, 因而学习速度极快, 而不像基于梯度的常规NN算法需要首先设置很多学习参数, 然后采用批学习策略并花费几分钟甚至几小时时间对众多网络参数进行学习[5, 21].文献[20]采用经典RVFLNs算法对铁水质量进行建模, 大大加快计算速度; 文献[21]进一步采用在线序贯学习型RVFLNs实现多元铁水质量的在线软测量建模.实际表明, RVFLNs比BP等常规NN具有更高的计算效率, 且RVFLNs及其改进算法都具有较高的模型精度.但是, 高炉炼铁生产过程中, 受检测仪表和变送器等装置的故障以及其他异常干扰的影响, 测量数据中经常存在离群点, 即远离数据一般水平的极端大值点或极端小值点.而常规RVFLNs的输出权值是由最小二乘估计得到, 因而鲁棒性不足, 建模时易受离群点干扰, 导致模型准确度下降, 不能为操作人员提供准确的指导.

    针对上述问题, 也为了建立稳定、可靠的高炉铁水质量模型, 本文提出一种新型的数据驱动随机权神经网络鲁棒建模方法, 用于实现铁水质量指标的鲁棒估计.首先, 为了提高铁水质量建模效率, 采用数据驱动典型相关性分析方法提取与铁水质量指标相关性最强的最主要过程变量作为建模输入变量; 然后, 根据高炉炼铁过程数据特性, 采用基于Gaussian分布加权的M估计方法建立多元铁水质量指标的鲁棒RVFLNs模型; 同时, 在M估计鲁棒建模基础上, 进一步引入两个正则化项以防止模型过拟合, 稀疏鲁棒RVFLNs的输出权值矩阵.最后, 基于我国华南某大型高炉实际数据建立基于鲁棒正则化RVFLNs的多元铁水质量非线性自回归(Nonlinear autoregressive exogenous, NARX)模型, 并和其他几类铁水质量建模算法进行对比.结果表明, 相对于对比方法, 本文方法不仅具有更高的模型精度和更快的计算速度, 还解决了常规RVFLNs存在的数据建模鲁棒性差的问题.

    高炉本体参数较多, 且变量之间存在较强相关性, 如果所有变量全部参与铁水质量建模, 会增加计算复杂度, 影响模型预测的准确性和有效性.现有数据建模研究中, 辅助变量的选取方法主要为主成分分析(Principle component analysis, PCA)方法[20-21].但是PCA技术只针对输入空间进行降维, 未考虑输入输出变量之间的关联性[1].为此, 本文将采用考虑输入输出空间关联关系的典型相关分析(Canonical correlation analysis, CCA)方法选择与铁水质量参数相关性最大的几个变量作为输入变量. CCA是研究多个输入变量与多个输出变量之间相关性的多元统计分析方法, 其基本原理是在两组输入输出关联变量中分别提取有代表性的综合指标, 也就是分别建立两个变量组中各变量的线性组合, 利用这两个综合指标之间的相关关系来反映两组变量之间的整体相关性[1, 22].基于CCA的数据降维过程简要描述如下:

    基于CCA的数据降维需要在两组变量$ X = ({\pmb x}_1^{}, {\pmb x}_2^{}, \cdots, {\pmb x}_p^{}), {Y^{}} = ({\pmb y}_1^{}, {\pmb y}_2^{}, \cdots, {\pmb y}_q^{}) $中分别找出变量的一个线性组合, 即:

    $$ \begin{equation} \left\{ \begin{array}{l} {U_i} = \alpha _1^{(i)}{\pmb x}_1^{} + \alpha _2^{(i)}{\pmb x}_2^{} + \cdots \alpha _p^{(i)}{\pmb x}_p^{} = X{\alpha ^{(i)}}\\ {V_i} = \beta _1^{(i)}{\pmb y}_1^{} + \beta _2^{(i)}{\pmb y}_2^{} + \cdots \beta _q^{(i)}{\pmb y}_q^{} = Y{\beta ^{(i)}} \end{array} \right. \end{equation} $$ (1)

    式中, $ {\pmb\alpha} ^{(i)} = (\alpha _1^{(i)}, \alpha _2^{(i)}, \cdots, \alpha _p^{(i)})^{\rm T} $, $ {\pmb\beta} ^{(i)} = (\beta _1^{(i)}, \beta _2^{(i)}, \cdots, \beta _q^{(i)})^{\rm T} $分别为任意非零常系数向量, $ ({U_i}, {V_i}) $为典型变量组.

    首先, 寻找通过计算$ {\pmb{\alpha} ^{(1)}}, {\pmb{\beta} ^{(1)}} $, 分别在每组变量中找到第一对典型变量$ ({U_1}, {V_1}) $, 使其具有最大相关性.然后, 在每组变量中找到第二对典型变量$ ({U_2}, {V_2}) $, 使其分别与本组内的第一对典型变量$ ({U_1}, {V_1}) $不相关, 并具有次大的相关性.如此继续下去, 直到两组变量的相关性被提取完为止.另外, 式(1)中典型变量$ {U_i}, {V_i} $之间的相关系数称为典型相关系数.可以看出, 典型相关分析研究的问题实际上就是如何选取典型变量的最优线性组合.

    在进行变量选择时, 首先要对各对典型变量的典型相关系数进行显著性检验, 若某一对典型变量$ ({U_i}, {V_i}) $的相关程度不显著, 说明这对变量不具有代表性, 舍弃这一对典型变量$ ({U_i}, {V_i}) $.若相关程度显著, 则保留变量作为最后建模的输入变量.另外, 在高炉变量中, 各变量均具有一定相关性, 若两个变量相关性达到80选择其中一个变量作为建模输入变量即可.

    随机权神经网络(RVFLNs)由Pao等于1992年提出[23-27].不同于传统基于梯度学习的NN需要通过误差的反向传播迭代寻优, 采用随机给定神经元输入权值和偏置, 通过正则化原则计算输出权值建立网络.实际上, 基于单隐层前馈神经网络的RVFLNs以全局逼近理论为基础, 保证隐含层节点参数的随机选取不会影响NN的学习能力, 同时网络采用Moore-Penrose广义逆矩阵方法一步求得输出权重, 使得算法相对于BP-NN、SVR等, 其计算速度提高了数千倍, 为实际工业过程实现在线软测量和在线控制奠定基础[23-27].

    给定$ M $组任意样本集合$ ({{\pmb x}_i}, {{\pmb y}_i}) $, $ {{\pmb{y}}_i} = [{y_{i1}}, {y_{i2}}, \cdots, {y_{im}}]^{\rm{T}} \in {{\bf{R}}^m} $, $ {{\pmb{x}}_i} = [{x_{i1}}, {x_{i2}}, \cdots, {x_{in}}]^{\rm T} \in {{\bf{R}}^n} $, 一个带有$ L $个隐层节点, 以$ g(x) $为激活函数的标准单隐层前馈神经网络可以表示为:

    $$ \begin{align} {f_{L, i}}({{\pmb{x}}_i}) = \sum\limits_{j = 1}^L {{{\pmb{\beta}} _j}} g( \langle {{\pmb{a}}_j}, {{\pmb{x}}_i} \rangle +& {b_j}), \\ &i = 1, 2, \cdots, M \end{align} $$ (2)

    式中, $ {f_{L, i}}({{\pmb{x}}_i}) $是RVFLNs的输出, $ {{\pmb{a}}_j} \in {{\bf{R}}^n}, j = 1, \cdots, L $是连接输入层与隐层的权值矩阵, 且权值在给定确定范围内随机产生, $ {\pmb{\beta} _j} = {[{\beta _{j1}}, {\beta _{j2}}, \cdots, {\beta _{jm}}]^{\rm{T}}} $是连接第$ j $个隐含层节点与输出层神经元的输出权重向量, $ {b_j} $是第$ j $个隐含层节点的偏置, $ \langle {{\pmb{a}}_j}, {{\pmb{x}}_i} \rangle $表示$ {{\pmb{a}}_j} $与$ {{\pmb{x}}_i} $的内积.

    当$ {f_L} $以0误差逼近连续系统的$ M $个样本时, 即$ \sum\nolimits_{i = 0}^M {\left\| {{f_L} - {y_i}} \right\|} = 0 $, 则式(2)可以转化为寻找$ {{\pmb{\beta }}_j}, {{\pmb{a}}_j} $和$ {b_j} $, 使得:

    $$ \begin{align} \sum\limits_{j = 1}^L {{\pmb{\beta} _j}} g( \langle {{\pmb{a}}_j}, {{\pmb{x}}_i} \rangle +& {b_j}) = {{{y}}_i}, \\ & i = 1, 2, \cdots, M \end{align} $$ (3)

    用矩阵表示为:

    $$ \begin{equation} {{H}}\beta = {{Y}} \end{equation} $$ (4)

    式中:

    $$ \begin{array}{l} {{H}} = \left[ {\begin{array}{cc} {g( \langle {{\pmb{a}}_1}, {{\pmb{x}}_1} \rangle + {b_1})}&\cdots\\ \vdots &\cdots\\ {g( \langle {{\pmb{a}}_1}, {{\pmb{x}}_M} \rangle + {b_1})}&\cdots \end{array}} \right.\\ {\left. {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} &{g( \langle {{\pmb{a}}_L}, {{\pmb{x}}_1} \rangle + {b_L})} \end{array}}\\ {\begin{array}{*{20}{c}} & \vdots \end{array}}\\ {\begin{array}{*{20}{c}} &{g( \langle {{\pmb{a}}_L}, {{\pmb{x}}_M} \rangle + {b_L})} \end{array}} \end{array}} \right]_{M \times L}}, \\ {{Y}} = {\left[ {\begin{array}{*{20}{c}} {{{\pmb{y}}_1}}\\ \vdots \\ {{{\pmb{y}}_M}} \end{array}} \right]_{M \times m}}, \ \beta = {\left[ {\begin{array}{*{20}{c}} {{\pmb{\beta} _1}^{\rm{T}}}\\ \vdots \\ {{\pmb{\beta} _L}^{\rm{T}}} \end{array}} \right]_{L \times m}} \end{array} $$

    通常, 网络隐层节点数会比训练样本少很多, 从而$ {{H}} $不是方阵, 显然式(4)所示方程组没有解.为了选取最合适的$ {\beta } $尽量使式(4)成立, 那么就需要采用最小二乘方法求解上述方程组, 如式(5)所示:

    $$ \begin{equation} \beta = {{{H}}^\dagger }{{Y}} \end{equation} $$ (5)

    式中, $ {{{H}}^\dagger } $是根据Moore-Penrose方法计算得到的$ {{H}} $伪逆矩阵.

    Igelnik等于1995年进一步提出RVFLNs中激活函数的约束条件以及随机权值和偏置的理论选取范围[24]. Igelnik等指出:对于满足万能逼近性的RVFLNs, 其激活函数$ g(x) $应当满足:

    $$ \int\limits_R {{g^2}(x){\rm d}x < \infty }\ {\rm{ or }}\ \int\limits_R {{{[g'(x)]}^2}{\rm d}x < \infty } $$

    另外, 虽然Igelnik等给出了理论推导的概率空间作为权值$ {{\pmb{a}}_j} $和偏置$ {b_j} $的选取依据, 但是如何确定概率空间上的多个关键参数依然是个比较难的问题.在文献[28]中, Schmidt等依据实验结果确定了隐含层随机参数的选择范围并使用了三组数据进行验证, 其明确和简洁的$ [-1, 1] $区间确定还是为后续RVFLNs理论研究与实际应用提供非常有益的指导.

    上述常规RVFLNs采用最小二乘法计算网络输出权值, 当训练数据集中存在离群点时, 最小二乘法将"放大"离群点的影响, 使模型的整体特性发生很大改变.为了减小数据中离群点对RVFLNs数据建模的影响, 拟在RVFLNs网络中引入M估计技术, 提高模型的鲁棒性. Huber等于1964年提出的M估计技术是现在最常用的鲁棒估计方法[29-31].与使用误差平方和作为目标函数的最小二乘算法不同, M估计对残差定义了新的目标损失函数, 使其能够对数据中的离群点进行区别对待.提出的基于M估计的RVFLNs (M-RVFLNs)算法描述如下.

    1) 单输出M-RVFLNs:当$ m = 1 $时, $ {\beta} $和$ {{Y}} $可以简化为: $ {\beta} = \begin{array}{*{20}{c}} {[{\pmb{\beta} _1}} & \cdots & {{\pmb{\beta} _L}} \end{array}]_{L \times 1}^{\rm T} $, $ {{Y}} = [\begin{array}{*{20}{c}} {{\pmb{y}_1}} & \cdots & {{\pmb{y}_L}} \end{array}]_{M \times 1}^{\rm T} $.此时, 式(4)的最小二乘解为:

    $$ \begin{equation} \hat \beta = {{{H}}^{\bf{\dagger }}}{{Y}} = {({{{H}}^{{T}}}{{H}})^{ - 1}}{{{H}}^{{T}}}{{Y}} \end{equation} $$ (6)

    对应的目标函数为:

    $$ \begin{equation} Q = \sum\limits_{i = 1}^M {{r_i}^2} = \sum\limits_{i = 1}^M {{{\left( {{y_i} - {H_i}\beta } \right)}^2}} \end{equation} $$ (7)

    引入M估计, 式(7)关于残差$ r $的目标函数变为:

    $$ \begin{equation} Q = \sum\limits_{i = 1}^M {\rho ({r_i})} = \sum\limits_{i = 1}^M {\rho ({y_i} - H_i^{}\beta )} \end{equation} $$ (8)

    式中, $ \rho $为M估计影响函数.

    回归系数$ \beta $ (即RVFLNs网络输出权值)的求法如下:

    $$ \begin{equation} \hat \beta = \arg \mathop {\min }\limits_\beta \sum\limits_{i = 1}^M {\rho ({y_i} - {H_i}\beta )} = \arg \mathop {\min }\limits_\beta \sum\limits_{i = 1}^M {\rho ({r_i}(\beta ))} \end{equation} $$ (9)

    为保证估计结果具有尺度同变性, 引入残差的稳健尺度估计$ \hat \sigma $, 则求解回归系数$ \beta $形式变为:

    $$ \begin{align} \hat \beta = & \arg \mathop {\min }\limits_\beta \sum\limits_{i = 1}^M {\rho \left( {\frac{{{y_i} - {H_i}\beta }}{{\hat \sigma }}} \right)} = \\ & \arg \mathop {\min }\limits_\beta \sum\limits_{i = 1}^M {\rho \left( {\frac{{{r_i}(\beta )}}{{\hat \sigma }}} \right)} \end{align} $$ (10)

    式(10)中的残差稳健尺度估计$ \hat \sigma $对M估计很重要.根据鲁棒估计理论, $ \hat \sigma $取绝对离差中位数(Median absolute deviation, MAD)除以常数0.6745.数值0.6745是标准正态分布的MAD, 当残差服从高斯分布时, MAD除以0.6745可以保持估计的一致性.即:

    $$ \begin{equation} \hat \sigma = \frac{{{\rm{MAD}}}}{{0.6745}} = \frac{{media{n_i}\left| {{r_i} - median({r_i})} \right|}}{{0.6745}} \end{equation} $$ (11)

    令$ {{\partial \left({\sum\limits_{i = 1}^M {\rho \left({\frac{{{r_i}(\beta)}}{{\hat \sigma }}} \right)} } \right)} \mathord{\left/ {\vphantom {{\partial \left({\sum\limits_{i = 1}^M {\rho \left({\frac{{{r_i}(\beta)}}{{\hat \sigma }}} \right)} } \right)} {\partial \beta }}} \right. } {\partial \beta }} = 0 $, 可以得到:

    $$ \begin{equation} \sum\limits_{i = 1}^M {\varphi \left( {\frac{{{r_i}(\beta )}}{{\hat \sigma }}} \right)} H_i^{\rm{T}} : = \sum\limits_{i = 1}^M {\rho '\left( {\frac{{{r_i}(\beta )}}{{\hat \sigma }}} \right)} H_i^{\rm{T}} = 0 \end{equation} $$ (12)

    定义加权因子

    $$ \begin{equation} w({r_i}) : = \frac{{\varphi ({r_i})}}{{{r_i}}} \end{equation} $$ (13)

    那么等式(12)变为:

    $$ \begin{equation} \sum\limits_{i = 1}^M {w\left( {\frac{{{r_i}(\beta )}}{{\hat \sigma }}} \right)} \times ({y_i} - {H_i}\beta )H_i^{\rm{T}} = 0 \end{equation} $$ (14)

    进一步简化为:

    $$ \begin{equation} {{{H}}^{\rm{T}}}{{WH}}\beta = {{{H}}^{\rm{T}}}{{WY}} \end{equation} $$ (15)

    式中, $ W{\rm{ = diag\{ }}{w_i}{\rm{\} }} $, 每一个$ {w_i} $是等式(13)定义的权值因子, 约去等式两边$ {{H}^{\rm T}} $, 并进一步写为:

    $$ \begin{equation} {{{H}}^{{'}}}\beta = {{{Y}}^{{'}}} \end{equation} $$ (16)

    式中, $ {{{H}}^{'}} = {{WH}} $, $ {{{Y}}^{{'}}}{{ = WY}} $.

    为了防止RVFLNs模型过拟合, 稀疏输出权值矩阵, 进一步引入$ {L_1} $和$ {L_2} $两个正则化项, 此时优化目标函数变为:

    $$ \begin{align} \hat \beta = & \arg \mathop {\min }\limits_\beta \left\{ {\left\| {{{{H}}^{\bf{'}}}\beta - {{{Y}}^{\bf{'}}}} \right\|_2^2 + \lambda \left(\dfrac{{1 - {\lambda _0}}}{2}\right)||\beta ||_2^2 + } \right.\\ &\left. {{\lambda _0}||\beta |{|_1}} \right\} \end{align} $$ (17)

    式中, $ {\lambda _0} \in [0, 1] $, $ \lambda \ge 0 $.

    令$ {\lambda _1} = \lambda {\lambda _0} $, $ {\lambda _2} = {{\lambda (1 - {\lambda _0})} \mathord{\left/ {\vphantom {{\lambda (1 - {\lambda _0})} 2}} \right. } 2} $, 则式(17)变为:

    $$ \begin{equation} \hat \beta = \arg \mathop {\min }\limits_\beta \left\{ {\left\| {{{{H}}^{\bf{'}}}\beta - {{{Y}}^{\bf{'}}}} \right\|_2^2 + {\lambda _2}||\beta ||_2^2 + {\lambda _1}||\beta |{|_1})} \right\} \end{equation} $$ (18)

    进一步, 令$ (M + L) \times L $维矩阵$ {{{H}}^*}_{(M + L) \times L} = {(1 + {\lambda _2})^{ - \frac{1}{2}}}\left[{\begin{array}{*{20}{c}} {{{{H}}^{\bf{'}}}}\\ {\sqrt {{\lambda _2}} {{I}}} \end{array}} \right] $, $ {{Y}}_{(M + L)}^* = \left[{\begin{array}{*{20}{c}} {{{{Y}}^{\bf{'}}}}\\ {0} \end{array}} \right] $, 并使$ \gamma = \frac{{{\lambda _1}}}{{\sqrt {1 + {\lambda _2}} }} $, $ {\beta ^*} = \sqrt {1 + {\lambda _2}} \beta $.则上式变为:

    $$ \begin{equation} \hat \beta = \frac{1}{{\sqrt {1 + {\lambda _2}} }}\arg \mathop {\min }\limits_{{\beta ^*}} \left\{ {\left\| {{{{H}}^*}{\beta ^*} - {{{Y}}^*}} \right\|_2^2 + \gamma ||{\beta ^*}|{|_1})} \right\} \end{equation} $$ (19)

    式(19)乘上一个缩放因子$ 1 + {\lambda _2} $, 得到下式:

    $$ \begin{equation} \hat \beta = \sqrt {1 + {\lambda _2}} \arg \mathop {\min }\limits_{{\beta ^*}} \left\{ {\left\| {{{{H}}^*}{\beta ^*} - {{{Y}}^*}} \right\|_2^2 + \gamma ||{\beta ^*}|{|_1})} \right\} \end{equation} $$ (20)

    上述式(20)即可由坐标下降(Coordinate descent)算法求解[32].

    评论1. 为了解决RVFLNs模型固有的多重共线性和过拟合问题, 在鲁棒加权后的最小二乘损失函数基础上后, 同时加入输出权值的$ {L_2} $范数项和输出权值的$ {L_1} $范数项作为惩罚, 构成式(17)所示优化目标函数的弹性网络(Elastic net)[33], 因而可有效稀疏化输出矩阵, 其效果比岭回归以及Lasso等任何单一范数作为正则化项的方法都要好[33].

    2) 多输出M-RVFLNs:当$ m > 1 $时, M-RVFLNs为多输出, 此时$ \beta $和$ {{Y}} $表示如下:

    $$ \begin{equation} \begin{array}{l} {\beta} = [{\pmb{\beta} _{j1}}, \cdots, {\pmb{\beta} _{jh}}, \cdots, {\pmb{\beta} _{jm}}] = \\ {\quad\left[ {\begin{array}{*{20}{c}} {{\beta _{11}}}& \cdots &{{\beta _{1m}}}\\ \vdots & \ddots & \vdots \\ {{\beta _{L1}}}& \cdots &{{\beta _{Lm}}} \end{array}} \right]_{L \times m}}, \begin{array}{*{20}{c}} {j = 1, \cdots, L}\\ {{\rm{ }}h = 1, \cdots, m} \end{array} \end{array} \end{equation} $$ (21)
    $$ \begin{equation} \begin{array}{l} {{Y}} = [{{\pmb{y}}_{i1}}, \cdots, {{\pmb{y}}_{ih}}, \cdots, {{\pmb{y}}_{im}}] = \\ {\quad\left[ {\begin{array}{*{20}{c}} {{y_{11}}}& \cdots &{{y_{1m}}}\\ \vdots & \ddots & \vdots \\ {{y_{M1}}}& \cdots &{{y_{M{\rm{m}}}}} \end{array}} \right]_{M \times m}}, \begin{array}{*{20}{c}} {i = 1, \cdots, M}\\ {h = 1, \cdots, m} \end{array} \end{array} \end{equation} $$ (22)

    权值矩阵的维数$ {{w}}({{{r_i}(\beta)} \mathord{\left/ {\vphantom {{{r_i}(\beta)} {\hat \sigma }}} \right. } {\hat \sigma }}) $和$ {{Y}} $一致, 即为如下$ M \times m $维形式:

    $$ \begin{equation} \begin{array}{l} {w} = [{\pmb{w}_{i1}}, \cdots, {\pmb{w}_{ih}}, \cdots, {\pmb{w}_{im}}] = \\ {\quad\left[ {\begin{array}{*{20}{c}} {{w_{11}}}& \cdots &{{w_{1m}}}\\ \vdots & \ddots & \vdots \\ {{w_{M1}}}& \cdots &{{w_{Mm}}} \end{array}} \right]_{M \times m}} \end{array} \end{equation} $$ (23)

    此时, 多输出权值表示为:

    $$ \begin{equation} {\hat \beta }_{}^{(k + 1)} = [\hat {\pmb{\beta}} _{j1}^{(k + 1)}, \cdots, \hat {\pmb{\beta}} _{jh}^{(k + 1)}, \cdots, \hat {\pmb{\beta}} _{jm}^{(k + 1)}] \end{equation} $$ (24)

    这里的每一个$ \hat {\pmb{\beta}} _{jh}^{(k + 1)} $由等式(20)求得.

    基于M估计的RVFLNs根据残差决定观测值对估计的贡献大小, 所以确定权重非常重要.通过研究随机变量的分布特性和统计特性, 我们采用统计学中应用较为广泛的高斯(Gaussian)分布进行M估计权值确定.设连续随机变量$ X $服从一个位置参数为$ {\mu} $、尺度(宽度)参数为$ {\sigma _1} $的概率分布, 且概率密度函数(Probability density function, PDF)为:

    $$ f(x) = \frac{1}{{\sqrt {2\pi } {\sigma _1}}}\exp \left( { - \frac{{{{(x - \mu )}^2}}}{{2{\sigma _1}^2}}} \right) $$

    则$ X $服从高斯分布, 记作$ X\sim {\rm N}(\mu, {\sigma _1}^2) $.如果参数$ \mu, {\sigma _1} $已知, 就可以确定Gaussian分布的PDF曲线.

    根据Gaussian分布的PDF特性, 在残差处于中间的样本点处取得最大权值, 在残差很小或者很大的样本处取得较小权值, 这样就能削弱离群点对建模带来的不良影响. Gaussian分布函数参数$ \mu $和$ {\sigma _1} $决定了曲线的特性, 因此如何确定这两个参数是该方法的重要内容:

    1) $ \mu $值的确定: M估计加权的目的是调和"离群点"和"过拟合"的作用, 因此位置参数$ \mu $应取标准化残差$ {{{r_i}} \mathord{\left/ {\vphantom {{{r_i}} {\hat \sigma }}} \right. } {\hat \sigma }} $的中间值, 即$ \mu = {\rm{median}}({{{{r_i}} \mathord{\left/ {\vphantom {{{r_i}} {\hat \sigma }}} \right. } {\hat \sigma }}_i}) $.

    2) $ {\sigma _1} $值的确定:参数$ {\sigma _1} $决定了Gaussian分布函数曲线的形状, 即样本点越靠近$ \mu $, 该点的权值也越大, 因此考虑误差的统计特性, 应遵循以下取值原则:如果误差分布较紧密, 则$ {\sigma _1} $取值应偏大; 如果误差分布较分散, 则$ {\sigma _1} $取值应偏小.标准差能反映出预测误差的离散程度, 误差分布越紧密时标准差越小, 误差分布越分散时标准差越大.为此, 采用标准化残差标准差的倒数来确定宽度参数$ {\sigma _1} $的取值, 即:

    $$ \sigma _1 = \dfrac{1}{\sqrt{\dfrac{\sum\limits_{i = 1}^M\Big\| \frac{\frac{r_i}{\hat\sigma_i} -\sum\limits_{i = 1}^M \left(\frac{r_i}{\hat\sigma_i} \right) }{M} \Big\|^2 }{M}}} $$

    所提M估计鲁棒RVFLNs算法的主要建模过程如下:

    1) 根据式(6)计算$ {\hat \beta }_{}^{(0)} $;

    2) 利用得到的$ {\hat \beta }_{}^{(0)} $, 计算残差向量$ {{\pmb{r}}^{(0)}} $并计算尺度估计值$ \hat \sigma $, 进而求出标准化残差向量$ {{\pmb{r}}^{(0)}}/\hat \sigma $;

    3) 根据式(13)计算每个样本对应的权值, 求得权函数方阵$ {W^{(0)}} $;

    4) 构造$ {{{H}}^{\bf{'}}} $和$ {{{Y}}^{\bf{'}}} $, 求解$ {{\beta}^{(1)}} $, 并重复迭代计算得到$ {{\beta}^{(2)}}, {{\beta}^{(3)}}, \cdots {{\beta}^{(k)}}, {{\beta}^{(k + 1)}} $, 直到每个参数估计值$ |\hat \beta _{j, h}^{(k + 1)} - \hat \beta _{j, h}^{(k)}| / \hat \beta _{j, h}^{(k)} $, $ j = 0, 1, \cdots, L, h = 1, \cdots, m $都小于给定收敛条件, 如$ {10^{ - 6}} $.

    采用我国华南某大型高炉的本体数据与铁水质量数据(采样间隔为1h)对所提方法进行数据测试, 根据该高炉炼铁工艺及相关仪器仪表设置, 确定影响Si含量、P含量、S含量、铁水温度等铁水质量指标的18个关键过程变量为:冷风流量、送风比、热风压力、压差、顶压风量比、透气性、阻力系数、热风温度、富氧流量、富氧率、设定喷煤量、鼓风湿度、理论燃烧温度、标准风速、实际风速、鼓风动能、炉腹煤气量、炉腹煤气指数等.考虑上述变量间具有很强的相关性, 并且过多的建模变量会加大建模复杂度, 影响模型性能, 因此首先采用典型相关分析(CCA)技术在原始高维的建模输入输出变量数据中提取出4对典型变量, 其相关系数分别为0.601、0.551、0.462、0.232.表 1表明在0.05显著性水平下, 前3对典型变量显著相关, 第4对典型变量相关性不显著, 因而在后续分析中不予考虑.表 2给出了各个高炉本体参数典型变量的标准化系数, 将每一个参数乘以对应的典型相关系数进行加权, 并求其绝对值之和, 可以得到每个参数变量的权值如表 2最后一列所示.最后, 确定选取综合权值较大的炉腹煤气量${u_1}$ (${{\rm{m}}^{\rm{3}}}$)、冷风流量${u_2}$ (${{\rm{m}}^{\rm{3}}}{\rm{/min}}$)、富氧流量${u_3}$ (${{\rm{m}}^{\rm{3}}}{\rm{/h}}$)、透气性${u_4}$ (${{\rm{m}}^{\rm{3}}}{\rm{/min}} \cdot {\rm{kPa}}$)、 富氧率${u_5}$ (${\rm{wt\% }}$)和理论燃烧温度${u_6}$ (℃)作为影响 [Si] ${y_1}$ (%)、[S] ${y_2}$ (%)、[P] ${y_3}$ (%)和铁水温度MIT ${y_4}$ (℃) 等铁水质量指标的最主要因素, 并将这6个变量组成新的样本集作为铁水质量建模输入变量.

    表 1  典型相关系数的显著性检验
    Table 1  Significance test of canonical correlation coefficient
    典型变量 显著性检验指标
    Wilk's Chi-SQ DF Sig.
    1 0.337 299.701 72 0
    2 0.527 176.485 51 0
    3 0.754 77.786 32 0
    4 0.958 11.678 15 0.703
    下载: 导出CSV 
    | 显示表格
    表 2  高炉本体参数典型变量的标准化系数
    Table 2  Standardized canonical coefficients of BF body variables
    影响变量 典型变量 变量权值
    1 2 3 4
    冷风流量 14.821 2.609 $-3.502$ $-24.047$ 11.95769
    送风比 $-0.669 $ 1.803 0.658 3.633 1.695912
    热风压力 0.724 2.664 $-2.139$ -0.209 2.885878
    压差 2.749 1.384 $ -0.527$ 2.382 2.655439
    顶压富氧率 $-0.06$ $ -0.712$ 0.95 -0.022 0.865848
    透气性 5.292 5.441 $-6.701$ 10.201 9.263463
    阻力系数 0.801 0.268 $ -4.063$ 8.006 2.505639
    热风温度 0.587 $-0.469$ $ -1.356$ $-0.268$ 1.23674
    富氧流量 11.697 $ -4.429$ 0.07 1.748 9.493758
    富氧率 -5.751 3.556 $ -4.229$ $-4.556$ 7.362393
    设定喷煤量 $-0.931$ 3.284 4.027 $ -0.233$ 4.222921
    鼓风湿度 0.533 0.805 1.932 $-0.465$ 1.654862
    理论燃烧温度 $-3.408$ 2.774 5.055 1.685 5.906544
    标准风速 $-2.222$ $ -0.705$ 2.385 6.454 2.824337
    实际风速 $ -0.224 $ 0.023 0.55 $-0.767$ 0.401351
    鼓风动能 $-1.85 $ $-1.067$ $-0.255$ $-0.002$ 1.815443
    炉腹煤气量 $ -14.106 $ $-6.874$ 0.208 15.053 12.34763
    炉腹煤气指数 0.292 0.651 $-0.006$ $ -0.198$ 0.535663
    下载: 导出CSV 
    | 显示表格

    为了更好地反映高炉非线性动态特性和输入输出变量的时序和时滞关系, 将当前时刻的输入$X(t)$、上一时刻的输入$X(t - 1)$和上一时刻的模型输出作为输入, 建立铁水质量的非线性自回归(NARX)模型.同时, 为了消除低幅值高频的随机噪声, 取连续输入变量在一段时间的平均值作为实际模型输入变量.在隐含层权值${{\pmb{a}}_j}$和偏差${b_j}$随机范围选取方面, 首先在$[-1, 1]$范围内依据高斯分布随机产生${{\pmb{a}}_j}$和${b_j}$[27].在此基础上, 通过增设倍数$M$并将$M$与权值范围$[-1, 1]$相乘以扩大${{\pmb{a}}_j}$与${b_j}$的选择范围, 即选择范围扩大为.由图 2可以看出, 当${{\pmb{a}}_j}$和${b_j}$的取值范围介于$[-1, 1] $时, 铁水质量指标测试均方根误差能够取得最小值, 因而${{\pmb{a}}_j}$与${b_j}$的最佳选择范围可缩小至由于RVFLNs的输入权值每次都是在一定范围随机产生, 导致每次运算结果具有随机性, 这里取20次运算结果的均值作为最终模型输出结果.为确定铁水质量指标模型的最优正则化参数${ \mathsf{ λ} _0}, \mathsf{ λ} $, 同样取模20次平均测试均方根误差的最小值对应的${ \mathsf{ λ} _0}, \mathsf{ λ} $作为最后结果, 如图 3所示, 结果为${ \mathsf{ λ} _0}{\rm{ = [0}}{\rm{.0563, 0}}{\rm{.0435, 0}}{\rm{.0515, 0}}{\rm{.0495]}}$和$\lambda$ = [3.475E-04, 1.8E-04, 2.675E-04, 2.475E-04].

    图 2  建模误差RMSE与输入权值倍数和输入偏置倍数之间的关系
    Fig. 2  The relationship between the modeling RMSE and the input weight multiple and the input bias multiple
    图 3  建模误差RMSE与正则化系数之间的关系曲线
    Fig. 3  The relation curve between the modeling RMSE and the regularization coefficient

    数据中所含离群点比例以及离群点偏离正常取值范围的大小(即离群点幅值)对模型的精度有重要影响.为了更全面地验证所提方法的鲁棒性, 基于实际高炉炼铁数据进行鲁棒测试的数据设计.共设计两组数据, 分别从不同离群点比例时数据建模效果以及不同离群幅值时数据建模效果两个角度来评价模型的建模与鲁棒性能.

    第一组数据集用来测试所提方法对不同离群点比例时数据建模的适用性.首先, 从原始数据中随机选取比例为0%, 5%, 10%, $\cdots$, 50%的样本点$ {y_{i, {\rm{Outlier}}}}$并对其进行处理, 令, 式中${y_{\max \min }} = \max ({y_i}) - \min ({y_i})$, $i = 1, 2, 3, 4$表示正常炉况下铁水质量参数波动范围内的最大值与最小值之差.为了使离群点更加不均衡, 在所选样本点中正向离群点与负向离群点的比例设置为2:1, 添加正向离群点时令$sign = 1$, 添加负向离群点时令$sign = -1$.

    第二组数据集用来测试所提方法对相同离群点比例但离群点偏离幅值不同时的数据建模适用性.从原始数据中随机选取20%的样本点, 依据添加离群点, 式中${y_{\max \min }} = \max ({y_i}) - \min ({y_i})$, $a = 0, 0.5, 1, 1.5, \cdots, 5$用来调节幅值大小.同样为了使离群点更加不均衡, 在所选样本点中正向离群点与负向离群点的比例设置为2:1, 添加正向离群点时令$sign = 1$, 添加负向离群点时令$sign = -1$.

    为了验证所提基于Gaussian分布加权M-估计的鲁棒正则化RVFLNs (Gaussian-M-RVFLNs)方法对多元铁水质量指标(即[Si]、[P]、[S]和MIT)的建模效果, 将其与基于最小二乘加权的常规RVFLNs (LS-RVFLNs)和基于Huber加权M-估计的鲁棒随机权神经网络(Huber-M-RVFLNs)进行比较, 如图 4图 5所示.其中图 4为不同离群点比例时三种方法的多元铁水质量估计均方根误差箱形图, 图 5为不同离群幅值时三种方法的多元铁水质量估计均方根误差箱形图.三种方法的激活函数均使用Sigmoid函数, 隐层节点数均设置为30, 权值${{\pmb{a}}_j}$和偏差${{{b}}_j}$取值范围均确定为$[-1, 1]$. Huber加权算法中K通常取为1.345, 这样取值的估计方法既是稳健的, 又有较高的估计效率.另外, 为了避免不同数量级数据间的相互影响, 对所有数据进行归一化处理.由于随机权神经网络的${{\pmb{a}}_j}$和${{{b}}_j}$为随机生成, 每次结果不具有唯一性, 为更好地衡量模型的性能, 对每一个数据集分别进行30次实验, 通过30次数据实验的均方根误差(Root mean square error, RMSE)来比较不同方法的鲁棒性能.

    图 4  不同离群点比例时铁水质量估计RMSE箱形图
    Fig. 4  The box diagram of the Estimation RMSE of MIQ indices with different methods at each of the outlier contamination rates
    图 5  不同离群幅值时铁水质量估计RMSE箱形图
    Fig. 5  The box diagram of the Estimation RMSE of MIQ indices with different methods when the amplitudes of the outliers are increased

    图 4图 5所示的箱型图可以看出, 当没有离群点或者离群点比例和离群幅值较小时, 所提Gaussian-M-RVFLNs方法与常规LS-RVFLNs的铁水质量估计效果基本相当, 但要好于Huber-M-RVFLNs方法.随着离群点比例以及离群幅值的逐渐增大, 基于传统LS-RVFLs的铁水质量模型估计精度下降明显, 而所提Gaussian-M-RVFLNs建立的铁水质量模型能够始终保持很高的估计精度, 并且远好于对比的其他两种方法. Huber-M-RVFLNs方法虽然在离群点比例较低和离群幅值较小时可保持较高精度, 具有一定的鲁棒性, 但是当离群点比例较低和离群幅值持续增加时, 其估计性能下降明显, 这在图 4所示高离群点比例情况时尤其明显.

    一个好的鲁棒模型要求在实际模型与理想分布模型差别微小时, 受离群点的影响较小, 接近正确估值, 更重要的是要求实际模型与理想分布模型差别较大时, 估计值也不会受大量离群点的破坏性影响, 依然能够得到接近正常模式下的正确估计.为此考虑离群比例为20%、离群幅值步长$a$为2的多元铁水质量建模与估计效果, 实验结果分别如图 6图 7所示.为了说明问题, 同样将所提Gaussian-M-RVFLNs方法与LS-RVFLNs和Huber-M-RVFLNs进行比较分析.可以看出在存在较高离群点比例和较大离群幅值情况下, 所提方法的建模与估计性能最好, 能够根据实时输入数据, 对难测多元铁水质量指标进行准确估计, 且估计趋势基本与实际值一致.图 8为不同方法下铁水质量指标测试误差概率密度分布曲线, 可以看出所提Gaussian-M-RVFLNs模型和其他两种方法建立的模型相比, 其误差概率密度分布曲线基本为又瘦又高的围绕0均值的高斯分布曲线, 即大部分估计误差仅为实际工业数据中所包含的测量噪声.

    图 6  离群比例为20%和离群幅值步长$a$为2时, 不同RVFLNs建模方法铁水质量指标建模效果
    Fig. 6  Modeling results of MIQ indices with different methods when outlier contamination rate is twenty percent and amplitude is two
    图 7  离群比例为20%和离群幅值步长$a$为2时, 不同RVFLNs建模方法铁水质量指标估计效果
    Fig. 7  Estimation results of MIQ indices with different methods when outlier contamination rates is twenty percent and amplitude is two
    图 8  不同RVFLNs建模方法铁水质量估计误差PDF曲线
    Fig. 8  PDF curve of MIQ estimation error with different methods

    图 9为不同离群点比例时三种不同方法铁水质量建模时RVFLNs网络中为0的输出权值数量曲线图.可以看出, 所提Gaussian-M-RVFLNs方法建立的铁水质量模型在4个铁水质量指标输出权值矩阵中权值为0的个数最多, Huber-M-RVFLNs网络模型次之, LS-RVFLNs网络模型最少且输出权值一直不为0.这说明, 所提方法由于在鲁棒建模基础上引入${L_1}$和${L_2}$两个正则化项范数, 可稀疏化输出权值矩阵, 提高模型泛化性能, 有效避免模型过拟合.

    图 9  不同RVFLNs建模方法铁水质量估计时网络输出权值为0的数量曲线
    Fig. 9  The curve of the number of output weights with '0' value of MIQ estimation error with different methods

    本文针对高炉炼铁过程多元铁水质量指标难以在线检测, 以及采用常规方法难以进行有效建模与在线估计的难题, 基于Gaussian分布加权M-估计技术, 提出一种新型的数据驱动随机权神经网络(RVFLNs)鲁棒建模方法, 用于实现多元铁水质量指标的鲁棒估计.基于实际工业数据的研究表明:和常规最小二乘加权RVFLNs算法以及经典Huber加权M估计的RVFLNs算法相比, 所提Gaussian分布加权M-估计的鲁棒正则化RVFLNs算法可有效克服数据中不同离群点比例和不同离群幅值给数据建模带来的不利影响, 大大提高RVFLNs数据建模的鲁棒性能, 使得模型在复杂动态环境中持续有效, 并且估计精度较高.同时, 在鲁棒建模基础上, 在优化性能指标引入两个正则化项, 以最大化稀疏化RVFLNs网络的输出权值矩阵, 这不仅可显著降低模型复杂度, 还可有效避免模型过拟合, 进一步提高模型的适应性.


  • 本文责任编委 张敏灵
  • 图  1  Flame数据集的密度权重分布(降序)

    Fig.  1  Density weight distribution of Flame (descending)

    图  2  Flame数据集的残差分布图(降序)

    Fig.  2  The residual distribution graph of Flame (descending)

    图  3  各算法在二维数据集上的聚类结果

    Fig.  3  The clustering results of each algorithm on two-dimensional datasets

    图  4  参数$k$与聚类准确度

    Fig.  4  Clustering accuracy changes with parameter $k$

    图  5  算法的运行时间与样本量、维度的关系

    Fig.  5  Effect of the number of dimensions and samples on the execution time

    表  1  目标优化模型的迭代计算过程

    Table  1  Iterative calculation process of objective optimization model

    P1-P2 P1-P3 P1-P4 P1-P5 P1-P6 P1-P7 P1-P8 P1-P9 P1-P10 P1-P11 P1-P12 P1-P13
    U 1.0369 1.2274 1.4342 1.4336 1.3781 1.3433 1.3957 1.2310 1.2207 1.1352 1.2556 1.2315
    DBI 0.4074 0.4647 0.8507 0.6806 0.5671 0.5092 0.6260 0.4740 0.4140 0.3295 0.5415 0.4998
    SC 0.3335 0.0099 $-$0.0178 $-$0.1866 $-$0.8192 $-$0.1775 $-$0.1655 0.0120 $-$0.0275 0.0588 0.0303 0.0367
    下载: 导出CSV

    表  2  $\alpha$的取值与聚类中心个数

    Table  2  The value of alpha and the number of cluster centers

    $\alpha$ 0.6 0.5 0.1 0.05 0.02 0.01 0.001 0.0001
    DC-MDACC 9 9 7 5 4 3 3 3
    RA-Clust 2 2 2 2 2 2 2 2
    下载: 导出CSV

    表  3  数据集的基本信息

    Table  3  The basic information of the datasets

    No. Datasets Data Sources $m$ $m_r$ $m_c$ Class Instance
    1 Flame Synthesis 2 2 0 2 240
    2 R15 Synthesis 2 2 0 15 600
    3 Spiral Synthesis 2 2 0 3 312
    4 Aggregation Synthesis 2 2 0 7 788
    5 Seeds UCI 7 7 0 3 210
    6 Wine UCI 13 13 0 3 178
    7 Soybean UCI 35 0 35 4 47
    8 SPECT Heart UCI 22 0 22 2 267
    9 Tic-tac-toe UCI 10 0 10 2 958
    10 Congressional Voting UCI 16 0 16 2 435
    11 Australian Credit Approval UCI 14 6 8 2 690
    12 Credit Approval UCI 15 6 9 2 690
    13 Heart Disease UCI 13 6 7 2 303
    14 German Credit UCI 20 7 13 2 1 000
    15 ZOO UCI 16 1 15 7 101
    16 Japanese Credit UCI 15 6 9 2 690
    17 Post Operative Patient UCI 8 1 7 3 90
    18 Hepatitis UCI 19 6 13 2 155
    下载: 导出CSV

    表  4  数值属性数据集上的聚类结果比较

    Table  4  Comparison of clustering results on numerical attribute datasets

    数据集 算法 参数 ACC (%) NMI Purity JC RI FMI
    Flame K-means $k = 2$ 82.9167 0.3939 0.8292 0.5684 0.7155 0.7253
    DPC $dc = 0.9301$ 78.7500 0.4131 0.7875 0.5133 0.6639 0.6786
    DBSCAN $MinPts = 4$, $EPS = 0.83$ 94.1667 0.8448 0.9875 0.9144 0.9540 0.9561
    FCM $k = 2$ 85 0.4420 0.8500 0.6032 0.7439 0.7530
    CLUB $k = 5$ 100 1 1 1 1 1
    RA-Clust $k = 60$ 100 1 1 1 1 1
    Spiral K-means $k = 3$ 34.6154 0.00005 0.3494 0.1960 0.5540 0.3278
    DPC $dc = 1.7443$ 100 1 1 1 1 1
    DBSCAN $MinPts = 10$, $EPS = 1$ 100 1 1 1 1 1
    FCM $k = 3$ 33.9744 0.00002 0.3429 0.1956 0.5541 0.3272
    CLUB $k = 6$ 100 1 1 1 1 1
    RA-Clust $k = 10$ 100 1 1 1 1 1
    Aggregation K-means $k = 7$ 73.3503 0.8036 0.8883 0.5676 0.8958 0.7321
    DPC $dc = 1$ 94.0355 0.9705 0.9987 0.9591 0.9911 0.9793
    DBSCAN $MinPts = 4$, $EPS = 0.83$ 82.7411 0.8894 0.8274 1 1 1
    FCM $k = 7$ 79.6954 0.8427 0.9315 0.6433 0.9187 0.7926
    CLUB $k = 6$ 100 1 1 1 1 1
    RA-Clust $k = 12$ 99.8731 0.9957 0.9987 0.9966 0.9993 0.9983
    R15 K-means $k = 15$ 79.5000 0.8989 0.7950 0.6075 0.9606 0.7704
    DPC $dc = 0.9500$ 99.5000 0.9922 0.9950 0.9801 0.9987 0.9900
    DBSCAN $MinPts = 5$, $EPS = 0.32$ 78.1667 0.9121 0.7850 0.5927 0.9627 0.7642
    FCM $k = 15$ 99.6667 0.9942 0.9967 0.9866 0.9991 0.9932
    CLUB $k = 7$ 99.5000 0.9913 0.9950 0.9799 0.9987 0.9899
    RA-Clust $k = 10$ 100 1 1 1 1 1
    Seeds K-means $k = 3$ 55.2381 0.4924 0.6667 0.4430 0.7052 0.6198
    DPC $dc = 0.4$ 62.06 0.6560 0.7340 0.6633 0.7125 0.7988
    DBSCAN $MinPts = 4$, $EPS = 1.3$ 34.2857 0.0183 0.3429 0.4964 0.7767 0.7046
    FCM $k = 3$ 89.5238 0.6744 0.8952 0.6814 0.8743 0.8105
    CLUB $k = 24$ 81.3412 0.6612 0.81314 0.6445 0.6122 0.7412
    RA-Clust $k = 9$ 89.5238 0.6744 0.8952 0.6815 0.8748 0.8106
    Wine K-means $k = 3$ 58.4270 0.3804 0.7047 0.3449 0.7032 0.5160
    DPC $dc = 0.3162$ 58.43 0.2802 0.1794 0.5912 0.7016 0.6498
    DBSCAN $MinPts = 2$, $EPS = 1.3$ 38.2022 0.0268 0.3989 0.4864 0.7024 0.6888
    FCM $k = 3$ 63.7303 0.4073 0.6373 0.6957 0.9034 0.8206
    CLUB $k = 24$ 60.3321 0.4101 0.6033 0.6217 0.6234 0.7406
    RA-Clust $k = 25$ 64.6067 0.4277 0.6461 0.6671 0.8904 0.8007
    下载: 导出CSV

    表  5  分类属性数据集上的聚类结果比较

    Table  5  Comparison of clustering results on categorical attribute dataset

    数据集 算法 参数 ACC (%) NMI Purity JC RI FMI
    Soybean K-modes $k = 4$ 100 1 1 1 1 1
    EKP $k = 4$, $Cp = 0.8$, $Ip = 0.5$ 53.1915 0.2980 0.5745 0.2326 0.6947 0.3774
    FKP-MD $Ite = 100$, $k = 4$, $m = 1.1$ 70.2128 0.7892 0.7872 0.5601 0.8205 0.7348
    IKP-MD $Ite = 100$, $k = 4$, $\lambda = 0.8$ 100 1 1 1 1 1
    DP-MD-FN $dc = 6$ %, $t = 5$ 100 1 1 1 1 1
    RA-Clust $k = 30$ 100 1 1 1 1 1
    SPECT Heart K-modes $k = 4$ 60.9626 0.0697 0.9198 0.4963 0.5215 0.6768
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 40.6417 0.0332 0.5241 0.4807 0.8137 0.6831
    FKP-MD $Ite = 200$, $k = 2$, $m = 1.4$ 54.5455 0.0494 0.9198 0.4680 0.5015 0.6565
    IKP-MD $Ite = 200$, $k = 2$, $\lambda = 0.8$ 67.3797 0.0568 0.9198 0.5398 0.5580 0.7094
    DP-MD-FN $dc = 1.5$, $t = 3$ 85.5615 0.8549 0.9198 0.7464 0.7491 0.8549
    RA-Clust $k = 65$ 90.3743 0.0071 0.9198 0.8245 0.8249 0.9056
    Tia-tac-toe K-modes $k = 2$ 54.6973 0.0005 0.6534 0.3669 0.5039 0.5369
    EKP $k = 4$, $Cp = 0.8$, $Ip = 0.5$ 55.33 0.0075 0.6534 0.3560 0.5026 0.5256
    FKP-MD $Ite = 100$, $k = 2$, $m = 1.1$ 57.0981 0.0128 0.6534 0.3623 0.5096 0.5324
    IKP-MD $Ite = 100$, $k = 2$, $\lambda = 0.8$ 57.9332 0.0078 0.6534 0.3728 0.5121 0.5433
    DP-MD-FN $dc = 22.75$ %, $t = 50$ 64.3006 0.0066 0.6534 0.4883 0.5404 0.6674
    RA-Clust $k = 44$ 65.6576 0.0067 0.6566 0.5458 0.5486 0.7375
    Congressional Voting K-modes $k = 2$ 84.1379 0.4048 0.8414 0.5857 0.7325 0.7389
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 83.6207 0.3602 0.8362 0.5678 0.7249 0.7244
    FKP-MD $Ite = 100$, $k = 2$, $m = 3.6$ 84.9138 0.3962 0.8491 0.5902 0.7427 0.7423
    IKP-MD $Ite = 100$, $k = 2$, $\lambda = 2$ 83.1897 0.3641 0.8319 0.5618 0.7191 0.7194
    DP-MD-FN $dc = 6.29$ %, $t = 10$ 80.6897 0.3802 0.8069 0.5343 0.6877 0.6966
    RA-Clust $k = 10$ 86.2069 0.4501 0.8621 0.7227 0.7116 0.7677
    下载: 导出CSV

    表  6  混合属性数据集上的聚类结果比较

    Table  6  Comparison of clustering results on mixed datasets

    数据集 算法 参数 ACC (%) NMI Purity JC RI FMI
    Disease Heart K-prototypes $k = 2$, $\lambda = 0.4$ 57.7558 0.0143 0.5776 0.3581 0.5101 0.5277
    EKP $k = 2$, $Cp = 0.9$, $Ip = 0.1$ 52.4752 0.0065 0.5413 0.4820 0.4996 0.6816
    FKP-MD $Ite = 100$, $k = 2$, $m = 1.2$ 52.4752 0 0.5413 0.3349 0.4984 0.5018
    DP-MD-FN $dc = 22$ %, $t = 20$ 75.9076 0.2018 0.7591 0.4639 0.6330 0.6338
    IKP-MD $Ite = 100$, $k = 2$, $\lambda = 0.8$ 52.1452 0.0026 0.5413 0.3405 0.4993 0.5081
    RA-Clust $k = 30$ 77.5578 0.2291 0.7756 0.4858 0.6507 0.6540
    Credit Approval K-prototypes $k = 2$, $\lambda = 0.7$ 55.2833 0.0134 0.5528 0.5015 0.5048 0.7062
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 68.2609 0.1133 0.6826 0.4538 0.5661 0.6292
    FKP-MD $Ite = 100$, $k = 2$, $m = 1.3$ 83.7681 0.3733 0.8377 0.5735 0.7277 0.7290
    DP-MD-FN $dc = 17$ %, $t = 20$ 82.2358 0.3742 0.8224 0.5522 0.7074 0.7115
    IKP-MD $Ite = 100$, $k = 2$, $\lambda = 0.8$ 78.8406 0.2778 0.7884 0.5022 0.6659 0.6687
    RA-Clust $k = 70$ 83.3078 0.4013 0.8652 0.5827 0.7438 0.7368
    Australian Credit Approval K-prototypes $k = 2$, $\lambda = 0.4$ 56.2319 0.0162 0.5623 0.5030 0.5071 0.7071
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 55.9001 0.0048 0.5600 0.4566 0.5704 0.6317
    FKP-MD $Ite = 100$, $k = 2$, $m = 0.6$ 55.6522 0.0034 0.5565 0.5049 0.5057 0.7101
    DP-MD-FN $dc = 18$ %, $t = 20$ 82.1739 0.3611 0.8217 0.5499 0.7066 0.7096
    IKP-MD $Ite = 100$, $k = 2$, $\lambda = 0.8$ 81.7391 0.3105 0.8174 0.5469 0.7010 0.7072
    RA-Clust $k = 70$ 82.3188 0.3795 0.8652 0.5727 0.7400 0.7295
    German Credit K-prototypes $k = 2$, $\lambda = 0.15$ 67.0000 0.0123 0.7000 0.4898 0.5580 0.6610
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.56$ 54.1000 0.0014 0.7000 0.3865 0.5029 0.5578
    FKP-MD $Ite = 100$, $k = 2$, $m = 1.4$ 67.0000 0.0096 0.7000 0.4942 0.5574 0.6658
    DP-MD-FN $dc = 1.5$, $t = 3$ 65.7000 0.0306 0.0716 0.5121 0.5704 0.6831
    IKP-MD $Ite = 130$, $k = 2$, $\lambda = 0.8$ 29.0000 0.0169 0.7000 0.1860 0.4568 0.3542
    RA-Clust $k = 80$ 66.3000 0.0308 0.7240 0.5050 0.5717 0.0752
    ZOO K-prototypes $k = 7$, $\lambda = 0.6$ 73.2673 0.7236 0.8416 0.5746 0.8798 0.7307
    EKP $k = 7$, $Cp = 0.8$, $Ip = 0.5$ 61.3861 0.4641 0.7030 0.3780 0.8061 0.5504
    FKP-MD $Ite = 100$, $k = 7$, $m = 2.1$ 83.1683 0.8689 0.4059 0.6488 0.9430 0.8055
    DP-MD-FN $dc = 7.94$ %, $t = 11$ 84.1584 0.8077 0.8416 0.8036 0.9523 0.8911
    IKP-MD $Ite = 100$, $k = 7$, $\lambda = 0.8$ 87.1287 0.8778 0.9307 0.7749 0.9453 0.8760
    RA-Clust $k = 5$ 89.1089 0.8815 0.8911 0.9547 0.9897 0.9770
    Post Operative Patient K-prototypes $k = 3$, $\lambda = 0.7$ 62.0690 0.0256 0.7241 0.4355 0.5354 0.6069
    EKP $k = 7$, $Cp = 0.8$, $Ip = 0.5$ 67.7778 0.0274 0.7111 0.5398 0.5898 0.7131
    FKP-MD $Ite = 200$, $k = 3$, $m = 1.4$ 53.3333 0.0231 0.7111 0.3516 0.4792 0.5210
    DP-MD-FN $dc = 81$ %, $t = 3$ 70.1149 0.0110 0.7126 0.5800 0.5924 0.7572
    IKP-MD $Ite = 150$, $k = 3$, $\lambda = 0.8$ 41.1111 0.0228 0.7111 0.2641 0.4754 0.4340
    RA-Clust $k = 70$ 70.1149 0.0110 0.7326 0.5800 0.5924 0.7572
    Japanese Credit K-prototypes $k = 2$, $\lambda = 0.6$ 55.2833 0.0134 0.5528 0.5015 0.5048 0.7062
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 62.1746 0.0916 0.6738 0.3956 0.5594 0.5669
    FKP-MD $Ite = 100$, $k = 7$, $m = 2.1$ 83.3078 0.3539 0.8331 0.5653 0.7215 0.7223
    DP-MD-FN $dc = 1.5$, $t = 3$ 56.9678 0.2184 0.7142 0.3657 0.5986 0.5430
    IKP-MD $Ite = 130$, $k = 2$, $\lambda = 0.8$ 78.8668 0.2781 0.7887 0.5024 0.6661 0.6688
    RA-Clust $k = 80$ 83.3078 0.4013 0.8652 0.5827 0.7438 0.7368
    Hepatitis K-prototypes $k = 2$, $\lambda = 0.35$ 65.0000 0.00003 0.8375 0.4794 0.5392 0.6518
    EKP $k = 2$, $Cp = 0.8$, $Ip = 0.5$ 78.7500 0.0284 0.8375 0.6554 0.6611 0.7967
    FKP-MD $Ite = 100$, $k = 7$, $m = 1.3$ 77.5000 0.2017 0.8375 0.5649 0.6465 0.7290
    DP-MD-FN $dc = 7.94$ %, $t = 11$ 78.7500 0.1794 0.8150 0.6541 0.7092 0.7916
    IKP-MD $Ite = 300$, $k = 2$, $\lambda = 0.8$ 83.7500 0.2418 0.8375 0.6598 0.7244 0.7974
    RA-Clust $k = 10$ 86.2500 0.2847 0.8625 0.7019 0.7598 0.8262
    下载: 导出CSV

    表  7  算法的时间复杂度分析

    Table  7  The time complexity analysis of the algorithms

    算法 时间复杂度
    K-means ${\rm O}(Item\times n\times k)$[37]
    FCM ${\rm O}(Item\times n\times k)$[10]
    DBSCAN ${\rm O}(n^2)$[11]
    DPC ${\rm O}(n^2)$[12]
    CLUB ${\rm O}(n\log_2n)$[13]
    K-prototypes ${\rm O}(\left(s+1 \right)\times k\times n)$[17]
    EKP ${\rm O}(T\times k\times n)$[15]
    DC-MDACC ${\rm O}(iter\times m\times n^2)$[22]
    DP-MD-FN ${\rm O}(\left(r^2m_c^2+m_r^2 \right)N^2)$[18]
    IKP-MD ${\rm O}(k\left(m+p+Nm-Np \right)nl)$[16]
    FKP-MD ${\rm O}(m^2n+m^2s^3+k\left(m+p+Nm-Np \right)ns)$[17]
    RA-Clust ${\rm O}(n\sqrt n)$
    下载: 导出CSV
  • [1] Li X L, Han Q, Qiu B Z. A clustering algorithm using skewness-based boundary detection. Neurocomputing, 2018, 275: 618-626 doi: 10.1016/j.neucom.2017.09.023
    [2] Han J W, Kamber M. Data Mining: Concepts And Techniques. New York: Morgan Kaufmann, 2006. 384
    [3] 王卫卫, 李小平, 冯象初, 王斯琪.稀疏子空间聚类综述.自动化学报, 2015, 41(8): 1373-1384 doi: 10.16383/j.aas.2015.c140891

    Wang Wei-Wei, Li Xaio-Ping, Feng Xiang-Chu, Wang Si-Qi. A survey on sparse subspace clustering. Acta Automatica Sinica, 2015, 41(8): 1373-1384 doi: 10.16383/j.aas.2015.c140891
    [4] Li X L, Geng P, Qiu B Z. A cluster boundary detection algorithm based on shadowed set. Intelligent Data Analysis, 2017, 20(1): 29-45 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=49c3755a56d43cb89ea79bb64a46c158
    [5] 李向丽, 曹晓锋, 邱保志.基于矩阵模型的高维聚类边界模式发现.自动化学报, 2017, 43(11): 1962-1972 doi: 10.16383/j.aas.2017.c160443

    Li Xiang-Li, Cao Xiao-Feng, Qiu Bao-Zhi. Clustering boundary pattern discovery for high dimensional space base on matrix model. Acta Automatica Sinica, 2017, 43(11): 1962-1972 doi: 10.16383/j.aas.2017.c160443
    [6] Alswaitti M, Albughdadi M, Isa N A M. Density-based particle swarm optimization algorithm for data clustering. Expert Systems with Applications, 2018, 91: 170-186 doi: 10.1016/j.eswa.2017.08.050
    [7] Wangchamhan T, Chiewchanwattana S, Sunat K. Efficient algorithms based on the k-means and chaotic league championship algorithm for numeric, categorical, and mixed-type data clustering. Expert Systems with Applications, 2017, 90: 146-167 doi: 10.1016/j.eswa.2017.08.004
    [8] Qiu B Z, Cao X F. Clustering boundary detection for high dimensional space based on space inversion and Hopkins statistics. Knowledge-Based Systems, 2016, 98: 216-225 doi: 10.1016/j.knosys.2016.01.035
    [9] Macqueen J. Some methods for classification and analysis of multiVariate observations. In: Proceedings of 5th Berkeley Symposium on Mathematical Statistics and Probability. Berkeley: California Press, 1967. 1(14): 281-297
    [10] Bezdek J C, Robert E, Full W. The fuzzy c-means clustering algorithm. Computers & Geosciences, 1984, 10(2): 191-203 http://d.old.wanfangdata.com.cn/OAPaper/oai_doaj-articles_0bd275728f11393950d3f3b1e26d982a
    [11] Ester M, Kriegel H P, Xu X W, Sander J. A density-based algorithm for discovering clusters in large spatial databases with noise. In: Proceedings of the 2nd International Conference on Knowledge Discovery and Data Mining (KDD-96). Portland, Oregon: Association for the Advancement of Artificial Intelligence, 1996. 226-231
    [12] Rodriguez A, Laio A. Clustering by fast search and find of density peaks. Science, 2014, 344(6191): 1492 doi: 10.1126/science.1242072
    [13] Chen M, Li L J, Wang B, Chen J J, Pan L N, Chen X Y. Effectively clustering by finding density backbone based on knn. Pattern Recognition, 2016, 60: 486-498 doi: 10.1016/j.patcog.2016.04.018
    [14] Huang Z X. Extensions to the k-means algorithm for clustering large data sets with categorical values. Data Mining & Knowledge Discovery, 1998, 2(3): 283-304 doi: 10.1023-A-1009769707641/
    [15] Zheng Z, Gong M G, Ma J J, Jiao L C, Wu Q D. Unsupervised evolutionary clustering algorithm for mixed type data Evolutionary Computation. In: Proceedings of evolutionary computation (CEC). Barcelona, Spain: IEEE, 2010. 1-8
    [16] Ji J C, Bai T, Zhou C G, Ma C, Wang Z. An improved k-prototypes clustering algorithm for mixed numeric and categorical data. Neurocomputing, 2013, 120: 590-596 doi: 10.1016/j.neucom.2013.04.011
    [17] Ji J C, Pang W, Zhou C G, Han X, Wang Z. A fuzzy k-prototype clustering algorithm for mixed numeric and categorical data. Knowledge-Based Systems, 2012, 30: 129-135 doi: 10.1016/j.knosys.2012.01.006
    [18] Ding S F, Du M J, Sun T F, Xu X, X Y. An entropy-based density peaks clustering algorithm for mixed type data employing fuzzy neighborhood. Knowledge-Based Systems, 2017, 133: 294-313 doi: 10.1016/j.knosys.2017.07.027
    [19] 陈华, 章兢, 张小刚, 胡义函.一种基于Parzen窗估计的鲁棒ELM烧结温度检测方法.自动化学报, 2012, 38(5): 841-849 doi: 10.3724/SP.J.1004.2012.00841

    Chen Hua, Zhang Jing, Zhang Xiao-Gang, Hu Yi-Han. A robust-elm approach based on parzen windiow's estimation for kiln sintering temperature detection. Acta Automatica Sinica, 2012, 38(5): 841-849 doi: 10.3724/SP.J.1004.2012.00841
    [20] Bryant A C, Cios K J. A density-based clustering algorithm using reverse nearest neighbor density estimates. IEEE Transactions on Knowledge & Data Engineering, 2017, PP(99): 1-1 http://ieeexplore.ieee.org/document/8240674
    [21] Carvalho F D A T D, Simões E C. Fuzzy clustering of interval-valued data with cityblock and hausdorff distances. Neurocomputing, 2017, 266: 659-673 doi: 10.1016/j.neucom.2017.05.084
    [22] 陈晋音, 何辉豪.基于密度的聚类中心自动确定的混合属性数据聚类算法研究.自动化学报, 2015, 41(10): 1798-1813 doi: 10.16383/j.aas.2015.c150062

    Chen Jin-Yin, He Hui-Hao. Research on density-based clustering algorithm for mixed data with determine cluster centers automatically. Acta Automatica Sinica, 2015, 41(10): 1798-1813 doi: 10.16383/j.aas.2015.c150062
    [23] Aliguliyev R M. Performance evaluation of density-based clustering methods. Information Sciences, 2009, 179(20): 3583-3602 doi: 10.1016/j.ins.2009.06.012
    [24] Žalik K R, Žalik B. Validity index for clusters of different sizes and densities. Pattern Recognition Letters, 2011, 32(2): 221-234 doi: 10.1016/j.patrec.2010.08.007
    [25] UCI Machine Learning Repository[Online], available: http://archive.ics.uci.edu/ml/datasets.html, April 21, 2018
    [26] Yao H L, Zheng M M, Fang Y. Adaptive density peak clustering based on k-nearest neighbors with aggregating strategy. Knowledge-Based Systems, 2017, 133: 208-220 doi: 10.1016/j.knosys.2017.07.010
    [27] 周晨曦, 梁循, 齐金山.基于约束动态更新的半监督层次聚类算法.自动化学报, 2015, 41(7): 1253-1263 doi: 10.16383/j.aas.2015.c140859

    Zhou Chen-Xi, Liang Xun, Qi Jin-Shan. A semi-supervised agglomerative hierarchical clustering method based on dynamically updating constraints. Acta Automatica Sinica, 2015, 41(7): 1253-1263 doi: 10.16383/j.aas.2015.c140859
    [28] 皋军, 孙长银, 王士同.具有模糊聚类功能的双向二维无监督特征提取方法.自动化学报, 2012, 38(4): 549-562 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zdhxb201204007

    Gao Jun, Sun Chang-Yin, Wang Shi-Tong. (2D)$.2$UFFCA: two-directional two-dimensional unsupervised feature extraction method with fuzzy clustering ability. Acta Automatica Sinica, 2012, 38(4): 549-562 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zdhxb201204007
    [29] Du M, Ding S, Xue Y. A novel density peaks clustering algorithm for mixed data. Pattern Recognition Letters, 2017, 97: 46-53 doi: 10.1016/j.patrec.2017.07.001
    [30] Zhu S, Xu L. Many-objective fuzzy centroids clustering algorithm for categorical data. Expert Systems with Applications, 2018, 96: 230-248 doi: 10.1016/j.eswa.2017.12.013
    [31] Chen J Y, He H H. A fast density-based data stream clustering algorithm with cluster centers self-determined for mixed data. Information Sciences, 2016, 345: 271-293 doi: 10.1016/j.ins.2016.01.071
    [32] Pan Z, Lei J, Zhang Y, Sun X, Kwong S. Fast motion estimation based on content property for low-complexity h.265/hevc encoder. IEEE Transactions on Broadcasting, 2016, 62(3): 675-684 doi: 10.1109/TBC.2016.2580920
    [33] 庞宁, 张继福, 秦啸.一种基于多属性权重的分类数据子空间聚类算法.自动化学报, 2018, 44(3): 517-532 doi: 10.16383/j.aas.2018.c160726

    Pang Ning, Zhang Ji-Fu, Qing Xiao. A subspace clustering algorithm of categorical data using multiple attribute weights. Acta Automatica Sinica, 2018, 44(3): 517-532 doi: 10.16383/j.aas.2018.c160726
    [34] Redmond S J, Heneghan C. A method for initialising the k-means clustering algorithm using kd-trees. Pattern Recognition Letters, 2007, 28(8): 965-973 doi: 10.1016/j.patrec.2007.01.001
    [35] Rezaee M R, Lelieveldt B P F, Reiber J H C. A new cluster validity index for the fuzzy c-mean. Pattern Recognition Letters, 1998, 19(3-4): 237-246 doi: 10.1016/S0167-8655(97)00168-2
    [36] Mehmood R, Zhang G, Bie R, Dawood H, Ahmad H. Clustering by fast search and find of density peaks via heat diffusion. Neurocomputing, 2016, 208: 210-217 doi: 10.1016/j.neucom.2016.01.102
    [37] Yu S S, Chu S W, Wang C M, Chan Y K. Two improved k-means algorithms. Applied Soft Computing, 2017. http://d.old.wanfangdata.com.cn/Periodical/nygcxb201510030
  • 期刊类型引用(12)

    1. 李诗航,孙玉洁,崔建峰,曾建潮,卢志刚. 军用无人系统协同感知与分布式滤波技术. 火力与指挥控制. 2024(03): 88-94 . 百度学术
    2. 李颖,杨晓坤,李思嘉,熊洪樟. 基于无迹卡尔曼滤波的反窃电自动化检验系统. 电子设计工程. 2024(13): 104-107+112 . 百度学术
    3. 胡晓工,苏志坚,贾晓亮,吴光平,刘鹏. 基于分布式容积信息卡尔曼滤波的锂电池SOC估计. 自动化技术与应用. 2024(12): 1-7 . 百度学术
    4. 符太东,刘松旭,李育强. 基于盲均衡算法的网络大数据异常节点检测. 计算机仿真. 2023(07): 462-466 . 百度学术
    5. 刘宇,袁正,陈燕苹,彭慧. 基于鲁棒增强的因子图多源信息融合算法. 电子质量. 2023(08): 27-32 . 百度学术
    6. 刘鹏,徐昕恒,曾建潮,张鹏,卢志刚,马跃东. 机器人单兵室内定位理论与关键技术分析. 火力与指挥控制. 2022(03): 1-7 . 百度学术
    7. 李旭妍,刘长明,陈燕,畅彦祥. 基于EKF算法的微型AHRS模块设计. 国外电子测量技术. 2022(04): 93-98 . 百度学术
    8. 刘鹏,于镇滔,曾建潮,张鹏,卢志刚,马跃东. 机器人班组协同定位理论与技术研究. 火力与指挥控制. 2022(04): 5-10+18 . 百度学术
    9. 李孟委,徐文武,张鹏. 基于四元数互补滤波算法的车载MIMU. 河南理工大学学报(自然科学版). 2021(01): 111-117 . 百度学术
    10. 李维刚,张鹏,李孟委,王树森. 基于卡尔曼滤波的主子惯组匹配标定方法设计. 河南理工大学学报(自然科学版). 2021(02): 118-126 . 百度学术
    11. 张鹏,王树森,李孟委. SINS/GPS/PDR室内外无缝导航定位算法. 河南理工大学学报(自然科学版). 2021(03): 113-119 . 百度学术
    12. 曹红燕,刘长明,沈小林,牛兴龙,李大威,陈燕. 基于GPS/INS的自适应无迹Kalman滤波算法. 河南理工大学学报(自然科学版). 2021(06): 149-156 . 百度学术

    其他类型引用(23)

  • 加载中
  • 图(5) / 表(7)
    计量
    • 文章访问数:  2502
    • HTML全文浏览量:  354
    • PDF下载量:  226
    • 被引次数: 35
    出版历程
    • 收稿日期:  2018-01-12
    • 录用日期:  2018-04-16
    • 刊出日期:  2020-07-24

    目录

    /

    返回文章
    返回