Analysis and Application of Bounded Confidence Opinion Dynamics With Universal Gravitation-like
-
摘要: 在社会网络中, Hegselmann-Krause模型描述了置信阈值内不同邻居对个体的观点影响权重都相同且邻居对个体的吸引力与它们的观点差值成正比, 这是不切实际的. 为了克服经典Hegselmann-Krause模型的不足, 提出具有类万有引力的有界置信观点动力学模型, 描述个体观点的更新依赖于观点之间的差值和邻居的权威性, 且不同邻居对个体的观点影响权重不同. 根据置信矩阵的性质证明观点的收敛性, 并分析具有衰减置信阈值的观点动力学行为, 给出观点收敛速率的显式解. 最后, 利用提出的观点动力学模型, 研究社会心理学中的“权威效应”和“非零和效应”. 仿真结果表明, 邻居的权威性有利于观点达成一致.Abstract: In the social networks, the Hegselmann-Krause model describes that the different neighbors within the confidence threshold have the same influence weight on the individual's opinion, and the attractiveness of neighbors to the individual is proportional to the opinion distance, which is unrealistic. In order to overcome the shortcoming of the classical Hegselmann-Krause model, we propose a bounded confidence opinion dynamics model with universal gravitation-like in this paper, which captures the update of the individual opinion depending on both the opinion distance and the authority of neighbors, and it is shown that different neighbors have different influence weights on individual opinions. The convergence of opinions is proved in terms of the property of confidence matrix, and moreover, the dynamic behavior of the opinion with decaying confidence threshold is analyzed and the explicit solution of the opinion convergence rate is given. Finally, by employing our proposed opinion dynamics model, we study the authority effect and the non-zero-sum effect in social psychology. Simulation analyses reveal that the authority of the neighbor is beneficial to opinion achieving consensus.
-
Key words:
- Opinion dynamics /
- universal gravitation-like /
- bounded confidence /
- social networks /
- convergence
-
大数据时代, 数据流在医疗诊断、欺诈监测、气象预测等多个领域大量涌现[1−3]. 相较于传统的静态数据, 数据流通常以流的形式按时间顺序依次到达, 具有时序性、动态性、无限性、不可重现性等特点[4−6]. 数据流挖掘研究是为了使在线学习模型更好地应对实时数据流中的动态变化, 提高模型的适应性和泛化性能[7]. 概念漂移是数据流挖掘中常见的一种现象, 其典型特征是样本的输入特征和输出标签之间的关系会随时间发生不可预见的变化[8−11].
概念漂移会使基于历史数据训练的学习模型难以适应当前的实时数据变化[12−13]. 例如在信用卡欺诈检测中, 欺诈者更新一些伪装技术, 使欺诈特征随时间推移发生变化, 导致过去归为正常的交易记录可能在未来变成欺诈交易[14]; 在气象预测中, 相似的气温、压强、空气湿度等因素可能随季节变化造成不同的天气状况, 若模型更新不及时, 就会使当前的天气预测情况发生滞后[15]. 在工业生产及故障诊断领域, 工况或环境变化可能导致故障特征改变. 若故障诊断模型未能实时更新, 误诊和漏诊问题随时间累积, 可能引发生产中断、经济损失等问题. 因此, 在数据流挖掘中, 提高学习模型对概念漂移的适应能力, 维持其在数据变化下的准确性和有效性, 对于实际应用具有重要意义.
目前, 处理概念漂移数据流的方法大致分为主动检测方法和被动自适应方法两类[16]. 主动检测方法通过监测模型的性能表现或数据变化判断概念漂移, 能够及时发现数据分布的变化, 迅速做出响应以保持模型的准确性, 但是可能会错误地将随机波动识别为概念漂移, 导致不必要的模型调整. 被动适应方法通过对模型的不断调整来适应概念漂移, 即使在数据分布缓慢变化的情况下也能保持较好的性能, 但可能会忽略重要信息, 并且鲁棒性较差. 集成学习是常用的被动适应方法, 通过特定的结合策略, 将基于不同时序数据的多个基模型集成为一个泛化能力更强、性能更优的模型, 并通过灵活的指标调整以有效适应概念漂移[17−18]. 然而, 现有集成方法大多只能解决某一类型的概念漂移, 泛化能力不强, 对其他类型的概念漂移效果较差. 并且由于替换策略, 过拟合的基模型可能会替换掉泛化性能较好的基模型, 从而导致模型不稳定. 此外, 在概念漂移刚发生时, 集成模型中存在较多携带历史数据的基模型, 使模型难以迅速适应概念漂移.
为了应对上述问题, 本文提出了一种基于主动−被动增量集成的概念漂移适应方法 (Concept drift adaptation method based on active-passive incremental ensemble, CDAM-APIE). 该方法采用在线增量集成策略和漂移检测方法, 构建了被动集成模型和主动基模型. 被动集成模型通过对数据块中的单一训练样本进行预测并动态调整基模型权重, 有利于对数据分布变化进行快速响应. 同时, 利用增量学习和概念漂移检测技术构建主动基模型, 提升模型在平稳数据流状态下的鲁棒性和漂移以后的泛化性能. 本文的主要贡献如下:
1)通过实时调整权值, 周期性更新模型, 提高模型适应不同类型概念漂移的能力.
2)主动方法与被动方法相结合, 提高模型对概念漂移的适应能力和泛化性能.
3)使用增量学习方法, 缓解数据块大小对基模型性能的影响, 提高基模型的稳定性.
1. 相关知识
针对数据流分类中的概念漂移问题, 目前已有很多研究成果, 常见的概念漂移方法可以分为两类, 即主动检测方法和被动适应方法. 在主动检测方法中, 通常使用概念漂移检测器监测分类器性能或窗口中数据分布的变化情况, 从而判断数据流是否处于稳定状态. 当检测指标超出设定阈值时, 则判断数据流不稳定, 模型做出相应调整以适应概念漂移. 例如Gama等[19]提出的概念漂移检测算法 (Drift detection method, DDM) 认为在稳定的数据流状态下, 随着训练数据增多, 学习模型的错误率会逐渐下降, 该方法通过检测当前总体错误率的增长情况判断概念漂移的发生. Hinder等[20]提出了动态适应窗口独立性漂移检测 (Dynamic adapting window independence drift detection, DAWIDD), DAWIDD通过滑动窗口管理数据样本, 并结合独立性测试来识别数据分布的变化, 从而检测概念漂移. Wen等[21]提出了自适应树状神经网络 (Adaptive tree-like neural network, ATNN), ATNN是一种多分支结构的自适应神经网络, 其通过概念漂移检测对网络进行调整, 确定何时添加新分支或激活旧分支, 以此适应概念漂移. 主动检测方法虽然在数据流平稳状态下效率较高, 但是在检测过程中可能会出现漏检、误检的情况, 导致模型错误更新.
与主动检测方法相比, 被动适应方法不需要进行概念漂移检测, 而是通过对模型的不断调整来适应概念漂移[22]. 集成学习是常见的被动适应方法, 根据处理策略的不同分为两类: 一类是基于数据块的集成, 另一类是基于单样本的在线集成. 基于数据块的集成方式是每次对一整块数据进行批量学习和模型更新. 例如Street等[23]提出的一种基于数据块的数据流集成分类算法 (Streaming ensemble algorithm, SEA), SEA使用最新数据块构造基模型, 并依据特定的启发性规则, 对集成模型中表现最差的基模型进行替换, 从而适应概念漂移. 该方法中新训练的基模型在整个集成中可能被旧的基模型压制, 导致无法及时适应概念漂移. 基于此, Wang等[24]提出了一种基于准确率加权集成算法 (Accuracy weighted ensemble, AWE), AWE对基模型赋予权重, 根据基模型在最新数据块上的误差率对其加权, 提升了模型适应漂移的能力. Weinberg等[25]提出了一种结合霍夫丁自适应树的集成方法 (Ensemble combined with hoeffding adaptive tree, EnHAT), EnHAT结合了霍夫丁自适应树算法与基于数据块生成的决策树集成, 实现了对概念漂移的快速适应. 通过周期性更新模型, 基于数据块的集成方式虽然能够有效应对渐变漂移, 但是不能及时应对突变漂移, 并且其性能受限于数据块的大小. 数据块较小虽能应对部分突变漂移, 但可能导致过拟合; 数据块较大虽有机会获得更好的基模型, 但可能出现一个数据块蕴涵多种概念的情况. 基于单样本的在线集成方式是每次只对一个数据进行学习和模型更新. 例如Oza等[26]提出的Oza Bagging, 该算法对最新的数据进行$ k $次抽样, 并以此模拟数据流中的数据, $ k $的取值服从参数为1的泊松分布. Kolter等[27]提出一种动态加权多数投票算法 (Dynamic weighted majority, DWM). DWM依据基模型在最新样本上的分类结果动态调整其权值, 以提高应对突变漂移的能力. Guo等[28]提出了一种基于在线集成的概念漂移自适应分类方法 (Adaptive classification method for concept drift based on online ensemble, AC_OE), AC_OE将在线集成与增量学习结合, 提高了模型的整体泛化性能. 基于单样本的在线集成方式虽然能够及时应对突变漂移, 但是由于没有周期性更新, 对渐变漂移适应能力较差.
本文结合在线集成、周期性更新策略以及概念漂移检测方法, 提出了CDAM-APIE. 该方法既利用在线集成方式更新权重, 使模型能够有效应对突变漂移, 又利用周期性更新策略提升模型对渐变漂移的适应能力. 此外, CDAM-APIE使用结合了概念漂移检测方法的增量基模型, 避免在平稳的数据流状态下持续更新基分类器造成的性能下降, 提升模型在平稳数据流状态下的鲁棒性和漂移以后的泛化性能.
2. 本文方法
本文提出一种主动-被动增量集成的概念漂移适应方法, 整体框架如图1所示. 该方法首先通过连续捕获实例将数据流转换为一系列数据块, 然后分别采用被动集成模型和主动基模型进行训练更新, 被动集成模型通过在线集成策略进行构建, 主动基模型利用概念漂移检测方法进行增量训练, 最后将模型的两部分加权结合得到当前时刻的最终模型输出预测结果.
2.1 问题定义
数据流是指随时间不断变化、样本一个接一个到来, 具有实时性、连续性、不稳定性的数据序列[29], 可以表示为: $ S = \{s_1,\;s_2,\;\cdots,\;s_t,\;\cdots\} $, 其中, $ s_t = (x_t,\;y_t) $表示$ t $时刻的样本, $ x_t $表示$ t $时刻样本的特征向量, $ y_t $表示$ t $时刻样本的标签. 概念漂移是指底层数据分布发生变化, 假设数据流中的底层数据分布用联合概率分布, 表示为$ P(x,\;y) $, 若在时刻$ t $, 数据流发生了概念漂移, 可以表示为:
$$ \begin{equation} \exists x:\quad P_{t-1}(x,\;y)\neq P_t(x,\;y) \end{equation} $$ (1) 目前, 研究人员根据变化率将概念漂移分为四种类型: 突变漂移、渐变漂移、重复漂移和增量漂移[29]. 四种类型的概念漂移如图2所示.
2.2 被动集成模型
数据流具有时序特性, 这与集成学习根据不同训练集构建基模型的机制高度契合, 且集成学习能够有效克服单一分类器在数据流挖掘中学习过多驳杂数据分布的问题. 因此, 在不同时间节点构建基模型并将其加入集成, 是数据流挖掘的一种有效方法. 在线学习方法能够实时更新模型参数, 具备良好的适应性, 通过不断对单一样本进行处理, 可以迅速适应动态变化的数据分布, 因此, 在线集成策略可以实现对概念漂移的快速响应. 此外, 增量学习可以解决由固定数据单元训练的基模型泛化性能差的问题. 因此, 本文使用在线集成策略先对单一样本进行预测, 然后根据预测结果更新基模型权重并进行增量学习, 以快速适应数据流变化.
事实上, 在线集成策略中的权值更新能及时应对突变漂移, 但是对渐变漂移不太敏感. 因此本文采用实时更新权重, 周期性更新模型的方式应对突变和渐变类型的概念漂移, 一方面, 通过实时更新基模型权重快速适应突变漂移; 另一方面, 在固定的学习单元后替换性能较差的基模型, 使集成模型对渐变漂移有较好的效果, 同时也能在一定程度上替换因增量学习而获取到驳杂概念的基模型, 保持模型的稳定性. 具体地, 假设被动集成模型为$ H_P = \{(h_1,\;w_1),\;(h_2,\;w_2),\;\cdots,\;(h_s,\;w_s)\} $, 其中, $ s $表示集成模型中最大分类器数量, $ h_i $表示第$ i $个基模型, $ w_i $表示其对应的权重, 初始情况下, 每个基模型对应权重$ w_i = 1/s $. 假设数据流为$ SD = \{D_1,\;D_2, \;\cdots, D_t,\;\cdots\} $, 固定数据单元为数据块$ D_t $, 当时刻$ t $的新样本$ x^t_j\in D_t $输入后, 使用当前的被动集成模型中所有的基模型对其预测:
$$ \begin{equation} \tilde{y_j^t} = h_i(x^t_j) \end{equation} $$ (2) 若$ \tilde{y_j^t}\ne y_j^t $, 则将该分类器的权重根据式(3)作更新, 反之基模型权重保持不变.
$$ \begin{equation} w_i = \beta\cdot w_i,\;\quad \beta\in(0,\;1) \end{equation} $$ (3) 其中, $ \beta $表示权重衰退率, 若某个基模型预测错误, 那么其权重按照一定比率下降.
在数据流中一旦发生概念漂移, 短时间内被动集成中大多数历史基模型的性能会显著下降, 导致其对应的权重急剧降低. 因此, 在所有基模型的权重更新完成后, 按照式(4)对权重进行标准化.
$$ \begin{equation} w_i = \frac{w_i}{\sum\limits_{i = 1}^sw_i} \end{equation} $$ (4) 当数据块$ D_t $中的全部样本处理完毕后, 进行基模型的替换更新. 具体来说, 在固定数据单元$ k $ = 100的数据块$ D_t $上训练构建新的基模型$ h_t $, 同时依照式(5)的选择标准, 查找在数据块$ D_t $上表现最差的基模型$ h_{\mathrm{bad}} $, 并用$ h_t $进行替换.
$$ \begin{equation} h_{\mathrm{bad}} = \arg\max\limits_{h_i\in H_P}\frac{\sum\limits_{j = 1}^k h_i(x_j^t)\neq y_j^t}{k} \end{equation} $$ (5) 由于$ h_t $基于最新数据块$ D_t $训练构建, 代表目前数据流中的最新数据分布, 所以我们赋予其最高的权重, 计算方法见式(6):
$$ \begin{equation} w_t = \arg\max\limits_{w_i\in H_P}(w_i) \end{equation} $$ (6) 被动集成模型的构建过程如图3所示.
2.3 主动基模型
在被动集成模型中, 增量学习虽可以解决由固定数据单元训练基模型引起的泛化性能差的问题, 但也导致某些基模型在概念漂移期间学习到混合分布, 影响集成性能. 此外, 当数据流处于稳定状态时, 频繁替换基模型会导致部分代表性特征缺失, 使得模型的鲁棒性和泛化性能下降.
针对以上问题, 本文构建了带有概念漂移检测方法的主动基模型. 当检测器发出警告信号时, 表示概念可能发生变化, 但还未达到漂移水平, 创建备用分类器并从当前数据位点开始学习, 同时让之前的历史模型也开始增量学习, 保证漂移发生时当前模型可以更快适应概念漂移. 当检测器发出漂移信号时, 表示此时已经达到漂移水平, 备用模型替代历史模型. 本文借鉴了DDM[19] 的思想, 假设数据是符合独立同分布的, 随着数据的输入和学习, 模型错误率不断下降. 警告阈值和漂移阈值分别如式(7)和式(8) 所示:
$$ \begin{equation} p_i+s_i\geq\min(p)+2\cdot\min(s) \end{equation} $$ (7) $$ \begin{equation} p_i+s_i\geq\min(p)+3\cdot\min(s) \end{equation} $$ (8) 其中$ p_i $为第$ i $个数据进入后的整体错误率, $ s_i $为第$ i $个数据进入后的整体标准差. $ \min(p) $和$ \min(s) $动态更新, 在$ t $时刻时, 若$ p_t+s_t $的值比当前的$ \min(p)+ \min(s) $小, 则使用$ p_t $和$ s_t $替换$ \min(p) $和$ \min(s) $; 当检测到概念漂移发生后, $ \min(p) $和$ \min(s) $重新取值. 主动基模型具体构建过程如图4所示.
2.4 CDAM-APIE
当新样本进入时, 将上述两个模型集成为当前时刻的测试模型. 对新样本进行加权投票得到预测结果:
$$ \begin{equation} H_t(x_j^t) = W_P\cdot H_P(x_j^t)+W_A\cdot H_A(x_j^t) \end{equation} $$ (9) 设置两个模型的权重为$ W_P $和$ W_A $, 初始权重设置为0.5. 具体地, 当新样本进入时, 同时使用两种模型进行预测, 当使用被动集成模型$ H_P $进行预测时:
$$ \begin{equation} H_P(x_j^t) = \sum\limits_{i = 1}^sw_i\cdot h_i(x_j^t) \end{equation} $$ (10) 若$ H_P(x_j^t)\neq y_j^t $, 将当前的被动集成模型权重按式(3)作更新, 否则不作更新. 当使用主动基模型$ H_A $预测时, 若预测错误, 也按式(3)更新权重, 否则不作更新. CDAM-APIE如算法1所示.
算法1. CDAM-APIE
输入. 数据流$ SD = \{D_1,\;D_2,\;\cdots,\;D_t,\;\cdots\} $, 主动基模型$ H_A = \{H_a,\;W_A\} $, 权重衰减系数$ \beta $, 被动集成模型$ H_P = \{(h_1,\;w_1),\;(h_2,\;w_2)\cdots,\;(h_s,\;w_s),\;W_P\} $
输出. 当前时刻的测试模型$ H_t = \{H_P,\;H_A\} $
1) While (数据流$ SD $中$ t $时刻对应的数据块$ D_t $进入) do
2) While ($ D_t $中第$ j $个样本$ x^t_j $进入) do
3) $ H_t(x_j^t) = W_P\cdot H_P(x_j^t)+W_A\cdot H_A(x_j^t) $ // 使用当前时刻的集成模型预测
4) If ($ H_A(x_j^t)\neq y_j^t $)then
5) $ W_A = \beta\cdot W_A,\;\quad \beta\in(0,\;1) $ // 更新权重
6) End if
7) If ($ H_P( x_j^t)\neq y_j^t $) then
8) $ W_p = \beta\cdot W_p,\;\quad \beta\in(0,\;1) $ // 更新权重
9) End if
10) For ($ {h_i\subseteq H_P} $) do
11) If ($ H_i(x_j^t)\neq y_j^t $) then
12) $ w_i = \beta\cdot w_i,\;\quad \beta\in(0,\;1) $ // 更新权重
13) End if
14) $ h_i\gets x_j^t $ // 基于$ x_j^t $对$ h_i $增量学习
15) End for
16) $ w_i = w_i/\sum_{i = 1}^s w_i $ // 权重标准化
17) $ H_a\gets x_j^t $ // 基于$ x_j^t $对$ H_a $增量学习
18) If (发出概念漂移警告信号且没有备用模型$ H_b $) then
19) 创建备用模型$ H_b $
20) $ H_b\gets x_j^t $ // 基于$ x_j^t $对$ H_b $增量学习
21) End if
22) If (发出概念漂移信号) then
23) 使用$ H_b $替换$ H_a $
24) End if
25) End while
26) 基于$ D_t $训练最新的基模型$ h_t $
27) If ($ H_P $中的基模型数量$ <s $) then
28) 将最新的基模型$ h_t $加入$ H_P $
29) Else 使用$ h_t $替换$ h_{bad} $, 权重设置$w_t = $ $ \arg\max \nolimits_{w_i\in H_P}(w_i) $
30) End if
31) End while
2.5 复杂度分析
CDAM-APIE的计算成本主要集中在基模型训练更新, 概念漂移检测和权重更新上.
假设在大小为$ m $的数据集上训练1个基模型的时间复杂度为$ \mathrm{O}(f(m)) $, 在被动集成模型中, 训练并更新$ s $个基模型的时间复杂度为$ \mathrm{O}(sf(m)) $. 对数据集进行分类以调整其权重的时间复杂度与数据集大小呈线性关系, 即$ \mathrm{O}(ms) $. 将数据集划分为$ m/k $个大小为$ k $的固定数据单元时, 替换基模型的时间复杂度为$ \mathrm{O}(m/k) $, 这在计算总的时间复杂度时可以忽略不计.
在主动基模型中, 概念漂移检测的时间复杂度为$ \mathrm{O}(m) $, 训练并更新模型的时间复杂度为$ \mathrm{O}(f(m)) $, 由于替换基模型需要经过概念漂移检测, 其发生的频率远小于$ \mathrm{O}(m) $, 因此可以忽略不计. 对两个模块进行加权集成的时间复杂度为$ \mathrm{O}(m) $.
综上所述, CDAM-APIE的时间复杂度为$ \mathrm{O}(sf(m)+ms+m+f(m)+m) = \mathrm{O}(sf(m)+m) $.
3. 实验结果及分析
本文在包含不同类型的概念漂移数据集上进行实验, 实验方法采用python3.9编写和运行. 对比方法选取经典的基于数据块的分类算法、基于单样本的在线集成算法以及深度学习算法, 包括准确率加权集成算法 (Accuracy weighted ensemble, AWE)[24]、Oza Bagging算法[26]、动态加权多数投票算法 (Dynamic weighted majority, DWM)[27]、在线欠装袋算法 (Online under over bagging, OOB)[30]、基于在线集成的概念漂移自适应分类方法 (Adaptive classification method for concept drift based on online ensemble, AC_OE)[28]以及自适应树状神经网络 (Adaptive tree-like neural network, ATNN)[21].
3.1 实验数据集
为了评估算法适应各种类型概念漂移的能力, 本文共使用了12个数据集, 其中10个数据集来源于文献[28], 包含了6个带有渐变、突变和增量类型概念漂移的合成数据集[28]和4个真实数据集[28], 另外, 本文还使用python3.9生成了2个具有重复漂移的合成数据集, 生成方式如下.
Sea-re[23]: 每个样本的基本结构为$ \{ f_1,\;f_2,\;f_3,\; $ $ C\} $, 其中$ \{ f_1,\;f_2,\;f_3\} $为特征, 类别$ C $仅与$ \left \{ f_1,\;f_2\right \} $两个特征相关, 当满足分类函数$ f_1+f_2<\theta $时, 类别$ C $为正类, 反之为负类. 在生成过程中, 我们首先置$ \theta = 8 $, 之后变化为$ \theta = 9 $, 周期变化2次生成重复漂移.
Sine[19]: 每个样本的基本结构为$ \{ f_1,\;f_2,\;f_3,\; f_4, $ $ C\} $, 其中$ \{ f_1,\;f_2,\;f_3,\;f_4\} $为特征, 每个特征的值均匀分布在 [0, 1] 中, 类别$ C $仅与$ \{ f_1,\;f_2\} $两个特征相关. 当满足分类函数$ f_1<\sin(f_2) $时, 类别$ C $为正类, 反之为负类. 在生成过程中, 我们首先选择分类函数$ f_1<\sin(f_2) $, 之后将分类函数反转为$ f_1> \sin(f_2) $, 周期变化2次生成重复漂移.
数据集的具体信息如表1所示.
表 1 实验所用数据集Table 1 Datasets used in experiment数据集 特征个数 类别个数 样本个数 漂移类型 漂移次数 漂移位点 Hyperplane 10 2 100k 增量 Sea 3 2 100k 渐变 3 25k,50k,75k Sea-re 3 2 100k 重复 3 25k,50k,75k LED-gradual 24 10 100k 渐变 3 25k,50k,75k LED-abrupt 24 10 100k 突变 1 50k RBFblips 20 4 100k 突变 3 25k,50k,75k Tree 30 10 100k 突变 3 25k,50k,75k Sine 4 2 100k 重复 3 25k,50k,75k KDDcup99 41 23 494k Electricity 6 2 45k Covertype 54 7 581k Weather 9 3 95k 3.2 实验参数设置
1)固定数据单元$ k $ : 选择一个合适的数据大小替换基模型是非常重要的. 数据单元过小可能会导致基模型过拟合, 对集成性能造成影响; 数据单元过大可能会导致适应渐变漂移较慢, 对适应速度有所影响. 本文实验采取数据单元$ k = 100 $.
2)权重衰退率$ \beta $ : 权重衰退率$ \beta $是影响算法集成性能的关键. 衰退率大时, 虽然在漂移发生后能够更快适应新的数据分布, 但是模型性能极其不稳定; 反之, 虽然模型相较稳定, 但是在漂移发生后无法快速适应新的数据分布. 本文实验采用的衰退率$ \beta = 0.95 $.
3)基模型: AC_OE方法沿用参考文献[28]中的参数和LIBSVM, 其余所有集成方法均使用Hoffding树, 基模型数量$ s $设置为10.
3.3 评价指标
为验证所提CDAM-APIE的合理性, 本文从精度, 恢复速率和鲁棒性方面对算法进行了分析, 具体指标如下.
1)平均实时精度$ Avgracc $(Average real-time accuracy)[28] 表示模型在每个时间步数下实时精度的均值, 定义如下:
$$ \begin{equation} Avgracc = \frac{1}{T}\sum_{t = 1}^Tracc_t \end{equation} $$ (11) 其中$ T $表示总的时间步数, $ racc_t $表示模型在时间步数$ t $下的实时精度, 公式如下:
$$ \begin{equation} racc_t = \frac{n_t}{n} \end{equation} $$ (12) 其中$ n_t $表示在时间步数$ t $下分类正确的样本数量, $ n $表示在一个时间步数内处理的样本总数, $ Avgracc $数值越大表明模型的实时性能越好.
2)累积精度$ Cumacc $(Cumulative accuracy)[28] 反映了模型从开始时刻到当前时刻的性能, 定义如下:
$$ \begin{equation} Cumacc = \frac{1}{T_t\cdot n}\sum\limits_{t = 1}^T{n_t} \end{equation} $$ (13) 其中$ T_t $表示当前的累积步数. $ Cumacc $数值越大表明模型的整体性能越好.
3)恢复速率$ RSA $(Recovery speed under accuracy)[28] 是评价模型在数据流发生概念漂移后实时精度稳定到新概念所需的步数, 定义如下:
$$ \begin{equation} RSA = Step\cdot(1-racc_t) \end{equation} $$ (14) 其中$ Step $表示模型从漂移点到收敛点所需要的时间步数, $ racc_t $表示收敛点后一个时间节点的实时精度. 本文根据数据集漂移位点后的实时精度变化确定当前时间节点是否为收敛点, 若当前时间节点以及后一个时间节点的精度变化均小于阈值, 则判断其为收敛点, 定义如式(15)所示:
$$ \begin{split} &|racc_t-racc_{t-1}|\leq Threshold\&\\ &|racc_{t+1}-racc_t|\leq Threshold \end{split} $$ (15) 由于模型在不同数据集上的波动不同, 阈值设置为各数据集在收敛期间实时精度变化的均值加上其三倍标准差, 如式(16)所示:
$$ \begin{equation} Threshold = \frac{1}{T}\sum_{t = 1}^T(racc_{t+1}-racc_t)+3\sigma \end{equation} $$ (16) $ RSA $数值越小表明模型的恢复速率越快.
4)鲁棒性$ R $(Robustness)[30] 是评价模型稳定性能的重要指标, 能够在一定程度上评价模型的泛化性能, 通过平均实时精度分析不同算法的鲁棒性, $ A $算法在数据集$ D $上的鲁棒性定义如下:
$$ \begin{equation} R_A(D) = \frac{Avgracc_A(D)}{\min Avgracc_\alpha(D)} \end{equation} $$ (17) 其中$ Avgracc_A(D) $表示$ A $算法在数据集$ D $上的平均实时精度, $ \min Avgracc_\alpha(D) $表示在数据集$ D $上所有算法中的最小平均实时精度. $ A $算法的整体鲁棒性为$ A $算法在所有数据集上的鲁棒性之和, 假设有$ N $个数据集, 具体定义如下:
$$ \begin{equation} R_A = \sum\limits_{i = 1}^NR_A(D_i) \end{equation} $$ (18) $ R_A $数值越大表明$ A $算法的整体鲁棒性越好.
3.4 实验结果及分析
为有效评估CDAM-APIE的分类效果、概念漂移发生后适应漂移的能力以及模型的稳定性, 从模型精度、恢复速率、鲁棒性、消融效果以及参数敏感性方面进行了实验分析.
3.4.1 模型精度评估
不同方法在每个数据集上的平均实时精度和平均排名如表2所示. 从表中可以看出, CDAM-APIE的准确率最高, 平均排名第1, ATNN、Oza Bagging和DWM紧随其后, OOB、AWE和AC_OE比较接近. CDAM-APIE充分发挥了被动集成模型和主动基模型的作用, 在平稳的数据流环境下保持较高精度, 在数据流发生概念漂移后能够有效学习最新数据分布, 提高模型的整体性能. CDAM-APIE在大多数数据集上的表现都优于其他方法, 与平均排名次优的方法相比, 平均实时精度在12个数据集上平均高出1.3%. 在RBFblips数据集上CDAM-APIE与AC_OE和ATNN方法相差较大, 因为该数据集由随机径向基函数生成, 在LIBSVM上适配性较高. 由于Covertype数据集数据分布倾斜且波动较小, 在该数据集上CDAM-APIE略差于Oza Bagging. 此外, ATNN以神经网络强大的表示能力在RBFblips、Electricity、Covertype、Sine数据集上强于传统集成学习方法. 实验结果表明CDAM-APIE可以有效适应不同类型的概念漂移, 但是对于数据分布倾斜的数据集, 分类性能仍需提升, 这主要是由于被动方法比较容易替换掉泛化性能较好的基模型, 从而影响模型性能.
表 2 不同方法在各数据集上的平均实时精度Table 2 Average real-time accuracy on different methods on every dataset数据集 AWE Oza Bagging DWM OOB AC_OE ATNN CDAM-APIE(本文) Hyperplane 0.8882 (4)0.8758 (5)0.9029 (2)0.8223 (6)0.8966 (3)0.8195 (7)0.9088 (1)Sea 0.8335 (3)0.8159 (4)0.8410 (2)0.7754 (7)0.8027 (5)0.7871 (6)0.8432 (1)Sea-re 0.8564 (4)0.8596 (2)0.8581 (3)0.8030 (7)0.8055 (6)0.8166 (5)0.8605 (1)LED-gradual 0.6055 (4)0.5979 (5)0.5022 (7)0.6163 (3)0.5054 (6)0.6282 (2)0.6330 (1)LED-abrupt 0.5944 (5)0.6075 (3)0.4918 (7)0.5948 (4)0.5178 (6)0.6147 (2)0.6240 (1)RBFblips 0.8208 (5)0.8852 (3)0.7861 (6)0.7811 (7)0.9316 (2)0.9855 (1)0.8309 (4)Tree 0.3630 (7)0.4982 (6)0.6449 (3)0.6938 (2)0.5480 (5)0.6300 (4)0.8072 (1)Sine 0.9331 (4)0.7489 (7)0.9363 (3)0.8595 (6)0.9155 (5)0.9381 (1)0.9374 (2)KDDcup99 0.9796 (4)0.9920 (2)0.9793 (5)0.9913 (3)0.9446 (7)0.9589 (6)0.9926 (1)Electricity 0.7678 (7)0.7928 (5)0.8153 (3)0.8110 (4)0.7919 (6)0.8912 (1)0.8300 (2)Covertype 0.2288 (7)0.8735 (2)0.8135 (4)0.8052 (5)0.7813 (6)0.9362 (1)0.8400 (3)Weather 0.8893 (7)0.9952 (2)0.9941 (3)0.9862 (4)0.9069 (6)0. 9616 (5)0.9956 (1)平均排名 5.1 3.8 4.0 4.8 5.3 3.4 1.6 不同方法在各数据集上的累积精度如图5所示. 从图中能够看到, CDAM-APIE在Hyperplane、Sea、Weather数据集上略优于其他方法, 在LED-gradual、LED-abrupt、Tree数据集上优势显著, 在RBFblips、Covertype、Electricity数据集上较Oza bagging、AC_OE、ATNN方法略差. 总体来说, 本文提出的CDAM-APIE在所有数据集上表现较好.
不同方法在各数据集上的实时精度如图6所示. 在大部分数据集上, CDAM-APIE的实时精度比其他方法的精度更高且更稳定. 在RBFblips、Electricity、Covertype、Sine数据集上, ATNN在大多数时间都高于CDAM-APIE和其他集成方法, 这得益于神经网络的强大表示能力和多分支结构的动态调整. 当发生概念漂移后, 所有方法的实时精度均明显下降, 但CDAM-APIE在大多数时候比其他方法更稳定, 精度下降幅度更小, 适应新概念更快.
实验结果表明, CDAM-APIE在数据流平稳状态下能够保持较高的精度, 在概念漂移发生之后能及时捕捉新数据分布, 精度下降幅度较小, 其采用的增量学习和实时模型权重更新能够快速适应概念漂移, 并保证方法的稳定性.
在性能分析中, 本文使用了非参数检验方法Friedman-test[32] 和Bonferroni-Dunn测试[33]对所提方法与对比方法进行统计分析以验证其差异.
Friedman-Test可以对上述方法的性能优劣进行统计检验. 针对特定的$ K(7) $种方法和$ N(12) $个数据集, 令$ r_i^j $为第$ j $个方法在第$ i $个数据集上的秩, 则第$ j $个算法的秩和平均为:
$$ \begin{equation} {R_j} = \frac{1}{N}\sum\limits_{i = 1}^N {r_i^j} \end{equation} $$ (19) 零假设$ H_0 $假定所有方法的性能相同. 在此前提下, 当$ K $和$ N $足够大时, Friedman统计值$ \tau _F $服从第一自由度$ K-1 $, 第二自由度$ (K-1)(N-1) $的$ F $分布为:
$$ \begin{split}&{\tau _F} = \frac{{(N-1){\tau _{{X^2}}}}}{{N(K-1)-{\tau _{{X^2}}}}}where\\ &{\tau _{{X^2}}} = \frac{{12N}}{{K(K+1)}}\left[\sum\limits_{j = 1}^K {R_j^2-\frac{{K{{(K+1)}^2}}}{4}}\right] \end{split} $$ (20) 若计算得到的统计值超过了特定显著水平$ (\alpha) $下$ F $分布的临界值, 则拒绝零假设$ H_0 $, 表示各方法的秩和存在明显差异, 即不同方法性能具有显著差异. 反之, 接受零假设$ H_0 $, 所有方法的性能无明显差异.
对上述不同方法的平均实时精度进行统计检验, 计算得Friedman统计值$ \tau _F = 6.6210 $, 在显著水平$ \alpha = 0.05 $的情况下, $ F $分布临界值为$ \tau _F^{0.05} = 2.239 $, 因此拒绝零假设$ H_0 $, 表明所有方法性能存在显著差异.
Bonferroni-Dunn测试用于比较多个方法之间的显著性差异. 如果2种方法的秩和平均差值超过了临界差值$ (CD) $, 就认为它们的性能存在显著差异:
$$ \begin{equation} CD = {q_\alpha}\sqrt{\frac{{K(K + 1)}}{{6N}}} \end{equation} $$ (21) 通过计算, 在显著性水平$ \alpha = 0.05 $的情况下, $ CD = 2.3265 $. 不同方法在平均实时精度上的统计分析结果如图7所示. 结果表明, CDAM-APIE明显优于ATNN、Oza Bagging、DWM、OOB、AC_OE和AWE.
3.4.2 模型适应性评估
当数据流发生概念漂移之后, 模型能否迅速调整以适应新的概念是衡量算法的一个重要指标. 表3为不同方法在目前已知概念漂移位点的5个合成数据集上进行的模型适应性分析, 其中LED-gradual, RBFblips, Sea, Tree数据集有25k, 50k, 75k三个漂移位点, LED-abrupt数据集只有50k一个漂移位点. 从表中可以看出, CDAM-APIE总体表现最好, 在多数情况下恢复速率较好, 除了在LED-gradual数据集 (25k, 75k)、RBFblips数据集 (25k, 50k, 75k)、LED-abrupt数据集 (50k) 的恢复速率略低于其他方法之外, 其他位点上的恢复速率均优于其他方法. 由于CDAM-APIE通过实时处理最新样本更新基模型, 使模型能够快速适应新的数据分布, 但是在处理一些波化较大或较小的数据集时, 概念漂移检测技术可能会遇到误检或漏检的问题, 影响主动基模型的替换, 从而导致适应较慢.
表 3 不同方法的恢复速率Table 3 Recovery speed under accuracy of different methods漂移位点 数据集 AWE Oza Bagging DWM OOB AC_OE ATNN CDAM-APIE(本文) 25k Sea 0.48 0.52 0.46 0.53 0.76 0.56 0.46 LED-gradual 1.15 1.20 0.72 1.09 1.33 1.12 1.16 RBFblips 0.29 0.38 0.28 0.37 0.17 0.07 0.15 Tree 3.60 1.77 1.39 0.89 1.29 1.33 0.58 平均排名 4.8 5.8 2.8 3.8 5.0 3.5 2.3 50k Sea 0.20 0.53 0.19 1.17 0.45 0.36 0.17 LED-gradual 0.58 0.57 0.63 0.58 0.61 0.54 0.53 LED-abrupt 1.63 1.36 1.35 1.36 1.28 1.66 1.47 RBFblips 0.86 0.36 1.26 1.17 0.52 0.04 0.87 Tree 0.89 1.55 1.60 1.16 1.44 1.56 0.89 平均排名 3.6 3.8 5.0 4.6 3.8 4.0 2.6 75k Sea 0.52 0.44 0.33 0.61 0.47 0.20 0.33 LED-gradual 1.09 0.44 0.51 1.06 1.23 0.99 0.47 RBFblips 0.11 0.13 0.24 0.19 0.07 0.02 0.08 Tree 2.20 1.74 1.04 2.62 1.44 1.18 0.76 平均排名 5.5 3.8 3.5 6.3 4.5 2.3 2.0 3.4.3 模型鲁棒性评估
鲁棒性是评价算法稳定性的关键指标. 图8展示了7种方法在12个数据集上的鲁棒性, 每一列表示一种方法的整体鲁棒性, 其中不同颜色的堆叠块代表该方法在不同数据集上的鲁棒性. 由图8可以看到, CDAM-APIE在大多数数据集上的鲁棒性优于其他6种方法, 且整体鲁棒性最高, 总值为17.06.
为进一步说明方法的稳定性和适用性, 图9显示了不同方法的平均排名与标准差. 从图中可以看到, CDAM-APIE不仅平均排名第一, 且标准差最小, 稳定性较高. 实验结果表明, CDAM-APIE有较好的鲁棒性.
3.4.4 消融效果评估
本文在被动集成模型的基础上加入了带有概念漂移检测的主动基模型. 为了证明其有效性, 分别采用基模型, 被动集成模型、主动基模型和CDAM-APIE进行分析. 表4展示了不同数据集下各方法的平均实时精度. 从表中可以看出CDAM-APIE在除RBFblips以外的11个数据集上性能表现最佳. 在RBFblips数据集上基模型效果最好可能是因为其漂移前存在关键性样本无法在漂移后被保留. 实验结果充分表明CDAM-APIE将被动方法与主动方法结合的有效性以及合理性.
表 4 消融效果分析Table 4 Analysis of ablation effect数据集 基模型 被动集成模型 主动基模型 CDAM-APIE Hyperplane 0.8603 0.8904 0.8716 0.9088 Sea 0.8118 0.8315 0.8333 0.8432 Sea-re 0.8554 0.8505 0.8517 0.8605 LED-gradual 0.5859 0.6266 0.6217 0.6330 LED-abrupt 0.6057 0.6154 0.6197 0.6240 RBFblips 0.8430 0.7825 0.8097 0.8309 Tree 0.4902 0.7873 0.7917 0.8072 Sine 0.6562 0.8941 0.9372 0.9374 KDDcup99 0.9904 0.9786 0.9922 0.9926 Electricity 0.7828 0.8117 0.8092 0.8300 Covertype 0.8247 0.8178 0.8246 0.8400 Weather 0.9953 0.9771 0.9929 0.9956 3.4.5 参数敏感性评估
本节对CDAM-APIE在不同固定数据单元$ k $和权重衰退率下$ \beta $的平均实时精度进行了分析. 表5展示了CDAM-APIE在不同参数下的平均实时精度. 结果显示, 在不同的固定数据单元$ k $下, CDAM-APIE在大多数数据集上的性能差异并不显著. 这是由于CDAM-APIE采用增量学习方法, 有效减轻了不同固定数据单元对模型性能的影响.
表 5 CDAM-APIE在不同参数下的平均实时精度Table 5 Average real-time accuracy of CDAM-APIE under different parameters固定数据单元$k$ $50$ $100$ $150$ 权重衰退率$\beta$ 0.80 0.85 0.90 0.95 0.80 0.85 0.90 0.95 0.80 0.85 0.90 0.95 Hyperplane 0.9005 0.9020 0.9046 0.9076 0.9050 0.9062 0.9076 0.9088 0.9087 0.9099 0.9106 0.9113 Sea 0.8388 0.8400 0.8413 0.8420 0.8417 0.8423 0.8430 0.8432 0.8431 0.8432 0.8431 0.8427 Sea-re 0.8573 0.8584 0.8591 0.8600 0.8596 0.8599 0.8603 0.8605 0.8604 0.8607 0.8609 0.8606 LED-gradual 0.6309 0.6313 0.6317 0.6320 0.6314 0.6319 0.6328 0.6330 0.6348 0.6353 0.6358 0.6362 LED-abrupt 0.6220 0.6223 0.6230 0.6234 0.6229 0.6233 0.6237 0.6240 0.6228 0.6235 0.6241 0.6243 RBFblips 0.8366 0.8369 0.8378 0.8368 0.8308 0.8314 0.8312 0.8309 0.8503 0.8503 0.8505 0.8500 Tree 0.8073 0.8079 0.8086 0.8089 0.8066 0.8068 0.8071 0.8072 0.7960 0.7961 0.7963 0.7970 Sine 0.9372 0.9372 0.9372 0.9372 0.9371 0.9373 0.9371 0.9374 0.9378 0.9379 0.9381 0.9381 KDDcup99 0.9922 0.9922 0.9922 0.9922 0.9922 0.9922 0.9924 0.9926 0.9931 0.9931 0.9931 0.9932 Electricity 0.8548 0.8515 0.8482 0.8416 0.8401 0.8385 0.8358 0.8300 0.8205 0.8205 0.8207 0.8204 Covertype 0.8569 0.8543 0.8510 0.8460 0.8455 0.8444 0.8426 0.8400 0.8451 0.8448 0.8441 0.8415 Weather 0.9946 0.9945 0.9947 0.9956 0.9956 0.9957 0.9956 0.9956 0.9951 0.9952 0.9952 0.9953 总体标准差 $0.1210$ 0.1208 $0.1210$ 通过对$ k $的总体标准差分析发现, 随着$ k $值的增加, 平均实时精度的总体标准差呈现出先升后降的趋势. 当$ k $取值较小时, 模型可能在某些数据集上表现较好, 但未能很好地泛化到所有数据集上. 当$ k $取值较大时, 模型在大多数数据集上表现最好, 但在某些数据集上表现欠佳. 当$ k = 100 $时, 尽管精度略有下降, 但总体标准差较小, 表明模型更加稳定可靠. 另外, 现有方法常采用的固定数据单元一般为$ k = 100 $, 为了模型稳定性和便于比较, 故本文选择固定数据单元$ k = 100 $.
从表5可以看出, 随着$ \beta $的增加出现了两种情况, 精度先升后降或持续上升. 这是由于$ \beta $决定了模型权重的变化速度. 较小的$ \beta $使得权重变化过快, 导致暂时效果不佳的基模型难以在后续过程中发挥作用. 而$ \beta $较高时, 权重变化速度减慢, 使得模型无法及时响应概念漂移. 在相同$ k $下的大多数数据集中, $ \beta = 0.95 $时的平均实时精度最好, 因此, 本文选择了权重衰退率$ \beta = 0.95 $.
4. 结论
现有方法通常只能对某种特定类型的概念漂移做出有效应对, 且无法及时响应数据流, 为此本文提出CDAM-APIE方法. 该方法首先结合了基于块和单样本集成方法的优势, 能够更好地适应不同类型的概念漂移. 其次将被动和主动方法进行动态加权结合, 提高了模型的泛化性能和适应能力. 此外, 增量学习用于缓解数据块大小对基模型性能的影响, 提高模型的鲁棒性. 实验结果表明, CDAM-APIE通过动态加权的方式调节两个模块, 充分利用两个模块在不同数据集上的优势, 使模型在平稳状态下保持较高性能并在数据流发生概念漂移后也能快速适应新的数据分布, 对多种类型的概念漂移都具有较好的效果. 然而, 数据流中通常还伴随着数据不平衡等问题, 我们计划在未来对含有概念漂移的非平衡数据流做一些尝试.
-
-
[1] Zhou B, Lin Z. Consensus of high-order multi-agent systems with large input and communication delays. Automatica, 2014, 50: 452-464 doi: 10.1016/j.automatica.2013.12.006 [2] 陈世明, 邵赛, 姜根兰. 基于事件触发二阶多智能体系统的固定时间比例一致性. 自动化学报, 2022, 48(1): 261-270Chen Shi-Ming, Shao Sai, Jiang Gen-Lan. Distributed event-triggered fixed-time scaled consensus control for second-order multi-agent systems. Acta Automatica Sinica, 2022, 48(1): 261-270 [3] Zhou B. Consensus of delayed multi-agent systems by reduced-order observer-based truncated predictor feedback protocols. IET Control Theory & Applications, 2014, 8(16): 1741-1751 [4] 王龙, 田野, 杜金铭. 社会网络上的观念动力学. 中国科学: 信息科学, 2018, 48(1): 3-23 doi: 10.1360/N112017-00096Wang Long, Tian Ye, Du Jin-Ming. Opinion dynamics in social networks. Scientia Sinica: Informationis, 2018, 48(1): 3-23 doi: 10.1360/N112017-00096 [5] Ghaderi J, Srikant R. Opinion dynamics in social networks with stubborn agents: Equilibrium and convergence rate. Automatica, 2014, 50(12): 3209-3215 doi: 10.1016/j.automatica.2014.10.034 [6] Xia W, Ye M, Liu J, Cao M, Sun X M. Analysis of a nonlinear opinion dynamics model with biased assimilation. Automatica, 2020, 120: 109113 doi: 10.1016/j.automatica.2020.109113 [7] Liu C, Wu X, Niu R, Aziz-Alaoui M A, Lü J. Opinion diffusion in two-layer interconnected networks. IEEE Transactions on Circuits and Systems I: Regular Papers, 2021, 68(9): 3772-3783 doi: 10.1109/TCSI.2021.3093537 [8] Ye M, Qin Y, Govaert A, Anderson B D, Cao M. An influence network model to study discrepancies in expressed and private opinions. Automatica, 2019, 107: 371-381 doi: 10.1016/j.automatica.2019.05.059 [9] 刘青松, 李明鹏, 柴利. 具有遗忘群体的社会网络多维观点动力学分析与应用. 自动化学报, 2022, DOI: 10.16383/j.aas.c210091Liu Qing-Song, Li Ming-Peng, Chai Li, Analysis and application of multidimensional opinion dynamics on social networks with oblivion individuals. Acta Automatica Sinica, 2022, DOI: 10.16383/j.aas.c210091 [10] Hou J, Li W, Jiang M. Opinion dynamics in modified expressed and private model with bounded confidence. Physica A: Statistical Mechanics and its Applications, 2021, 574: 125968 doi: 10.1016/j.physa.2021.125968 [11] 郑维, 张志明, 刘和鑫, 张明泉, 孙富春. 基于线性变换的领导-跟随多智能体系统动态反馈均方一致性控制. 自动化学报, 2021, DOI: 10.16383/j.aas.c200850Zheng Wei, Zhang Zhi-Ming, Liu He-Xin, Zhang Ming-Quan, Sun Fu-Chun. Dynamic feedback mean square consensus control based on linear transformation for leader-follower multi-agent systems. Acta Automatica Sinica, 2021, DOI: 10.16383/j.aas.c200850 [12] Yi J W, Chai L, Zhang J. Average consensus by graph filtering: new approach, explicit convergence rate, and optimal design. IEEE Transactions on Automatic Control, 2020, 65(1): 191-206 doi: 10.1109/TAC.2019.2907410 [13] Liu Q, Zhou B. Consensus of discrete-time multiagent systems with state, input, and communication delays. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2020, 50(11): 4425-4437 doi: 10.1109/TSMC.2018.2852944 [14] Liu Q. Pseudo-predictor feedback control for multiagent systems with both state and input delays. IEEE/CAA Journal of Automatica Sinica, 2021, 8(11): 1827-1836 doi: 10.1109/JAS.2021.1004180 [15] French Jr J R. A formal theory of social power. Psychological Review, 1956, 63(3): 181-194 doi: 10.1037/h0046123 [16] DeGroot M H. Reaching a consensus. Journal of the American Statistical Association, 1974, 69(345): 118-121 doi: 10.1080/01621459.1974.10480137 [17] Friedkin N, Johnsen E. Social influence networks and opinion change. Advances Group Processes, 1999, 16: 1-29 [18] Parsegov S E, Proskurnikov A V, Tempo R, Friedkin N E. Novel multidimensional models of opinion dynamics in social networks. IEEE Transactions on Automatic Control, 2017, 62(5): 2270-2285 doi: 10.1109/TAC.2016.2613905 [19] Tian Y, Wang L. Opinion dynamics in social networks with stubborn agents: An issue-based perspective. Automatica, 2018, 96: 213-223 doi: 10.1016/j.automatica.2018.06.041 [20] Deffuant G, Neau D, Amblard F, Weisbuch G. Mixing beliefs among interacting agents. Advances in Complex Systems, 2000, 3: 87-98 doi: 10.1142/S0219525900000078 [21] Zhang J, Hong Y. Opinion evolution analysis for short-range and long-range Deffuant–Weisbuch models. Physica A: Statistical Mechanics and its Applications, 2013, 392(21): 5289-5297 doi: 10.1016/j.physa.2013.07.014 [22] Dong Y, Ding Z, Martínez L, Herrera F. Managing consensus based on leadership in opinion dynamics. Information Sciences, 2017, 397: 187-205 [23] Mei W, Friedkin N E, Lewis K, Bullo F. Dynamic models of appraisal networks explaining collective learning. IEEE Transactions on Automatic Control, 2018, 63(9): 2898-2912 doi: 10.1109/TAC.2017.2775963 [24] Hegselmann R, Krause U. Opinion dynamics and bounded confidence models, analysis, and simulation. Journal of Artificial Societies and Social Simulation, 2002, 5(3): 1-33 [25] Bullo F, Cortes J, Martinez S. Distributed Control of Robotic Networks. Princeton: Princeton University Press, 2009. [26] Cody W F. Authoritative effect of FDA regulations. The Business Lawyer, 1969, 24: 479-491 [27] Chen Z, Lan H. Dynamics of public opinion: Diverse media and audiences’ choices. Journal of Artificial Societies and Social Simulation, 2021, 24(2): 1-21 doi: 10.18564/jasss.4518 [28] Canuto C, Fagnani F, Tilli P. An Eulerian approach to the analysis of Krause's consensus models. SIAM Journal on Control and Optimization, 2012, 50(1): 243-265 doi: 10.1137/100793177 [29] Su W, Chen G, Hong Y. Noise leads to quasi-consensus of Hegselmann–Krause opinion dynamics. Automatica, 2017, 85: 448-454 doi: 10.1016/j.automatica.2017.08.008 [30] Yang Y, Dimarogonas D V, Hu X. Opinion consensus of modified Hegselmann–Krause models. Automatica, 2014, 50(2): 622-627 doi: 10.1016/j.automatica.2013.11.031 [31] Haskovec J. A simple proof of asymptotic consensus in the Hegselmann-Krause and Cucker-Smale models with normalization and delay. SIAM Journal on Applied Dynamical Systems, 2021, 20(1): 130-148 doi: 10.1137/20M1341350 [32] Vasca F, Bernardo C, Iervolino R. Practical consensus in bounded confidence opinion dynamics. Automatica, 2021, 129: 109683 doi: 10.1016/j.automatica.2021.109683 [33] Gerrig R J. Psychology and Life (20th Edition). New York: Pearson, 2013. [34] Mei W, Bullo F, Chen G, Hendrickx J, Dörfler F. Rethinking the micro-foundation of opinion dynamics: Rich consequences of the weighted-median mechanism [Online], available: https://arxiv.org//abs/1909.06474, January 26, 2022 [35] Swingle P G, Santi A. Communication in non-zero-sum games. Journal of Personality and Social Psychology, 1972, 23 (1), 54-63 doi: 10.1037/h0032878 [36] Lorenz J. A stabilization theorem for dynamics of continuous opinions. Physica A: Statistical Mechanics and its Applications, 2005, 355(1): 217-223 doi: 10.1016/j.physa.2005.02.086 [37] Morarescu I C, Girard A. Opinion dynamics with decaying confidence: Application to community detection in graphs. IEEE Transactions on Automatic Control, 2011, 56(8): 1862-1873 doi: 10.1109/TAC.2010.2095315 -