2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于生成对抗网络的多视图学习与重构算法

孙亮 韩毓璇 康文婧 葛宏伟

杜洪越, 孙琬双, 胡革, 齐丽华. 两个分数阶复杂动态网络的函数投影同步. 自动化学报, 2016, 42(2): 226-234. doi: 10.16383/j.aas.2016.c150269
引用本文: 孙亮, 韩毓璇, 康文婧, 葛宏伟. 基于生成对抗网络的多视图学习与重构算法. 自动化学报, 2018, 44(5): 819-828. doi: 10.16383/j.aas.2018.c170496
DU Hong-Yue, SUN Wan-Shuang, HU Ge, QI Li-Hua. Function Projective Synchronization of Two Fractional-order Complex Dynamical Networks. ACTA AUTOMATICA SINICA, 2016, 42(2): 226-234. doi: 10.16383/j.aas.2016.c150269
Citation: SUN Liang, HAN Yu-Xuan, KANG Wen-Jing, GE Hong-Wei. Multi-view Learning and Reconstruction Algorithms via Generative Adversarial Networks. ACTA AUTOMATICA SINICA, 2018, 44(5): 819-828. doi: 10.16383/j.aas.2018.c170496

基于生成对抗网络的多视图学习与重构算法

doi: 10.16383/j.aas.2018.c170496
基金项目: 

国家自然科学基金 61572104

国家自然科学基金 61103146

国家自然科学基金 61402076

中央高校基本科研业务项目 DUT17JC04

吉林大学符号计算与知识工程教育部重点实验室项目 93K172017K03

详细信息
    作者简介:

    孙亮  大连理工大学计算机科学与技术学院讲师.2012年获得吉林大学计算机应用技术博士学位和高知工科大学信息科学博士学位.主要研究方向为机器学习, 计算智能, 群智计算理论与应用.E-mail:liangsun@dlut.edu.cn

    韩毓璇  大连理工大学计算机科学与技术学院硕士研究生.主要研究方向为智能计算与机器学习方法.E-mail:yuxuanhan@mail.dlut.edu.cn

    康文婧  大连理工大学计算机科学与技术学院硕士研究生.主要研究方向为智能计算与机器学习方法.E-mail:wjkang@mail.dlut.edu.cn

    通讯作者:

    葛宏伟  大连理工大学计算机科学与技术学院副教授.2006年获得吉林大学计算机应用技术博士学位.主要研究方向为计算智能, 机器学习, 系统建模与优化.本文通信作者.E-mail:hwge@dlut.edu.cn

Multi-view Learning and Reconstruction Algorithms via Generative Adversarial Networks

Funds: 

National Natural Science Foundation of China 61572104

National Natural Science Foundation of China 61103146

National Natural Science Foundation of China 61402076

Fundamental Research Funds for Central Universities DUT17JC04

Project of Key Laboratory of Symbolic Computation and Knowledge Engineering of Jilin University 93K172017K03

More Information
    Author Bio:

     Lecturer at the College of Computer Science and Technology, Dalian University of Technology. He received his Ph. D. degree in computer application technology and information science from Jilin University and Kochi University of Technology in 2012. His research interest covers machine learning, computational intelligence, theory and application of swarm based intelligent computing

     Master student at the College of Computer Science and Technology, Dalian University of Technology. Her research interest covers computational intelligence and machine learning methods

     Master student at the College of Computer Science and Technology, Dalian University of Technology. Her research interest covers computational intelligence and machine learning methods

    Corresponding author: GE Hong-Wei  Associate professor at the College of Computer Science and Technology, Dalian University of Technology. He received his Ph. D. degree in computer application technology from Jilin University in 2006. His research interest covers computational intelligence, machine learning, system modeling and optimization. Corresponding author of this paper
  • 摘要: 同一事物通常需要从不同角度进行表达.然而,现实应用经常引出复杂的场景,导致完整视图数据很难获得.因此研究如何构建事物的完整视图具有重要意义.本文提出一种基于生成对抗网络(Generative adversarial networks,GAN)的多视图学习与重构算法,利用已知单一视图,通过生成式方法构建其他视图.为构建多视图通用的表征,提出新型表征学习算法,使得同一实例的任意视图都能映射至相同的表征向量,并保证其包含实例的重构信息.为构建给定事物的多种视图,提出基于生成对抗网络的重构算法,在生成模型中加入表征信息,保证了生成视图数据与源视图相匹配.所提出的算法的优势在于避免了不同视图间的直接映射,解决了训练数据视图不完整问题,以及构造视图与已知视图正确对应问题.在手写体数字数据集MNIST,街景数字数据集SVHN和人脸数据集CelebA上的模拟实验结果表明,所提出的算法具有很好的重构性能.
  • 复杂网络广泛存在于各种自然现象中, 如万维网、生态网、神经网络、电力网络、城市交通网、社会关系网络等[1], 并且许多实际问题都可以抽象为复杂网络模型进行研究, 如博弈、疾病传播[2-4]等.因此, 复杂网络是一个多学科交叉的热点研究领域, 并在Watts等[5]发现复杂网络的小世界特征及Barabási等[6]发现复杂网络的无标度特征后, 引起学者们的广泛关注[7-8].

    复杂网络同步是复杂网络动力学行为中最普遍的现象之一, 其指网络中所有节点的状态按照某种方式趋于一致.如完全同步是指所有的网络节点都趋近于相同的状态; 相位同步是指所有网络节点的相位都会被锁定, 但它们的幅值可能彼此之间相差悬殊[1].网络同步机制能解释很多自然现象, 如在Internet和WWW上信息的同步交换、通信网络中的数字或模拟信号的同步交换等, 所以复杂网络同步问题是复杂网络研究的热点之一.目前, 许多学者在复杂网络同步这一领域取得了大量的研究成果.Pecora等[9]基于线性耦合的网络研究了网络系统同步的稳定性问题, 并获得了主稳定函数判据.Wang等[10]将牵制控制策略应用到无标度网络控制.Lv等[11]研究了一类具有时变时滞的复杂网络同步问题.文献[12]研究了时延复杂网络的自适应周期间歇同步控制问题.文献[13]研究了复杂网络同步态与孤立节点解的关系.文献[14]针对节点扩张的时滞复杂网络系统, 在节点扩张的条件下, 研究该类系统的同步保性能控制问题.文献[15]对具有相似节点的耦合时滞复杂网络的稳定性与同步控制进行了分析.文献[16]研究了具有不同维数非线性节点的非线性耦合复杂动态网络的同步方法.

    目前, 大多数关于复杂网络同步的理论结果主要集中在复杂网络各结点的动力学行为恒同的完全同步上.考虑到网络信息安全是现代信息化社会的一个难题, 而利用函数投影同步进行保密通信可进一步增加信息的安全性, 因此在复杂网络中研究函数投影同步理论具有重要的理论意义和实际应用价值.函数投影同步是指驱动系统和响应系统的状态按一个给定的尺度函数达到同步.由于函数投影同步在同步的混沌系统中引入了尺度函数, 其使同步后的混沌系统的复杂程度及混沌程度增加, 根据密码学原理, 复杂度越大, 系统越难破译, 因此利用函数投影同步进行保密通信可进一步增加信息的安全性, 因此该种同步的研究具有重要的理论意义和实际应用价值.文献[17]给出函数投影同步的定义, 并分别针对混沌Lü系统和超混沌Lü系统的耦合系统, 采用反步法给出达到函数投影同步的控制器设计方法.文献[18]基于自适应控制的方法, 针对一类模型参数未知的混沌系统, 给出了实现函数投影同步的控制器设计方法及未知参数的估计方法. Lee等[19]研究了Chen-Lee混沌系统实现广义函数投影同步的方法, 并用实际电路模拟了该系统.文献[20]基于鲁棒控制法研究了带有不确定参数的混沌系统的函数投影同步问题.文献[21]研究分数阶混沌系统的函数投影同步问题.文献[22]研究改进函数投影同步问题.

    复杂网络中的函数投影同步问题首先被Zhang等[23]研究, 其在部分线性化的驱动-响应动态网络中实现了函数投影同步.文献[24]研究具有不同混沌节点的复杂网络函数投影同步问题, 并提出一种新的复杂网络同步方法即自适应开环加闭环控制方法, 与传统的开环加闭环控制法相比, 新方法不需要去计算Jacobian矩阵及选择Hurwitz矩阵, 且其闭环控制部分的反馈增益可自适应调整到一个合适的常数.文献[25]利用鲁棒控制法研究驱动-响应动态网络中的改进函数投影同步问题.文献[26]研究具有不同混沌节点的驱动-响应动态网络改进函数投影同步的实现方法.文献[27]研究两个复杂网络间的广义函数投影同步问题.文献[28]研究带有时滞的复杂网络实现函数投影同步的方法.

    虽然目前已有一些关于复杂动态网络函数投影同步的研究成果, 但是这些成果都是基于整数阶复杂网络模型获得的, 即节点的数学模型用整数阶微分方程描述.但在现实中, 许多物理系统展现出分数阶动力学行为, 如分数阶Chua电路[29]、分数阶Lorenz系统[30]、分数阶Chen系统[31]及分数阶混沌及超混沌Rössler系统[32]等.实际上整数阶微积分是实际物理系统的理想化处理, 分数阶系统更具有普遍性, 因此对网络节点为分数阶系统的研究引起了越来越多研究者的兴趣.文献[33]研究分数阶复杂网络的完全同步和反同步问题.文献[34]研究分数阶李亚普诺夫稳定性理论及其在复杂网络同步中的应用.文献[35]研究带未知参数的分数阶驱动-响应动态网络的完全同步方法.

    考虑到目前对于分数阶复杂网络的函数投影同步问题鲜有研究.本文分别基于网络模型参数已知和未知两种情况, 利用自适应控制技术和分数阶系统稳定性理论, 设计自适应控制器使两个分数阶复杂动态网络实现函数投影同步.本文的内容安排如下:第1节给出模型描述和函数投影同步的定义; 第2节分别在系统模型参数已知和未知两种条件下, 给出两个分数阶复杂动态网络实现函数投影同步的控制器设计方法; 第3节给出两组仿真实例验证所提控制方法的有效性; 第4节给出结论.

    本节首先对分数阶微分的定义进行介绍.分数阶微分常用的定义有两种:Riemann-Liouville定义和Caputo定义.下面分别给出这两种定义.

    函数 $f(t)$ 的 $q$ 阶Riemann-Liouville分数阶微分定义为[36]

    $ \begin{array}{l}{}_{a}D_{t}^{q}f(t)=\dfrac{1}{\Gamma (n-q)}\dfrac{{{\rm d}^{n}}}{{\rm d}{{t}^{n}}} \displaystyle\int_{a}^{t}{\dfrac{f(\tau)}{{{(t-\tau )}^{q-n+1}}}{\rm d}\tau }\end{array} $

    其中, $n-1<q<n, \ n\in \mathbf{N}$ , $\Gamma (\cdot )$ 是Gamma函数.

    函数 $f(t)$ 的 $q$ 阶Caputo分数阶微分定义为[35]

    $ \begin{array}{l}_{a}D_{t}^{q}f(t)=\dfrac{1}{\Gamma(n-q)}\displaystyle\int_{a}^{t}{{{(t-\tau)}^{-q+n-1}}{{f}^{(n)}}(\tau ){\rm d}\tau }\end{array} $

    其中, $n-1 < q<n, \ n\in \mathbf{N}$ , ${{f}^{(n)}}(\tau )$ 是函数 $f(\tau)$ 的 $n$ 阶导数, $\Gamma (\cdot )$ 是Gamma函数.

    $\Gamma (\cdot )$ 定义为

    $ \begin{align*}\Gamma (s)=\int_{0}^{\infty }{{{t}^{s-1}}{{\rm e}^{-t}}}{\rm d}t\end{align*} $

    Caputo分数阶微分是先求导再积分, 其更适合描述分数阶微分方程的初值问题, 因此本文采用Caputo定义.当 $a=0$ 时, 我们用简化的符号 $D_{*}^{q}$ 代表符号 ${}_{0}D_{t}^{q}$ .

    下面我们基于Caputo定义, 给出一个由N个节点组成的分数阶复杂动态网络模型

    $\begin{align}\begin{array}{l}D_{*}^{q}{{\pmb x}_{i}}= f({{{\pmb x}_{i}}})+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{{\pmb x}_{j}}}}, \ i=1, \cdots, N\end{array}\end{align}$

    (1)

    其中, ${{\pmb x}_{i}}= {\left[{{x_{i1}}\;{x_{i2}}\; \cdots {x_{in}}} \right]^{\rm{T}}} \in {{\mathbf{R}}^n}$ 是第 $i$ 个节点的状态向量, $f:{\mathbf{R}^{n}}\to {{\bf R}^{n}}$ 是确定节点动态行为的连续可微向量函数, $0 < q\le1$ 是分数阶数. $C\in {\mathbf{R}^{n\times n}}$ 为内部耦合矩阵. $G=({{g}_{ij}})\in {\mathbf{R}^{N\times N}}$ 是表示网络拓扑结构的耦合矩阵, 其中 ${{g}_{ij}}$ 被定义如下:如果节点 $i$ 和节点 $j$ 之间有连接 $(i\ne j)$ , 则 ${{g}_{ij}}>0$ ; 否则, ${{g}_{ij}}={{g}_{ji}}=0$ , 并且矩阵 $G$ 的对角线上的元素满足耗散条件

    $\begin{align}\begin{array}{l}{{g}_{ii}}=-\sum\limits_{j=1, j\ne i}^{N}{{g}_{ij}}, \ \ i=1, 2, \cdots, N \end{array}\end{align}$

    (2)

    取式 (1) 作为驱动网络, 带有非线性控制器的响应网络按下等式选取

    $\begin{align}\begin{array}{l}D_{*}^{q}{{\pmb y}_{i}}= f({{\pmb y}_{i}})+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb y}_{j}}}+{{\pmb u}_{i}}, \ \ \ i=1, \cdots, N \end{array}\end{align}$

    (3)

    其中, ${{\pmb y}_{i}}= {\left[{{y_{i1}}\;{y_{i2}}\; \cdots {y_{in}}} \right]^{\rm{T}}} \in {{\mathbf{R}}^n}$ 是响应网络中第 $i$ 个节点的状态向量, ${{\pmb u}_{i}}\in{\mathbf{R}^{n}}$ 是控制器.

    定义误差向量为

    $\begin{align}\begin{array}{l}{{\pmb e}_{i}}={{\pmb y}_{i}}-\alpha (t){{\pmb x}_{i}} \end{array}\end{align}$

    (4)

    其中, 误差向量 ${{\pmb e}_{i}}={{\left[{{e}_{i1}}\;{e_{i2}} \cdots \;{{e}_{in}} \right]}^{\rm T}}\in {\mathbf{R}^{n}}$ , $\alpha(t)$ 是一个连续可微的尺度函数.

    定义 1.对于驱动网络 (1) 和响应网络 (3), 如果存在一个连续可微的尺度函数 $\alpha (t)$ 使得 $\lim \nolimits_{t\to\infty } \left\| {{\pmb e}_{i}}(t) \right\|=\lim\nolimits_{t\to\infty } \left\| {{\pmb y}_{i}}(t)-\alpha (t){{\pmb x}_{i}}(t)\right\|=0$ , $i=1, 2, \cdots, N, $ 其中, $\left\| \cdot\right\|$ 代表欧几里得范数, 则称驱动网络 (1) 和响应网络 (3) 达到函数投影同步.

    本文研究在复杂网络模型中系统参数已知和未知两种条件下, 如何设计控制器 ${\pmb u}_{i}$ 使驱动网络 (1) 和响应网络 (3) 实现函数投影同步.在控制器设计的过程中我们用到下述引理.

    引理 1[37].考虑自治系统

    $\begin{align}\begin{array}{l}D_{*}^{q}{\pmb x}=A({\pmb x}){\pmb x} \end{array}\end{align}$

    (5)

    其中, $q\in (0, 1]$ 是分数阶数, ${\pmb x}={{[{{x}_{1}}\ {{x}_{2}} \cdots \ {{x}_{n}}]}^{\rm T}}$ 是状态向量.如果存在一个实对称正定矩阵 $P$ 使得方程 $J({\pmb x})={{\pmb x}^{\rm T}}PD_{*}^{q}{\pmb x}\le 0$ 总成立, 则系统 (5) 渐近稳定.

    本节研究在复杂网络模型参数已知的条件下, 驱动网络 (1) 和响应网络 (3) 实现函数投影同步的控制器设计方法.

    定理 1.对于一个给定的尺度函数 $\alpha(t)$ , 驱动网络 (1) 和响应网络 (3) 在如下控制器作用下可实现函数投影同步

    $\begin{align}&\begin{array}{l} {{\pmb u}_{i}}=- f({{\pmb y}_{i}})-\alpha(t)\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb x}_{j}}}+D_{*}^{q}[\alpha(t){{\pmb x}_{i}}]-{{k}_{i}}{{\pmb e}_{i}} \end{array}\end{align}$

    (6)

    $\begin{equation} D_{*}^{q}{{k}_{i}}={{r}_{i}}{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}} \end{equation}$

    (7)

    其中, ${{r}_{i}}$ 是任意的正常数.

    证明.由式 (4) 有:

    $\begin{align}\begin{array}{l}D_{*}^{q}{{\pmb e}_{i}}=D_{*}^{q}{{\pmb y}_{i}}-D_{*}^{q}[\alpha(t){{\pmb x}_{i}}] \end{array}\end{align}$

    (8)

    将式 (6) 代入式 (3) 有:

    $\begin{align}& D_{*}^{q}{{\pmb y}_{i}}= f({{\pmb y}_{i}})+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb y}_{j}}}- f({{\pmb y}_{i}})+D_{*}^{q}[\alpha (t){{\pmb x}_{i}}]- \notag\\& \alpha (t)\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb x}_{j}}}-{{k}_{i}}{{\pmb e}_{i}}=\notag\\& D_{*}^{q}[\alpha (t){{\pmb x}_{i}}]+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}} \end{align}$

    (9)

    将式 (9) 代入式 (8) 有:

    $\begin{align}\begin{array}{l}D_{*}^{q}{{\pmb e}_{i}}=\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}} \end{array}\end{align}$

    (10)

    定义向量 ${\pmb X}=[{\pmb e}_{1}^{\rm T}\ {\pmb e}_{2}^{\rm T} \ {\pmb e}_{N}^{\rm T}\ {{{\tilde{k}}}_{1}}/\sqrt{{{r}_{1}}}$ ${{{\tilde{k}}}_{N}}/\sqrt{{{r}_{N}}}]^{\rm T}, $ 其中 ${{\tilde{k}}_{i}}={{k}_{i}}-k_{i}^{*}$ 为控制器中反馈增益的误差.很明显由式 (10) 和式 (7) 可以很容易地写出 $D_{*}^{q}{\pmb X}=A({\pmb X}){\pmb X}$ 的表达式, 因此可以利用引理1, 研究误差动态系统的稳定性.取 $P$ 为单位阵, 根据引理1构造函数

    $\begin{align}& J={{\pmb X}^{\rm T}}PD_{*}^{q}{\pmb X} =\notag\\& \sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}D_{*}^{q}{{\pmb e}_{i}}}+\sum\limits_{i=1}^{N}{{{{\tilde{k}}}_{i}}\frac{1}{{{r}_{i}}}D_{*}^{q}{{{\tilde{k}}}_{i}}}\end{align}$

    (11)

    将式 (10) 代入式 (11) 有:

    $\begin{align}\begin{array}{l}J=\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}\left(\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}}\right)}+\sum\limits_{i=1}^{N}{{{{\tilde{k}}}_{i}}\dfrac{1}{{{r}_{i}}}D_{*}^{q}{{{\tilde{k}}}_{i}}}\end{array}\end{align}$

    (12)

    将式 (7) 代入式 (12) 有:

    $\begin{align}&J=\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}\left( \sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}} \right)}+\notag\\&\quad \sum\limits_{i=1}^{N}{({{k}_{i}}-k_{i}^{*}){\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}}\le\notag\\& \sum\limits_{i=1}^{N}{\sum\limits_{j=1}^{N}{{\pmb e}_{i}^{\rm T}C{{g}_{ij}}{{\pmb e}_{j}}}}-k_{{}}^{*}\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}} \end{align}$

    (13)

    其中, ${{k}^{*}}=\min (k_{1}^{*}, k_{2}^{*}, \cdots, k_{N}^{*})$ .令

    $ \begin{align*}&\begin{array}{l} {\pmb E}={{\left[{\pmb e}_{1}^{\rm T}\ {\pmb e}_{2}^{\rm T}\ \cdots \ \ {\pmb e}_{N}^{\rm T} \right]}^{\rm T}}\in {\mathbf{R}^{nN}}\end{array}\\&\begin{array}{l} Q=C\otimes G\in {\mathbf{R}^{nN\times nN}}\end{array}\end{align*} $

    则由等式 (13) 有:

    $\begin{align}&J\le{{\pmb E}^{\rm T}}Q{\pmb E}-{{k}^{*}}{{\pmb E}^{\rm T}}{\pmb E} \le\notag\\&\quad\ \ \ \left({{\lambda }_{\max }}\left(\frac{{{Q}^{\rm T}}+Q}{2}\right)-{{k}^{*}}\right){{\pmb E}^{\rm T}}{\pmb E}\end{align}$

    (14)

    其中, ${{\lambda }_{\max }}(\cdot )$ 代表矩阵的最大特征值.我们取

    $ \begin{align*}\begin{array}{l}{{k}^{*}}={{\lambda }_{\max }}\left(\dfrac{{{Q}^{\rm T}}+Q}{2}\right)+1\end{array}\end{align*} $

    则由等式 (14) 有:

    $ \begin{align*}\begin{array}{l}J\le -{{\pmb E}^{\rm T}}{\pmb E}\end{array}\end{align*} $

    因此根据引理1可得误差系统是渐近稳定的, 即驱动网络 (1) 和响应网络 (3) 在所设计的控制器 (6) 的作用下实现函数投影同步.在定理1中, 控制器的反馈增益 ${{k}_{i}}$ 采用自适应辨识的方法获得, 省去了额外计算反馈增益 ${{k}_{i}}$ 的麻烦.但在实际应用中若在控制器中增加参数辨识器会使控制器结构过于复杂, 有时不利于实际应用, 因此我们在下面的推论中直接给出反馈增益 ${{k}_{i}}$ 的求取方法.

    推论 1.对于一个给定的尺度函数 $\alpha (t)$ , 驱动网络 (1) 和响应网络 (3) 在如下控制器作用下可实现函数投影同步

    $\begin{align}\begin{array}{l}{{\pmb u}_{i}}=- f({{\pmb y}_{i}})-\alpha(t)\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb x}_{j}}}+D_{*}^{q}[\alpha(t){{\pmb x}_{i}}]-{{k}_{i}}{{\pmb e}_{i}}\end{array}\end{align}$

    (15)

    其中, ${{k}_{i}}>{{\lambda }_{\max }}(\frac{{{Q}^{\rm T}}+Q}{2})$ , $Q=C\otimes G\in {\mathbf{R}^{nN\times nN}}$ .

    证明.根据引理1, 我们构造函数

    $\begin{align}J={{\pmb E}^{\rm T}}PD_{*}^{q}{\pmb E}=\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}D_{*}^{q}{{\pmb e}_{i}}} \end{align}$

    (16)

    其中, ${\pmb E}={{\left[{\pmb e}_{1}^{\rm T}\ {\pmb e}_{2}^{\rm T} \cdots \ {\pmb e}_{N}^{\rm T} \right]}^{\rm T}}\in {{\bf R}^{nN}}$ .将式 (10) 代入式 (16) 有:

    $\begin{align}&J=\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}\left(\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}}\right)} \le\notag\\&\quad\sum\limits_{i=1}^{N}{\sum\limits_{j=1}^{N}{{\pmb e}_{i}^{\rm T}C{{g}_{ij}}{{\pmb e}_{j}}}}-k_{{}}^{*}\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}} \end{align}$

    (17)

    其中, ${{k}^{*}}=\min (k_{1}^{{}}, k_{2}^{{}}, \cdots, k_{N}^{{}})$ .令 $Q=C\otimes G\in {\mathbf{R}^{nN\times nN}}, $ 则由等式 (17) 有:

    $\begin{align}&J\le{{\pmb E}^{\rm T}}Q{\pmb E}-{{k}^{*}}{{\pmb E}^{\rm T}}{\pmb E}\le\notag\\&\quad \left({{\lambda }_{\max }}\left(\frac{{{Q}^{\rm T}}+Q}{2}\right)-{{k}^{*}}\right){{\pmb E}^{\rm T}}{\pmb E}\end{align}$

    (18)

    由推论的条件 ${{k}_{i}}>{{\lambda }_{\max }}(\frac{{{Q}^{\rm T}}+Q}{2})$ , 易知 ${{k}^{*}}>{{\lambda }_{\max }}(\frac{{{Q}^{\rm T}}+Q}{2})$ , 因此可得 $J\le 0.$ 根据引理1可知误差系统是渐近稳定的, 即驱动网络 (1) 和响应网络 (3) 在所设计的控制器 (15) 的作用下实现函数投影同步.

    本节研究复杂网络模型存在未知参数时, 驱动网络和响应网络实现函数投影同步的控制器设计方法.

    考虑一类带有未知参数的分数阶复杂网络模型

    $\begin{align}&D_{*}^{q}{{\pmb x}_{i}}= f({{\pmb x}_{i}})+F({{\pmb x}_{i}}){\pmb\theta}+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb x}_{j}}}, \notag\\&\qquad\qquad\qquad\qquad i=1, \cdots, N \end{align}$

    (19)

    其中, ${{\pmb x}_{i}}= {\left[{{x_{i1}}\;{x_{i2}}\; \cdots {x_{in}}} \right]^{\rm{T}}} \in {{\mathbf{R}}^n}$ 表示第 $i$ 个节点的状态向量, $0 < q\le 1$ 是分数阶数. $ f:{{\bf R}^{n}}\to {\mathbf{R}^{n}}$ 是连续可微的向量函数. $F:{\mathbf{R}^{n}}\to{\mathbf{R}^{n\times m}}$ 是函数矩阵. ${\pmb \theta} ={{\left[{{\theta}_{1}}\ {{\theta }_{2}}\ \cdots \ {{\theta }_{m}} \right]}^{\rm T}}\in {\mathbf{R}^{m}}$ 是系统的未知参数向量. $C\in {\mathbf{R}^{n\times n}}$ 是内部耦合矩阵. $G=({{g}_{ij}})\in {\mathbf{R}^{N\times N}}$ 是表示网络拓扑结构的耦合矩阵, 其中 ${{g}_{ij}}$ 被定义如下:如果节点 $i$ 和节点 $j$ 之间有连接 $(i\ne j)$ , 则 ${{g}_{ij}}>0$ ; 否则, ${{g}_{ij}}={{g}_{ji}}=0$ , 并且矩阵 $G$ 的对角线上的元素满足耗散条件 (2).

    取式 (19) 作为驱动网络, 带有非线性控制器的响应网络按下等式选取

    $\begin{align}&D_{*}^{q}{{\pmb y}_{i}}= f({{\pmb y}_{i}})+F({{\pmb y}_{i}}){\pmb\theta}+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb y}_{j}}}+{{\pmb u}_{i}}, \notag\\&\qquad \qquad \qquad \qquad\qquad i=1, \cdots, N \end{align}$

    (20)

    其中, ${{\pmb y}_{i}}= {\left[{{y_{i1}}\;{y_{i2}}\; \cdots {y_{in}}} \right]^{\rm{T}}} \in {{\mathbf{R}}^n}$ 表示响应网络第 $i$ 个节点的状态向量, ${{\pmb u}_{i}}\in {{\bf R}^{n}}$ 是待设计的控制器.

    定理 2.对于一个给定的尺度函数 $\alpha (t)$ , 带未知参数的驱动网络 (19) 和响应网络 (20) 在如下控制器和参数估计器的作用下可实现函数投影同步

    $\begin{align}&{{\pmb u}_{i}}=- f({{\pmb y}_{i}})-F({{\pmb y}_{i}}){{\hat{\pmb\theta }}_{i}}-\alpha(t)\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb x}_{j}}}+\notag\end{align}$

    (21)

    $\begin{align}D_{*}^{q}{{k}_{i}}={{r}_{i}}{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}} \end{align}$

    (22)

    $\begin{align}D_{*}^{q}{{\hat{\pmb \theta }}_{i}}={{F}^{\rm T}}({{\pmb y}_{i}}){{\pmb e}_{i}} \end{align}$

    (23)

    其中, ${{\hat{\pmb \theta}}_{i}}$ 为第 $i$ 个响应节点对网络中未知参数 $\pmb \theta $ 的估值, ${{r}_{i}}$ 是任意的正常数.

    证明.由式 (4) 有:

    $\begin{align}D_{*}^{q}{{\pmb e}_{i}}=D_{*}^{q}{{\pmb y}_{i}}-D_{*}^{q}[\alpha(t){{\pmb x}_{i}}] \end{align}$

    (24)

    将式 (20) 代入式 (24) 有:

    $\begin{align}&D_{*}^{q}{{\pmb e}_{i}}= f({{\pmb y}_{i}})+F({{\pmb y}_{i}}){\pmb\theta}+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb y}_{j}}}+\notag\\&\qquad {{\pmb u}_{i}}-D_{*}^{q}[\alpha (t){{\pmb x}_{i}}] \end{align}$

    (25)

    将式 (21) 代入式 (25) 有:

    $\begin{align}D_{*}^{q}{{\pmb e}_{i}}=F({{\pmb y}_{i}})({\pmb \theta}-{{\hat{{\pmb \theta}}}_{i}})+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}} \end{align}$

    (26)

    定义系统参数误差为

    $\begin{align}{{\pmb e}_{{{\theta }_{i}}}}={\pmb \theta} -{{\hat{\pmb \theta}}_{i}} \end{align}$

    (27)

    将式 (27) 代入式 (26) 有:

    $\begin{align}D_{*}^{q}{{\pmb e}_{i}}=F({{\pmb y}_{i}}){{\pmb e}_{{{\theta}_{i}}}}+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}} \end{align}$

    (28)

    根据引理1, 我们构造函数

    $\begin{align}&J={{\pmb X}^{\rm T}}PD_{*}^{q}{\pmb X}=\notag\\&\quad \sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}D_{*}^{q}{{\pmb e}_{i}}}+\sum\limits_{i=1}^{N}{{\pmb e}_{{{\theta }_{i}}}^{\rm T}D_{*}^{q}{{\pmb e}_{{{\theta}_{i}}}}}+\sum\limits_{i=1}^{N}{{{{\tilde{k}}}_{i}}\frac{1}{{{r}_{i}}}D_{*}^{q}{{{\tilde{k}}}_{i}}}\end{align}$

    (29)

    其中, $\mathit{\boldsymbol{X}} = [\mathit{\boldsymbol{e}}_1^{\rm{T}}\; \cdots \;\mathit{\boldsymbol{e}}_N^{\rm{T}}\;\mathit{\boldsymbol{e}}_{{\theta _1}}^{\rm{T}}\; \cdots \;\mathit{\boldsymbol{e}}_{{\theta _N}}^{\rm{T}}\;{\tilde k_1}/\sqrt {{r_1}} \; \cdots {\{ {\tilde k_N}/\sqrt {{r_N}}]^T}$ , $P$ 取单位阵, ${{\tilde{k}}_{i}}={{k}_{i}}-k_{i}^{*}$ .

    将式 (22)、(23)、(27) 和 (28) 代入式 (29) 有:

    $\begin{align}&J=\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}}\left[F({{\pmb y}_{i}}){\pmb e}_{{{\theta}_{i}}}^{{}}+\sum\limits_{j=1}^{N}{C{{g}_{ij}}{{\pmb e}_{j}}}-{{k}_{i}}{{\pmb e}_{i}}\right]-\notag\\&\quad \sum\limits_{i=1}^{N}{{\pmb e}_{{{\theta }_{i}}}^{\rm T}D_{*}^{q}{{{\hat{\pmb \theta}}}_{i}}}+\sum\limits_{i=1}^{N}{({{k}_{i}}-k_{i}^{*}){\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}}=\notag\\&\quad \sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}F({{\pmb y}_{i}}){\pmb e}_{{{\theta}_{i}}}^{{}}+}\sum\limits_{i=1}^{N}{\sum\limits_{j=1}^{N}{{\pmb e}_{i}^{\rm T}C{{g}_{ij}}{{\pmb e}_{j}}}}-\notag\\&\quad \sum\limits_{i=1}^{N}{{\pmb e}_{{{\theta}_{i}}}^{\rm T}{{F}^{\rm T}}({{\pmb y}_{i}}){\pmb e}_{i}^{{}}}-\sum\limits_{i=1}^{N}{k_{i}^{*}{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}} \le\notag\\&\quad \sum\limits_{i=1}^{N}{\sum\limits_{j=1}^{N}{{\pmb e}_{i}^{\rm T}C{{g}_{ij}}{{\pmb e}_{j}}}}-k_{{}}^{*}\sum\limits_{i=1}^{N}{{\pmb e}_{i}^{\rm T}{{\pmb e}_{i}}} \end{align}$

    (30)

    其中, ${{k}^{*}}=\min (k_{1}^{*}, k_{2}^{*}, \cdots, k_{N}^{*})$ .令

    $ \begin{align*}&\begin{array}{l} {\pmb E}={{\left[{\pmb e}_{1}^{\rm T}\ {\pmb e}_{2}^{\rm T}\ \cdots \ \ {\pmb e}_{N}^{\rm T} \right]}^{\rm T}}\in{\mathbf{R}^{nN}}\end{array}\\&\begin{array}{l} Q=C\otimes G\in {\mathbf{R}^{nN\times nN}}\end{array}\end{align*} $

    则由等式 (30) 有:

    $\begin{align}&J\le {{\pmb E}^{\rm T}}Q{\pmb E}-{{k}^{*}}{{\pmb E}^{\rm T}}{\pmb E} \le\notag\\&\quad \left({{\lambda }_{\max }}\left(\frac{{{Q}^{\rm T}}+Q}{2}\right)-{{k}^{*}}\right){{\pmb E}^{\rm T}}{\pmb E}\end{align}$

    (31)

    其中, ${{\lambda }_{\max }}(\cdot )$ 表示矩阵的最大特征值.我们取

    $ \begin{align*}{{k}^{*}}={{\lambda }_{\max }}\left(\frac{{{Q}^{\rm T}}+Q}{2}\right)+1\end{align*} $

    则由等式 (31) 有:

    $ \begin{align*}J\le -{{\pmb E}^{\rm T}}{\pmb E}\end{align*} $

    因此根据引理1可得同步误差 ${{\pmb e}_{i}}$ 和参数误差 ${{\pmb e}_{{{\theta }_{i}}}}$ 是渐近稳定的.即驱动网络 (19) 和响应网络 (20) 在所设计的控制器 (21) 的作用下实现函数投影同步, 且未知参数的估值 ${{\hat{\pmb \theta }}_{i}}$ 渐近趋于其真实值 ${\pmb\theta}$ .

    在本节中, 我们以两个由10个节点组成的小世界网络为例证实所提方法的有效性.取分数阶Chen系统为网络节点, 其动力学方程为

    $\begin{align}\left\{ \begin{array}{l} D_{*}^{q}{{x}_{1}}=a({{x}_{2}}-{{x}_{1}}) \\ D_{*}^{q}{{x}_{2}}=(c-a){{x}_{1}}-{{x}_{1}}{{x}_{3}}+c{{x}_{2}} \\ D_{*}^{q}{{x}_{3}}={{x}_{1}}{{x}_{2}}-b{{x}_{3}} \\\end{array} \right.\end{align}$

    (32)

    其中, 系统参数为 $a=35, b=3, c=28$ .图 1为 $q=0.95$ 时分数阶Chen系统混沌吸引子图形.

    图 1  分数阶Chen系统混沌吸引子 (q=0.95)
    Fig. 1  Chaoticattractor of fractional-order Chen system (q=0.95)

    驱动网络和响应网络的数学模型如下:

    $\begin{align}&D_{*}^{q}{{\pmb x}_{i}}=\left[\begin{array}{c} a({{x}_{i2}}-{{x}_{i1}})\\ (c-a){{x}_{i1}}-{{x}_{i1}}{{x}_{i3}}+ c{{x}_{i2}}\\{{x}_{i1}}{{x}_{i2}}-b{{x}_{i3}} \end{array}\right]+\notag\\&\qquad \sum\limits_{j=1}^{10}{C{{g}_{ij}}{{\pmb x}_{j}}}, i=1, \cdots, 10\ \end{align}$

    (33)

    $\begin{align}&D_{*}^{q}{{\pmb y}_{i}}=\left[\begin{array}{c}a({{y}_{i2}}-{{y}_{i1}})\\ (c-a){{y}_{i1}}-{{y}_{i1}}{{y}_{i3}}+c{{y}_{i2}}\\{{y}_{i1}}{{y}_{i2}}-b{{y}_{i3}}\end{array}\right]+\notag\\&\qquad \sum\limits_{j=1}^{10}{C{{g}_{ij}}{{\pmb y}_{j}}+{{\pmb u}_{i}}}, \quad i=1, \cdots, 10 \end{align}$

    (34)

    网络的拓扑结构如图 2所示.

    图 2  网络拓扑结构图
    Fig. 2  Topological structure of a network

    网络拓扑结构矩阵按式 (35) 选取

    $G = \left[{\matrix{ {-4}&1&1&0&0&0&0&0&1&1 \cr 1&{-5}&1&1&0&1&0&0&0&1 \cr 1&1&{-5}&1&1&0&0&0&1&0 \cr 0&1&1&{ - 4}&1&1&0&0&0&0 \cr 0&0&1&1&{ - 5}&1&1&0&0&1 \cr 0&1&0&1&1&{ - 5}&1&1&0&0 \cr 0&0&0&0&1&1&{ - 4}&1&1&0 \cr 0&0&0&0&0&1&1&{ - 4}&1&1 \cr 1&0&1&0&0&0&1&1&{ - 5}&0 \cr 1&1&0&0&1&0&0&1&1&{ - 5} \cr } } \right]$

    (35)

    内部耦合矩阵取 $C={\rm diag}\{1, 1, 1\}$ .控制器 ${{\pmb u}_{i}}$ 按定理1中给出的方法进行设计.在仿真中我们取驱动网络的状态初值为 ${{\pmb x}_{i}}(0)={{[1+0.5i\ 1+0.5i\ \ \ 2+i]}^{\rm T}}$ $(i=1, 2, \cdots, 10)$ , 响应网络的状态初值为 ${{\pmb y}_{i}}(0)={{\left[4+i\ \ 5+i\ \ 6+i\right]}^{\rm T}}$ $(i=1, 2, \cdots, 10)$ .用定理1对控制器 ${{\pmb u}_{i}}$ 进行设计, 其中取正常数 ${{r}_{i}}=5$ $(i=1, 2, \cdots, 10)$ , 反馈增益的初值取为 ${{k}_{i}}(0)=1$ $(i=1, 2, \cdots, 10)$ .取分数阶数 $q=0.95$ , 尺度函数为 $\alpha (t)=2+\sin t$ .仿真结果如图 3所示.

    图 3  用控制器 (6) 获得的同步误差时间变化图
    Fig. 3  The timeevolution of synchronization errors under control law (6)

    图 3为驱动网络与响应网络函数投影同步误差随时间变化的图形, 由该图我们可以看到误差系统随着时间的变化逐渐趋近于零.因此驱动网络 (33) 和响应网络 (34) 在所设计的控制器 (6) 的作用下, 实现了函数投影同步.

    另外, 我们也可以利用推论1中给出的方法设计控制器 ${{\pmb u}_{i}}$ .由推论1可得 ${{k}_{i}}>0$ .在仿真中取 ${{k}_{i}}=1$ , 响应系统 (34) 与驱动系统 (33) 的同步误差如图 4所示.取 ${{k}_{i}}=50$ , 响应系统 (34) 与驱动系统 (33) 的同步误差如图 5所示.对比图 4图 5可知, 反馈增益 ${{k}_{i}}$ 越大, 同步误差越小且同步的速度越快; 相反, 反馈增益 ${{k}_{i}}$ 越小, 同步误差越大且同步的速度越慢.

    图 4  利用控制器 (15) 获得的同步误差时间变化图 (ki=1)
    Fig. 4  The timeevolution of synchronization errors under control law (15)(ki=1)
    图 5  利用控制器 (15) 获得的同步误差时间变化图 (ki=50)
    Fig. 5  The timeevolution of synchronization errors under control law (15)(ki=50)

    在本节中, 我们仍以由10个分数阶Chen系统作为节点组成的复杂网络为例, 但在这里我们假设网络中的系统参数是未知的, 并将式 (33) 和 (34) 按式 (19) 和 (20) 的形式改写为

    $\begin{array}{lllllll} &\!\!\!\!\!\!\!\!\!D_{*}^{q}{{\pmb x}_{i}}\!=\!\left[\begin{array}{cccccc} 0 \\-{{x}_{i1}}{{x}_{i3}} \\ {{x}_{i1}}{{x}_{i2}} \\\end{array} \right]\!\!+\!\!\left[\begin{matrix} {{x}_{i2}}-{{x}_{i1}}&0&0 \\-{{x}_{i1}}&0&{{x}_{i1}}+{{x}_{i2}} \\ 0 &-{{x}_{i3}}&0 \\\end{matrix} \right]\left[\begin{matrix} a \\ b \\ c \\\end{matrix} \right]+\notag\\& \quad \sum\limits_{j=1}^{10}{C{{g}_{ij}}{{\pmb x}_{j}}}, \ i=1, \cdots, 10 \end{array}$

    (36)

    $\begin{array}{lllllllll}&\!\!\!\!\!\!\!\!\!D_{*}^{q}{{\pmb y}_{i}}\!=\!\left[\begin{array}{cccccccc} 0 \\-{{y}_{i1}}{{y}_{i3}} \\ {{y}_{i1}}{{y}_{i2}} \\\end{array} \right]\!\!+\!\!\left[\begin{matrix} {{y}_{i2}}-{{y}_{i1}}&0&0 \\-{{y}_{i1}}&0&{{y}_{i1}}+{{y}_{i2}} \\ 0 &-{{y}_{i3}}&0 \\\end{matrix} \right]\left[\begin{matrix} a \\ b \\ c \\\end{matrix} \right]+\notag\\& \quad \sum\limits_{j=1}^{10}{C{{g}_{ij}}{{\pmb y}_{j}}+{{\pmb u}_{i}}}, \ \ i=1, \cdots, 10 \end{array}$

    (37)

    其中, 网络拓扑结构矩阵按式 (35) 选取, 内部耦合矩阵取 $C={diag}\{1, 1, 1\}$ .控制器 ${{\pmb u}_{i}}$ 按定理2进行设计.

    在仿真中, 我们取驱动网络的状态初值为 ${{\pmb x}_{i}}(0)={{\left[1+0.5i\ \ 5+i\ \ 1+i \right]}^{\rm T}} (i=1, 2, \cdots, 10)$ , 响应网络的状态初值为 ${{\pmb y}_{i}}(0)={{\left[1+0.5i\ \ 1+0.5i\ 2+i \right]}^{\rm T}} (i=1, 2, \cdots, 10)$ .利用定理2对控制器 ${{\pmb u}_{i}}$ 进行设计, 其中取正常数 ${{r}_{i}}=5 (i=1, 2, \cdots, 10)$ , 反馈增益的初值为 ${{k}_{i}}(0)=1 (i=1, 2, \cdots, 10)$ .参数估计器的初值取为 ${{\hat{\pmb \theta}}_{i}}(0)={{\left[0\ \ 0\ \ 0 \right]}^{\rm T}} (i=1, 2, \cdots, 10)$ .取分数阶数 $q=0.95$ , 尺度函数 $\alpha (t)=\sin t+2$ .仿真结果如图 6图 7所示.

    图 6  利用控制器 (21) 获得的同步误差时间变化图
    Fig. 6  The timeevolution of synchronization errors under control law (21)
    图 7  参数估值随时间变化图
    Fig. 7  The timeevolution of the estimated parameters

    图 6为驱动网络与响应网络函数投影同步误差随时间变化的图形, 由该图我们可以看到同步误差系统随着时间的变化而逐渐趋近于零.因此驱动网络 (36) 和响应网络 (37) 在所设计的控制器 (21) 的作用下, 达到函数投影同步. 图 7为网络中未知参数的估计图, 由该图我们可以看到每个响应节点的参数估计值趋于网络中的未知参数的真实值.因此定理2所给的控制器和未知参数估计器是有效的.

    本文利用自适应控制技术和分数阶系统稳定性理论, 研究了两个分数阶复杂动态网络实现函数投影同步的方法.在复杂网络模型参数已知的条件下, 给出了自适应控制器的设计方法, 该法无需计算控制器中的反馈增益, 其反馈增益可自适应调整到适当的常值.进一步为了便于实际应用, 给出了控制器中反馈增益的设计方法, 并分析了控制器参数的选取对控制效果的影响.之后, 给出了复杂网络模型参数未知时, 自适应控制器的设计方法及未知参数的估计方法.最后, 利用数值仿真验证了所提方法的有效性.


  • 本文责任编委 王坤峰
  • 图  1  多视图表征向量映射

    Fig.  1  Multi-view representative vector mapping

    图  2  原始视图数据$x$, 表征向量$\pmb c$, 重构视图数据$\hat{x}$间的互信息示意图

    Fig.  2  Schematic diagram of mutual information among original view data $x$, representative vector $\pmb c$, reconstructed data $\hat{x}$

    图  3  基于生成对抗网络的多视图数据生成框架

    Fig.  3  Framework of the generative adversarial network based multi-view data generation

    图  4  MNIST视图3数据经过PCA后的可视化二维图

    Fig.  4  The 2D-visualization of view 3 on MNIST after PCA

    图  5  以视图2为源数据在MNIST上的重构结果

    Fig.  5  Reconstruction results that take view 2 as source data on MNIST

    图  6  以视图3为源数据在MNIST上的重构结果

    Fig.  6  Reconstruction results that take view 3 as source data on MNIST

    图  7  以视图2为源数据在SVHN上的重构结果

    Fig.  7  Reconstruction results that take view 2 as source data on SVHN

    图  8  以视图3为源数据在SVHN上的重构结果

    Fig.  8  Reconstruction results that take view 3 as source data on SVHN

    图  9  以视图2为源数据在CelebA上的重构结果

    Fig.  9  Reconstruction results that take view 2 and view 3 as source data respectively on CelebA

    表  1  MNIST数据集上的SSIM和PSNR比较结果

    Table  1  Comparison results of SSIM and PSNR on MNIST

    算法 SSIM值 PSNR值(dB)
    MVGAN (视图2重构视图1) 0.8520±0.0001 16.3135±0.0880
    MVGAN (视图3重构视图1) 0.6474±0.0013 12.2109±0.1442
    CGAN 0.7414±0.0001 12.0301±0.0512
    CVAE 0.7912±0.0031 12.1184±0.0013
    下载: 导出CSV

    表  2  SVHN数据集上的SSIM和PSNR比较结果

    Table  2  Comparison results of SSIM and PSNR on SVHN

    算法 SSIM值 PSNR值(dB)
    MVGAN (视图2重构视图1) 0.4140±0.0022 18.7987±0.1475
    MVGAN (视图3重构视图1) 0.1848±0.0020 15.8026±0.1306
    CGAN 0.3357±0.0017 14.8910±0.0002
    CVAE 0.3465±0.0028 15.0137±0.0071
    下载: 导出CSV

    表  3  CelebA视图2和视图3对应选中的10维属性

    Table  3  The chosen attributes for view 2 and view 3 (10 dimensions)

    图片编号 秃顶 刘海 黑发 眼镜 男性 嘴微张 窄眼 无胡须 苍白肤色 戴帽
    a -1 -1 -1 1 1 -1 -1 -1 -1 -1
    b -1 -1 1 -1 1 -1 -1 -1 -1 -1
    c -1 -1 1 -1 1 -1 -1 1 -1 -1
    d -1 -1 1 -1 1 1 -1 1 -1 -1
    e -1 -1 -1 -1 -1 -1 -1 1 -1 -1
    f -1 -1 -1 -1 -1 -1 -1 1 1 -1
    g -1 -1 -1 -1 1 -1 -1 1 -1 -1
    h -1 -1 -1 -1 -1 1 -1 1 -1 -1
    i -1 -1 -1 -1 -1 -1 -1 1 -1 -1
    j -1 -1 -1 -1 1 1 1 1 1 -1
    k -1 1 -1 -1 1 -1 -1 1 -1 -1
    l -1 -1 -1 -1 -1 1 -1 1 -1 -1
    m -1 -1 -1 -1 -1 1 -1 1 -1 -1
    n -1 -1 -1 -1 1 1 -1 -1 -1 -1
    o -1 1 1 -1 1 1 -1 1 -1 -1
    下载: 导出CSV

    表  4  CelebA数据集上的SSIM和PSNR比较结果

    Table  4  Comparison results of SSIM and PSNR on CelebA

    算法 SSIM值 PSNR值(dB)
    MVGAN (视图2重构视图1) 0.1143±0.0023 10.0574±0.0605
    MVGAN (视图3重构视图1) 0.1132±0.0022 10.0342±0.0587
    CGAN 0.0512±0.0036 9.5312±0.0012
    CVAE 0.0716±0.0058 9.7881±0.0020
    下载: 导出CSV
  • [1] Chaudhuri K, Kakade S M, Livescu K, Sridharan K. Multi-view clustering via canonical correlation analysis. In: Proceedings of the 26th Annual International Conference on Machine Learning. Montreal, Canada: ACM, 2009. 129-136
    [2] Kumar A, Daume Ⅲ H. A co-training approach for multi-view spectral clustering. In: Proceedings of the 28th International Conference on Machine Learning. Washington, USA: Omnipress, 2011. 393-400
    [3] Wang W R, Arora R, Livescu K, Bilmes J. On deep multi-view representation learning. In: Proceedings of the 32nd International Conference on Machine Learning. Lille, France: ICML, 2015. 1083-1092
    [4] Sun S L. A survey of multi-view machine learning. Neural Computing and Applications, 2013, 23(7-8):2031-2038 doi: 10.1007/s00521-013-1362-6
    [5] White M, Yu Y L, Zhang X H, Schuurmans D. Convex multi-view subspace learning. In: Proceedings of the 25th Annual Conference on Neural Information Processing Systems. Lake Tahoe, USA: NIPS, 2012. 1673-1681
    [6] Guo Y H. Convex subspace representation learning from multi-view data. In: Proceedings of the 27th AAAI Conference on Artificial Intelligence. Washington, USA: AIAA, 2013. 387-393
    [7] Shekhar S, Patel V M, Nasrabadi N M, Chellappa R. Joint sparse representation for robust multimodal biometrics recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(1):113-126 doi: 10.1109/TPAMI.2013.109
    [8] Gangeh M J, Fewzee P, Ghodsi A, Kamel M S, Karray F. Multiview supervised dictionary learning in speech emotion recognition. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(6):1056-1068 doi: 10.1109/TASLP.2014.2319157
    [9] Zhai D M, Chang H, Shan S G, Chen X L, Gao W. Multiview metric learning with global consistency and local smoothness. ACM Transactions on Intelligent Systems and Technology, 2012, 3(3):Article No. 53 https://dl.acm.org/citation.cfm?doid=2168752.2168767
    [10] Kumar A, Rai P, Daumé Ⅲ H. Co-regularized multi-view spectral clustering. In: Proceedings of the 24th Annual Conference on Neural Information Processing Systems. Granada, Spain: Curran Associates Inc., 2011. 1413-1421
    [11] Chen M M, Weinberger K Q, Blitzer J C. Co-training for domain adaptation. In: Proceedings of the 24th Annual Conference on Neural Information Processing Systems. Granada, Spain: Curran Associates Inc., 2011. 2456-2464
    [12] Eaton E, desJardins M, Jacob S. Multi-view constrained clustering with an incomplete mapping between views. Knowledge and Information Systems, 2014, 38(1):231-257 doi: 10.1007/s10115-012-0577-7
    [13] Zhang X C, Zong L L, Liu X Y, Yu H. Constrained NMF-based multi-view clustering on unmapped data. In: Proceedings of the 29th AAAI Conference on Artificial Intelligence. Austin, Texas, USA: AIAA Press, 2015. 3174-3180
    [14] Yu S, Tranchevent L C, Liu X H, Glanzel W, Suykens J A K, De Moor B, et al. Optimized data fusion for kernel k-means clustering. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(5):1031-1039 doi: 10.1109/TPAMI.2011.255
    [15] 余凯, 贾磊, 陈雨强, 徐伟.深度学习的昨天、今天和明天.计算机研究与发展, 2013, 50(9):1799-1804 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jfyz201309002&dbname=CJFD&dbcode=CJFQ

    Yu Kai, Jia Lei, Chen Yu-Qiang, Xu Wei. Deep learning:yesterday, today, and tomorrow. Journal of Computer Research and Development, 2013, 50(9):1799-1804 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jfyz201309002&dbname=CJFD&dbcode=CJFQ
    [16] 郭丽丽, 丁世飞.深度学习研究进展.计算机科学, 2015, 42(5):28-33 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jsja201505007&dbname=CJFD&dbcode=CJFQ

    Guo Li-Li, Ding Shi-Fei. Research progress on deep learning. Computer Science, 2015, 42(5):28-33 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jsja201505007&dbname=CJFD&dbcode=CJFQ
    [17] 胡长胜, 詹曙, 吴从中.基于深度特征学习的图像超分辨率重建.自动化学报, 2017, 43(5):814-821 http://www.aas.net.cn/CN/abstract/abstract19059.shtml

    Hu Chang-Sheng, Zhan Shu, Wu Cong-Zhong. Image super-resolution based on deep learning features. Acta Automatica Sinica, 2017, 43(5):814-821 http://www.aas.net.cn/CN/abstract/abstract19059.shtml
    [18] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5876):504-507 http://www.ncbi.nlm.nih.gov/pubmed/16873662
    [19] Farquhar J D R, Hardoon D R, Meng H Y, Shawe-Taylor J, Szedmak S. Two view learning: SVM-2k, theory and practice. In: Proceedings of the 18th Annual Conference on Neural Information Processing Systems. Vancouver, Canada: MIT Press, 2005. 355-362
    [20] Sindhwani V, Rosenberg D S. An RKHS for multi-view learning and manifold co-regularization. In: Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland: ACM, 2008. 976-983
    [21] Yu S P, Krishnapuram B, Rosales R, Rao R B. Bayesian co-training. The Journal of Machine Learning Research, 2011, 12:2649-2680 https://dl.acm.org/citation.cfm?id=2078190
    [22] Andrew G, Arora R, Bilmes J, Livescu K. Deep canonical correlation analysis. In: Proceedings of the 30th International Conference on Machine Learning. Atlanta, GA, USA: JMLR. org, 2013. 1247-1255
    [23] Westerveld T, de Vries A, de Jong F. Generative probabilistic models. Multimedia Retrieval, Berlin:Springer, 2007. 177-198
    [24] Rezende D J, Mohamed S, Wierstra D. Stochastic backpropagation and approximate inference in deep generative models. arXiv preprint arXiv: 1401.4082, 2014.
    [25] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7):1527-1554 doi: 10.1162/neco.2006.18.7.1527
    [26] van den Oord A, Kalchbrenner N, Kavukcuoglu K. Pixel recurrent neural networks. arXiv preprint arXiv: 1601.06759, 2016.
    [27] van den Oord A, Kalchbrenner N, Vinyals O, Espeholt L, Graves A, Kavukcuoglu K. Conditional image generation with pixelCNN decoders. In: Proceedings of the 30th Annual Conference on Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016. 4790-4798
    [28] Kingma D P, Welling M. Auto-encoding variational Bayes. In: Proceedings of the 2014 International Conference on Learning Representations. Banff, Canada: ICLR, 2014.
    [29] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 27th Annual Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 2672-2680
    [30] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml
    [31] 陈伟宏, 安吉尧, 李仁发, 李万里.深度学习认知计算综述.自动化学报, 2017, 43(11):1886-1897 http://www.aas.net.cn/CN/abstract/abstract19164.shtml

    Chen Wei-Hong, An Ji-Yao, Li Ren-Fa, Li Wan-Li. Review on deep-learning-based cognitive computing. Acta Automatica Sinica, 2017, 43(11):1886-1897 http://www.aas.net.cn/CN/abstract/abstract19164.shtml
    [32] Mirza M, Osindero S. Conditional generative adversarial nets. arXiv preprint arXiv: 1411.1784, 2014.
    [33] LeCun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 1998, 86(11):2278-2324 doi: 10.1109/5.726791
    [34] Sermanet P, Chintala S, LeCun Y. Convolutional neural networks applied to house numbers digit classification. In: Proceedings of the 21st International Conference on Pattern Recognition (ICPR). Tsukuba, Japan: IEEE, 2012. 3288-3291
    [35] Liu Z W, Luo P, Wang X G, Tang X O. Deep learning face attributes in the wild. In: Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile: IEEE, 2015. 3730-3738
    [36] Wang Z, Bovik A C, Sheikh H R, Simoncelli E P. Image quality assessment:from error visibility to structural similarity. IEEE Transactions on Image Processing, 2004, 13(4):600-612 doi: 10.1109/TIP.2003.819861
    [37] Huynh-Thu Q, Ghanbari M. Scope of validity of PSNR in image/video quality assessment. Electronics Letters, 2008, 44(13):800-801 doi: 10.1049/el:20080522
    [38] 向征, 谭恒良, 马争鸣.改进的HOG和Gabor, LBP性能比较.计算机辅助设计与图形学学报, 2012, 24(6):787-792 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jsjf201206011&dbname=CJFD&dbcode=CJFQ

    Xiang Zheng, Tan Heng-Liang, Ma Zheng-Ming. Performance comparison of improved HoG, Gabor and LBP. Journal of Computer-Aided Design and Computer Graphics, 2012, 24(6):787-792 http://kns.cnki.net/KCMS/detail/detail.aspx?filename=jsjf201206011&dbname=CJFD&dbcode=CJFQ
    [39] Kingma D P, Rezende D J, Mohamed S, Weling M. Semi-supervised learning with deep generative models. In: Proceedings of the 27th Annual Conference on Neural Information Processing Systems. Montreal, Canada: MIT Press, 2014. 3581-3589
  • 期刊类型引用(12)

    1. 邰志艳,李黛黛,刘铭. 基于自注意力机制生成对抗网络的医学图像生成. 长春工业大学学报. 2024(03): 208-215 . 百度学术
    2. 查思明,鲍庆森,骆健,陈蕾. 自适应标记关联与实例关联诱导的缺失多视图弱标记学习. 智能系统学报. 2022(04): 670-679 . 百度学术
    3. 赵海霞,石洪波,武建,陈鑫. 基于条件生成对抗网络的不平衡学习研究. 控制与决策. 2021(03): 619-628 . 百度学术
    4. 方卫华,张慧,夏童童. 基于轻量化GANs的引水隧洞充水试验数据生成分析. 水利信息化. 2021(02): 34-39 . 百度学术
    5. 赵博宇,张长青,陈蕾,刘新旺,李泽超,胡清华. 生成式不完整多视图数据聚类. 自动化学报. 2021(08): 1867-1875 . 本站查看
    6. 陈莹,陈湟康. 基于多模态生成对抗网络和三元组损失的说话人识别. 电子与信息学报. 2020(02): 379-385 . 百度学术
    7. 王德文,李业东. 基于WGAN图片去模糊的绝缘子目标检测. 电力自动化设备. 2020(05): 188-198 . 百度学术
    8. 刘小兰,叶泽慧. 基于StarGAN和子空间学习的缺失多视图聚类. 华南理工大学学报(自然科学版). 2020(11): 87-98 . 百度学术
    9. 韩辉,徐赫,杨森林,程德权. 基于生成对抗网络的轴承不平衡数据研究. 一重技术. 2020(05): 40-46 . 百度学术
    10. 李敏,仝明磊,范绿源,南昊. 基于WGAN网络的自然视频预测. 仪表技术. 2019(04): 1-5 . 百度学术
    11. 吴宏杰,戴大东,傅启明,陈建平,陆卫忠. 强化学习与生成式对抗网络结合方法研究进展. 计算机工程与应用. 2019(10): 36-44 . 百度学术
    12. 马春光,郭瑶瑶,武朋,刘海波. 生成式对抗网络图像增强研究综述. 信息网络安全. 2019(05): 10-21 . 百度学术

    其他类型引用(20)

  • 加载中
  • 图(9) / 表(4)
    计量
    • 文章访问数:  3405
    • HTML全文浏览量:  766
    • PDF下载量:  1549
    • 被引次数: 32
    出版历程
    • 收稿日期:  2017-09-08
    • 录用日期:  2017-12-23
    • 刊出日期:  2018-05-20

    目录

    /

    返回文章
    返回