2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

时滞忆阻神经网络动力学分析与控制综述

章联生 金耀初 宋永端

章联生, 金耀初, 宋永端. 时滞忆阻神经网络动力学分析与控制综述. 自动化学报, 2021, 47(4): 765−779 doi: 10.16383/j.aas.c200691
引用本文: 章联生, 金耀初, 宋永端. 时滞忆阻神经网络动力学分析与控制综述. 自动化学报, 2021, 47(4): 765−779 doi: 10.16383/j.aas.c200691
Zhang Lian-Sheng, Jin Yao-Chu, Song Yong-Duan. An overview of dynamics analysis and control of memristive neural networks with delays. Acta Automatica Sinica, 2021, 47(4): 765−779 doi: 10.16383/j.aas.c200691
Citation: Zhang Lian-Sheng, Jin Yao-Chu, Song Yong-Duan. An overview of dynamics analysis and control of memristive neural networks with delays. Acta Automatica Sinica, 2021, 47(4): 765−779 doi: 10.16383/j.aas.c200691

时滞忆阻神经网络动力学分析与控制综述

doi: 10.16383/j.aas.c200691
基金项目: 国家自然科学基金(61773081, 61833013), 北京市教委科技计划一般项目(KM201910017002)资助
详细信息
    作者简介:

    章联生:北京石油化工学院副教授. 主要研究方向为鲁棒控制, 自适应控制, 时滞系统、随机系统、神经网络及其应用. E-mail: zhangliansheng@bipt.edu.cn

    金耀初:英国萨里大学计算科学系教授. 主要研究方向为数据驱动的进化优化, 可信机器学习, 多目标学习, 群机器人和演化发育系统. E-mail: lcjx@mail.neu.edu.cn

    宋永端:重庆大学自动化学院院长, 重庆大学人工智能研究院院长, 教授. IEEE Fellow, 国际欧亚科学院院士. 1992年获美国田纳西理工大学电气与计算机博士学位. 主要研究方向为智慧系统, 导航与控制, 仿生自适应控制和系统安全与控制. 本文通信作者. E-mail: ydsong@cqu.edu.cn

An Overview of Dynamics Analysis and Control of Memristive Neural Networks With Delays

Funds: Supported by National Natural Science Foundation of China (61773081, 61833013), Science and Technology Plan of Beijing Municipal Education Commission (KM201910017002)
More Information
    Author Bio:

    ZHANG Lian-Sheng Associate professor of Beijing Institute of Petro-chemical Technology. His research interest covers robust control, adaptive control, and time-delayed system, stochastic systems, neural networks and their applications

    JIN Yao-Chu Professor in the Department of Computer Science, University of Surrey, Guildford, UK. His research interest covers data-driven surrogateassisted evolutionary optimization, trustworthy machine learning, multi-objective evolutionary learning, swarm robotics, and evolutionary developmental systems

    SONG Yong-Duan Dean of School of Automation, Dean of Institute for Artifical Intelligence, Chongqing University, China. Fellow of IEEE, Fellow of International Eurasian Academy of Sciences. He received his Ph. D. degree in electrical and computer engineering from Tennessee Technological University, Cookeville, TN, USA in 1992. His research interest covers intelligent systems, guidance navigation and control, bioinspired adaptive control, and system cooperation and reliability. Corresponding author of this paper

  • 摘要: 忆阻器(Memristor)是一种无源的二端电子元件, 同时也是一种纳米级元件, 具有低能耗、高存储、小体积和非易失性等特点. 作为一种新型的存储器件, 忆阻器的研制, 有望使计算机实现人脑特有的信息存储与信息处理一体化的功能, 打破目前冯·诺伊曼(Von Neumann)计算机架构, 为下一代计算机的研制提供一种全新的架构. 鉴于忆阻器与生物神经元突触具有十分相似的功能, 使忆阻器得以充当人工神经元的突触, 建立起一种基于忆阻器的人工神经网络即忆阻神经网络. 忆阻器的问世, 为人工神经网络从电路上模拟人脑提供了可能, 必将极大推动人工智能的发展. 此外, 忆阻神经网络的硬件实现及信号传递过程中, 不可避免会出现时滞与分岔等现象, 因此讨论含各种时滞, 如离散、分布、泄漏时滞以及它们混合的时滞忆阻神经网络系统更具有现实意义. 首先介绍了忆阻器的多种数学模型及其分类, 建立了时滞忆阻神经网络(Delayed memristive neural networks, DMNN)的数学模型并阐述了其优点. 然后提出了处理时滞忆阻神经网络动力学行为与控制问题的两种思路, 详细综述了时滞忆阻神经网络系统的稳定性(镇定)、耗散性与无源性及其同步控制方面的内容, 简述了其他方面的动力学行为与控制, 并介绍了时滞忆阻神经网络动力学行为与控制研究新方向. 最后, 对所述问题进行了总结与展望.
  • 1971年美国加州大学伯克利分校的华裔物理学家蔡少棠(L. O. Chua)根据电路变量组合完备性原理, 大胆预言磁通量$\varphi $与电荷$q$之间也一定存在关系[1], 并将描述$\varphi $$q$之间关系的电路元件命名为忆阻器(Memristor, 由英文单词Memory和Resistor截断合写而成, 意为有记忆功能的电阻器), 同时称它为第四种电路基本元件, 通常用符号表示. 此外, $\varphi $的微分${\rm{d}}\varphi$$q$的微分${\rm{d}}q$有如下关系:

    $${\rm{d}}\varphi = M(q){\rm{d}}q$$

    其中, $M(q)$表示忆阻. 于是, 电流强度($i$), 电压($v$), 电荷($q$)和磁通量($\varphi $)这四个物理量之间的关系就可以用图1直观表示.

    图 1  四个基本二端电路元件关系图
    Fig. 1  The four fundamental two-terminal circuit elements

    虽然蔡少棠教授从理论上预言了忆阻器的存在, 但当时尚未制造出这种器件的物理实物, 只是停留在猜想和假设上, 致使忆阻器及其应用研究并未引起科学界和工程界的重视, 甚至一度出现了停滞不前. 直到37年后的2008年, 美国Hewlett-Packard实验室的研究团队在Nature杂志发表论文[2-3], 宣布他们已经建立了作为第四种电路基本元件的忆阻器固体状态的原型—基于半导体中充电掺杂物飘逸的忆阻器的物理模型.

    随后, 2010年Hewlett-Packard实验室的研究人员再次在Nature杂志上撰文表示, 他们在忆阻器设计上取得重大突破, 发现忆阻器可以进行布尔逻辑运算, 用于数据处理和存储[4]. 此后, 越来越多的学者开始加入忆阻器的研究行列. 忆阻器元件的存在, 使电路设计的基本元件由原来的三个(电阻器、电容器和电感器)增加到四个(增加了忆阻器作为第四种基本元件), 忆阻器为电路设计及其忆阻电路应用提供了全新的发展空间. 可以说, 忆阻器的发明足以媲美100年前三极管的发明, 忆阻器领域任何一项产业化应用都可能带来新一轮产业革命.

    忆阻器是一种新型的无源二端电子元件, 当电流(或电压)从某一个端通过, 电阻值增加; 当电流(或电压)从相反端流入, 电阻值减少; 当电流(或电压)停止, 最后的阻值被保存, 这种类似于可变电阻的特性称忆阻. 忆阻器忆阻值的改变主要依靠流入的电流或电压. 虽然忆阻器与电阻器、电容器以及电感器一样, 已被作为无源电路基本元件, 但与其他三类元件不同, 忆阻器有其自身的特性. 它就像一个二端电阻器, 当电流(或电压)通过时, 忆阻器能改变其阻值, 即它是一个不耗能、记忆不消失的可编程电阻器.

    1976年, 蔡少棠教授将忆阻的概念进一步拓展, 并提出了新的概念—忆阻系统[5] (Memristive systems). 忆阻系统指的是, 存在一类物理系统和设备, 其特性类似忆阻, 但并不能真实地由忆阻来建模, 原因是忆阻只是众多此类动态系统中的一个特例, 因此将这类系统和设备称为忆阻系统. 同时指出, 忆阻系统最大的特点是过零属性(Zero-crossing), 即任何时候当系统输入为零, 则系统输出也为零, 即输入输出的李萨如图形一定过坐标轴零点.

    目前根据忆阻器制作材料、结构及工艺的不同, 将忆阻器分为三类: 薄膜忆阻器(美国Hewlett-Packard实验室的二氧化钛忆阻器和高分子聚合物忆阻器属于这类)、自旋忆阻器和其他忆阻器. 这些内容不属本文综述的范畴, 因而不予展开, 感兴趣的读者可以参考文献[6].

    此外, 忆阻器作为一种纳米级元件, 其制造成本高昂, 到目前为止, 人们很难获取一个能够完全表征其物理特性的标准元件, 而且通过实验手段获取其精确的电气特性数据也较为困难. 因此, 对忆阻器的研究较大程度依赖于对忆阻元件的建模与仿真. 现有的忆阻仿真软件, 主要有SPICE、Matlab和Micro-Cap三类.

    本文将介绍忆阻器的数学模型及分类, 综述目前控制领域顶级期刊上相关最新成果, 涉及时滞忆阻神经网络(Delayed memristive neural networks, DMNN)的动力学行为与控制, 如稳定性、耗散性、无源性等分析以及镇定、耗散化、无源化和同步控制等方面的内容, 并对时滞忆阻神经网络今后的研究作了展望, 为忆阻神经网络在下一代计算机研发和人工智能领域的应用提供一些新的思路. 经过中外学者的共同努力, 时滞忆阻神经网络的动力学行为分析与控制取得丰硕的成果, 限于笔者的知识面和视野, 本文的综述仍然是不全面的, 肯定有遗珠之憾, 请同行海涵.

    按照忆阻器研究的先驱蔡少棠教授的说法[7], 在周期性电流源或电压源作用下, 任何表现出穿过电压–电流平面(V-I平面)内原点的捏滞回路直流元件为零二端终端器件都可以称为忆阻器. 如果输入的是电流源, 称它是电流控制的忆阻器; 如果输入的是电压源, 则称它是电压控制的忆阻器. 这里的二端器件的内部结构并没有明确, 所以上述关于忆阻器的定义是一种公理化、黑匣子化的定义. 现实也的确如此, 忆阻器可以用不同材料制备, 其特性在自然界中的变形虫、鱿鱼和其他生物体中都曾经发现过.

    一种器件一旦被实验辨定为忆阻器, 很自然要建立其数学模型, 以近似模拟其捏滞回路. 依据忆阻器数学模型复杂程度不同, 可以方便地将其分类. 所有的忆阻器分为如下三类[7-8]: 理想型忆阻器(Ideal memristors), 通用型忆阻器(Generic memristors)和拓展型忆阻器(Extended memristors). 由于定义这些忆阻器的方程不同, 从而使它们具有不同的特性. 需要指出的是, 通用型忆阻器的一个子集能够展现出与理想型忆阻器相同的特性, 因而这个子集被称为理想通用型忆阻器, 可以视其为第四种忆阻器. 同时, 由于理想通用型忆阻器能够通过一对的数学变换转变为理想型忆阻器, 也被称为理想型忆阻器的衍生忆阻器. 具体见表1 (以复杂程度递增的顺序排列).

    表 1  四类忆阻器
    Table 1  Four classes of memristors
    种类电流控制型电压控制型
    理想型忆阻器$v = M(q)i$$i = W(\varphi )v$
    $\dfrac{ {{\rm{d}}q} }{ {{\rm{d}}t} } = i$$\dfrac{ {{\rm{d}}\varphi } }{ {{\rm{d}}t} } = v$
    理想通用型忆阻器$v = M(x)i$$i = W(x)v$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x)i$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x)v$
    通用型忆阻器$v = M(x)i$$i = W(x)v$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x,i)$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x,v)$
    拓展型忆阻器$\begin{align} v = M(x,i)i \\ M(x,0) \ne \infty \end{align}$$\begin{align} i = W(x,v)v \\ W(x,v) \ne 0 \end{align}$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x,i)$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x,v)$
    下载: 导出CSV 
    | 显示表格

    位于表1最上面的忆阻器最为简单, 命名其为理想型忆阻器, 它符合忆阻器的最初定义[1]. 通过给定的任意初始条件$\varphi (0)$可以确定其构成关系, 即

    $$\varphi := \varphi (0) + \int_0^q {M(s){\rm{d}}s} := \hat \varphi (q)$$ (1)

    式(1)两边同时对时间t求导得

    $$ \frac{{{\rm{d}}\varphi }}{{{\rm{d}}t}} = M(q)\frac{{{\rm{d}}q}}{{{\rm{d}}t}} $$ (2)

    注意到

    $$\frac{{{\rm{d}}\varphi }}{{{\rm{d}}t}} = v,\;\frac{{{\rm{d}}q}}{{{\rm{d}}t}} = i $$

    因此式(2)亦可以写成

    $$v = M(q)i$$ (3)

    式(1)等价于式(2), 它们被称为电荷控制型忆阻器(A charge-controlled memristor, 简称荷控忆阻器)的构成关系式. 类似地, 磁通量控制型忆阻器(A flux-controlled memristor, 简称磁控忆阻器)也有如下的构成关系式

    $$q := \hat q(\varphi )$$ (4)

    其等价于电压控制型忆阻器, 即

    $$i = W(\varphi )v$$ (5)
    $$\frac{{{\rm{d}}\varphi }}{{{\rm{d}}t}} = v$$ (6)

    众所周知, 现今的计算机系统都采用冯·诺伊曼(Von Neumann)结构, 在这种结构的计算机中, 由于信息存储与信息处理的传递通道都由总线连接, 即指令和数据共享同一总线的结构, 使得信息存储与信息处理必然是分开的. 尽管目前计算机CPU运算处理速度增长非常快, 但CPU与内存之间的数据传输速度增长缓慢, 两者增长速度的极不匹配, 使信息流的传输速度成为制约计算机性能的瓶颈, 也制约了高性能计算机的发展. 因此, 研制兼具信息存储与信息处理功能的新型电子存储器件, 以支持信息存储与信息处理融合的非冯·诺伊曼结构的计算机研制, 就成为下一代高性能计算机发展的方向.

    人脑神经系统是由大量的神经元相互连接而形成的一种高度复杂、非线性、并行运行的信息处理系统, 人脑的神经元具有独特的突触可塑性, 能实现信息存储与信息处理的高效融合. 长期以来, 人们一直在探索人脑的工作机理, 期望通过模拟人脑的学习、记忆功能, 设计、研制出接近人类智能的信息处理系统, 以解决复杂实际问题, 最终实现真正的人工智能. 虽有大量的学者一直在从事这项工作, 但遗憾的是, 人类的这个愿望远没实现. 原因在于: 一方面, 人脑非常复杂, 人类至今没有完全认识人脑的结构也未破解人脑工作的机理; 另一方面, 由于半导体电子器件和电子材料研制滞后, 人类没有找到充当人工神经元突触的电子器件.

    忆阻器是一种具有记忆功能的非线性电阻器, 其阻值会随着通过它的电流强度的改变而改变, 并且能够维持相应电阻的特性, 这与生物神经元突触在生物电信号刺激下突触权重的变化特性十分相似. 因此, 忆阻器是现阶段模拟生物神经元突触最理想的元件, 可以用作人工神经元突触, 而且忆阻器是纳米尺寸, 具有更高的集成度, 在充当人工神经元突触方面具有其他元件无可比拟的优势, 从而使基于忆阻器的人工神经网络(Memristor-based neural networks, MNNs)迅速成为研究热点. 总之, 忆阻器作为一种新型的存储器件, 其特点类似于人脑神经元的突触, 能实现信息存储与信息处理的一体化功能, 为下一代计算机提供了一种全新的设计架构. 可以说, 忆阻神经网络的发明及其电路的研制, 为下一代非冯·诺伊曼结构的计算机的研制提供了物质条件.

    相比于传统的人工神经网络, 忆阻神经网络的优点表现为:

    具有自学习功能. 例如, 实现图像识别时, 只要先把许多不同的图像样板和对应的应识别的结果输入忆阻神经网络, 网络就会通过自学习功能, 慢慢学会识别类似的图像. 通过对历史数据的学习, 训练出一个具有归纳全部数据能力的特定的神经网络系统, 自学习功能对于预测有特别重要的意义.

    具有联想存储功能. 人工神经网络的反馈网络就可以实现这种联想存储功能.

    具有高速寻找优化解的能力. 寻找一个复杂问题的优化解, 是一个计算量非常大的求解过程, 而利用一个针对某问题而设计的反馈型人工神经网络, 发挥计算机的高速运算能力, 往往能很快找到优化解.

    具有非线性处理功能. 人脑的思维是非线性的, 忆阻神经网络能模拟人脑思维, 处理非线性问题.

    具有自适应性. 传统的神经网络电路常常不能处理新模式、新数据, 不能自我调节, 而基于忆阻器的神经网络对新模式、新数据具有很强的自适应性.

    忆阻神经网络由图2所示特大规模的集成电路(Very large scale integrated circuit, VLSI)来实现[10], 其中的连接权由忆阻器来实现. 在图2中, ${x_i}(t)$表示第$i$个子系统中电容器${C_i}$$t$时刻的电压; ${C_i},\; $$ {R_i}$分别表示其电容, 电阻; ${{\tau}} (t)$表示系统的传输时滞; ${f_j}({x_j}(t))$${g_j}({x_j}(t - {{\tau}} (t)))$分别表示神经元不含和含有时滞的激活函数, 它们都是有界连续函数; ${M_{fij}}$${M_{gij}}$分别表示函数${f_j}( \cdot )$${x_i}( \cdot )$之间的连接忆阻和函数${g_j}( \cdot )$${x_i}( \cdot )$之间的连接忆阻; ${a_i},\;{b_i}$为输出变量; ${I_i}$为外部输入.

    图 2  基于忆阻器的递归神经网络电路图[9]
    Fig. 2  Circuit of memristor-based recurrent network[9]

    于是, 由电路图2可知, 电流${I_{fij}},\;{I_{gij}} (i,\;j = $$ 1,\;2, \cdots ,\;n)$有如下关系式

    $$ \begin{array}{l} {I_{fij}} = sig{n_{ij}} \times ({f_j}({x_j}(t)) - {x_i}(t)){W_{fij}} \\ {I_{gij}} = sig{n_{ij}} \times ({g_j}({x_j}(t - {\rm{\tau}} (t))) - {x_i}(t)){W_{gij}} \end{array} $$

    这里${W_{fij}}$, ${W_{gij}}$表示忆阻${M_{fij}}$, ${M_{gij}}$的忆导, 即有

    $$ {W_{fij}} = \frac{1}{{{M_{fij}}}} ,\; {W_{gij}} = \frac{1}{{{M_{gij}}}} $$

    另外,

    $$sig{n_{ij}} = \left\{ {\begin{array}{*{20}{l}} {1,}&{i \ne j}\\ { - 1,}&{i = j} \end{array}} \right.$$

    因此, 根据物理学中的基尔霍夫(Kirchoff)电流定律, 得到基于忆阻器的递归神经网络第$i$个子系统的动力学方程

    $$ \begin{split} {C_i}&{{\dot x}_i} (t) + \frac{{{x_i}(t)}}{{{R_i}}}= \\ &\sum\limits_{j = 1}^n {({I_{fij}} + {I_{gij}})} + {I_i}= \\ &\sum\limits_{j = 1}^n {sig{n_{ij}} \times [{f_j}({x_j}(t)) - {x_i}(t)] {W_{fij}}} +\\ &\sum\limits_{j = 1}^n {sig{n_{ij}} \times [{g_j}({x_j}(t - {\rm{\tau}} (t))) - {x_i}(t)] {W_{gij}}} + {I_i} \\ &t \geq 0, \;i = 1,\;2, \cdots ,\;n \end{split} $$

    进而得到

    $$ \begin{split} {C_i}&{{\dot x}_i}(t) = \\ & -\left[\sum\limits_{j = 1}^n {({W_{fij}} + {W_{gij}}) \times sig{n_{ij}}} + \frac{1}{{{R_i}}}\right]{x_i}(t) +\\ & \sum\limits_{j = 1}^n {{W_{fij}}{f_j}({x_j}(t)) \times sig{n_{ij}}}+ \\ &\sum\limits_{j = 1}^n {{W_{gij}}{g_j}({x_j}(t - {\rm{\tau}} (t))) \times sig{n_{ij}}} + {I_i} \\ &t \geq 0, \;i = 1,\;2, \cdots ,\;n \end{split} $$ (7)

    将式(7)变形为

    $$ \begin{split} {{\dot x}_i}&(t)= \\ &- {d_i}({x_i}(t)){x_i}(t) + \sum\limits_{j = 1}^n {[{a_{ij}}({x_i}(t)){f_j}({x_j}(t))} +\\ & {b_{ij}}({x_i}(t)){g_j}({x_j}(t - {\rm{\tau}} (t)))] + {u_i}\\ &t \geq 0, \;i = 1,\;2, \cdots ,\;n \end{split} $$ (8)

    这里

    $$ \begin{split} & {d_i}({x_i}(t)) = \frac{1}{{{C_i}}}\left[\sum\limits_{j = 1}^n {({W_{fij}} + {W_{gij}}) \times sig{n_{ij}}} + \frac{1}{{{R_i}}}\right]\\ & {a_{ij}}({x_i}(t)) = \frac{{{W_{fij}}}}{{{C_i}}} \times sig{n_{ij}} \\ &{b_{ij}}({x_i}(t)) = \frac{{{W_{gij}}}}{{{C_i}}} \times sig{n_{ij}} \\ &{u_i} = \frac{{{I_i}}}{{{C_i}}} \end{split} $$

    由忆阻器的物理特性及其电流与电压之间的特性曲线图3, ${d_i}({x_i}(t))$, ${a_{ij}}({x_i}(t))$${b_{ij}}({x_i}(t))$随系统状态进行切换如下:

    图 3  忆阻器的电流—电压特性曲线
    Fig. 3  Typical current-voltage characteristics of a memristor
    $$ \begin{split} {d_i}({x_i}(t)) = &\left\{ \begin{aligned} &{d_i^*,\;\;\;\;\;\left| {{x_i}(t)} \right| < {T_i}\;\;} \\ &{d_i^{**},\;\;\;\,\left| {{x_i}(t)} \right| > {T_i}\;\;} \end{aligned} \right.\\ {a_{ij}}({x_i}(t)) = &\left\{ \begin{aligned} &{a_{ij}^*,\;\;\;\;\left| {{x_i}(t)} \right| < {T_i}\;\;} \\ & {a_{ij}^{**},\;\;\;\,\left| {{x_i}(t)} \right| > {T_i}\;\;} \end{aligned} \right.\\ {b_{ij}}({x_i}(t)) =& \left\{\begin{aligned} &{b_{ij}^*,\;\;\;\;\,\left| {{x_i}(t)} \right| < {T_i}\;\;} \\ &{b_{ij}^{**},\;\;\;\,\left| {{x_i}(t)} \right| > {T_i}\;\;} \end{aligned} \right.\\ i,\;j = &1,\;2, \cdots ,\;n\qquad\qquad\qquad \end{split}$$

    其中切换界值(也叫切换跳)${T_i} > 0$, $d_i^* > 0, \;d_i^{**} > 0, $$ \;a_{ij}^*,\;a_{ij}^{**},\;b_{ij}^*,\;b_{ij}^{**}$都是已知常数.

    此外, 给定式(8)的初始条件为${x_i}({{\theta}} ) = {{{\phi}} _i}({{\theta}} ), $$ \;\;{{\theta}} \in [ - {{{\tau}} _2},\;0]$, 这里 ${{{\phi}} _i}({{\theta}} ) \in {\cal{C}}([ - {{{\tau}} _2},\;0],\;{{{\bf{R}}}}).$

    为讨论的需要, 往往需对时变时滞${\rm{\tau}} (t)$和激活函数${f_j}( \cdot ),\;{g_j}( \cdot )$作一些假设:

    假设 1. 时变时滞${\rm{\tau}} (t)$满足

    $$ \begin{split} &0 \leq{{\rm{\tau}} _1} \leq {\rm{\tau}} (t) \leq {{\rm{\tau}} _2} < + \infty \\ & {{\rm{\mu}} _1} \leq \dot {\rm{\tau}} (t) \leq {{\rm{\mu}} _2} < + \infty \end{split}$$

    这里$0 \leq {{\rm{\tau}} _1} < {{\rm{\tau}} _2}$以及${{\rm{\mu}} _1} < {{\rm{\mu}} _2}$都是已知的常数.

    假设 2. 存在对角矩阵

    $$ {L^ - } = {\rm{diag}}(l_1^ - ,\;l_2^ - , \cdots ,\;l_n^ - ) $$
    $${L^ + } ={\rm{ diag}}(l_1^ + ,\;l_2^ + , \cdots ,\;l_n^ + )$$

    使得神经元激活函数${f_j}( \cdot )$满足

    $$\begin{split} &l_j^ - \leq \frac{{{f_j}(b) - {f_j}(a)}}{{b - a}} \leq l_j^ + \\ &j = 1,\;2, \cdots ,\;n \end{split} $$

    这里$a,\;b \in {{{\bf{R}}}},\; a \ne b,\;$${f_j}(0) = 0,\;$$l_j^ - ,\;l_j^ +$均为已知的实常数.

    注 1. 上面神经元激活函数${f_j}( \cdot )$满足的假设2中, $l_j^ - {\text{、}}\;l_j^ +$可正可负, 也可以等于零. 当$l_j^ - = 0, \; l_j^ + > $$ 0$时, 假设2所描述的激活函数${f_j}( \cdot )$单调不减; 当$0 < l_j^ - < l_j^ + $时, 假设2所描述的激活函数${f_j}( \cdot )$单调递增. 相比于文献[11], 这里激活函数的约束条件较弱, 从而使本文所讨论的系统具有更广泛的应用范围.

    应当说, 绝大多数文献中的时滞忆阻神经网络的数学模型都是式(8), 但也有一些文献所讨论的时滞忆阻神经网络的数学模型略有不同. 如文献[12-15], 其中的模型更为特殊简单, 其方程式为

    $$ \begin{split} {\dot x_i}(t) =& - {x_i}(t) + \sum\limits_{j = 1}^n { [{a_{ij}}({x_i}(t)){f_j}({x_j}(t))} +\\ & {b_{ij}}({x_i}(t)){g_j}({x_j}(t - {{\rm{\tau}} _{ij}}(t)))] + {u_i}\;\\ & t \geq 0,\;i = 1,\;2, \cdots ,\;n \end{split} $$ (9)

    又如文献[16], 其数学模型为

    $$ \begin{split} {\dot x_i}(t) =& - {d_i}{x_i}(t) + \sum\limits_{j = 1}^n {{a_{ij}}({x_i}(t) - {x_j}(t)){f_j}({x_j}(t))}+ \\ & \sum\limits_{j = 1}^n {{b_{ij}}({x_i}(t) - {x_j}(t)){g_j}({x_j}(t - {\rm{\tau}} (t)))} + {u_i}\;\; \\ &t \geq 0,\; i = 1,\;2, \cdots ,\;n \end{split} $$

    在文献[17]中, 提出了如下更一般化的模型

    $$\begin{split} \frac{{d{x_i}(t)}}{{dt}} =& - {d_i}{x_i}(t) + \sum\limits_{j = 1}^n [{a_{ij}}(f({x_j}(t)) -\\ &{x_i}(t))f({x_j}(t)) + {b_{ij}}(f({x_j}(t - {{{\tau}} _{ij}}(t))) -\\ &{x_i}(t))f({x_j}(t - {{{\tau}} _{ij}}(t)))] + {u_i}\\ & i = 1,\;2, \cdots ,\;n \end{split} $$

    注 2. 像式(9)这类离散时变时滞为${{\rm{\tau}} _{ij}}(t)$形式的模型, 此时的方程只能用分量表示, 而不能用向量或矩阵来表示, 如文献[18-20].

    注 3. 值得注意的是, 目前研究忆阻神经网络动力学行为的相关文献无一例外地直接给出模型的跳变律, 缺乏严谨的理论推导, 且不同文献给出的跳变律各不相同, 可谓五花八门. 主要原因是目前人们对忆阻器以及忆阻神经网络的研究仍处于探索阶段, 尚未形成共识, 存在一些争议. 比如, 关于忆阻神经网络的模型, 近来有学者Pershin 等在文献[21]中指出, 目前大量文献讨论的忆阻神经网络不具有忆阻元件的概念. 由此可见, 这是一个引起越来越多关注且有关问题尚无明确答案的研究领域, 期待更多后续研究和探索.

    此外, 文献中讨论的时滞忆阻神经网络模型的跳变律也有不同的表达方式. 不过, 总体上不影响其动力学行为的分析讨论.

    目前讨论的时滞忆阻神经网络系统, 以讨论离散时滞为主, 但也有分析一般混合时滞的MNNs, 具体见如下式(10). 这时方程中同时包含离散时滞、分布时滞和泄漏时滞, 当然, 这样问题变得更加复杂, 如文献[22].

    $$\left\{ \begin{aligned} {{\dot x}_i}(t) =& - {d_i}({x_i}(t)){x_i}(t - {{\delta}} (t))+ \\ & \sum\limits_{j = 1}^n {{a_{ij}}({x_i}(t)){f_j}({x_j}(t))}+ \\ &\sum\limits_{j = 1}^n {{b_{ij}}({x_i}(t)){f_j}({x_j}(t - {{\tau}} (t)))} +\\ &\sum\limits_{j = 1}^n {{c_{ij}}({x_i}(t))\int_{t - r(t)}^t {{f_j}({x_j}(s))ds} + {u_i}(t) } \\ {y_i}(t) = &{f_i}({x_i}(t)) + {f_i}({x_i}(t - {{\tau}} (t))),\;\;\;t \geq 0 \\ {x_i}({{\theta}} ) =\;& {{{\phi}} _i}({{\theta}} ),\;{{\theta}} \in [ - {{\rho}} ,\;0],\; {{\rho}} = \max \{ {{\delta}} ,\;{{\tau}} ,\;r\} \end{aligned} \right.$$ (10)

    其中${\rm{\delta}} (t),\;{\rm{\tau}} (t)$$r(t)$分别表示泄漏、离散和分布时滞, 它们满足

    $$ \begin{split} &0 \leq {\rm{\delta}} (t) \leq{\rm{\delta}} , \;\dot {\rm{\delta}} (t) \leq {{\rm{\delta}} _d}\\ & 0 \leq {\rm{\tau}} (t) \leq {\rm{\tau}} ,\; \dot {\rm{\tau}} (t) \leq {{\rm{\tau}} _d}\\ &0 \leq r(t) \leq r \end{split}$$

    这里${\rm{\delta}} ,\; {\rm{\tau}} ,\; r$以及${{\rm{\delta}} _d}, \;{{\rm{\tau}} _d}$都是已知的常数; ${{\rm{\phi}} _i}({\rm{\theta}} )$为初始函数, 它在区间$[ - {\rm{\rho}} ,\;0]$上连续可导.

    在式(10)中, 当${{\delta}} (t) \equiv 0$时, 退化为文献[15]所讨论的模型; 当$r(t) \equiv 0$时, 退化为文献[23-24]所讨论的模型.

    如前所述, 忆阻神经网络是一类状态依赖的切换系统, 其右端是不连续的, 经典的针对右端连续的微分方程的稳定性理论和方法对它已不再适用. 分析时滞忆阻神经网络系统的动力学行为与控制问题, 必须另辟蹊径. 就笔者所知, 目前处理这些问题的方法归纳起来, 主要有两种思路: 其一直接借助一些已有分析的技巧和方法来讨论研究, 如文献[17, 25-26]; 其二利用微分包含和集值映射理论, 在Filippov右端不连续稳定性理论[27-28]框架下分析时滞忆阻神经网络系统的动力学行为. 目前绝大多数文献采用的是第二种方法.

    下面以本文的式(8)为例, 简单叙述一下第二种方法, 其他时滞忆阻神经网络模型类似.

    为了解决这一问题, Filippov等从20世纪60年代开始研究, 建立了右端非连续微分方程的解, 即现在被称为Filippov意义下的解的定义, 并创立了一套非光滑分析理论, 包括集值映射[27, 29]、微分包含[28]等理论.

    根据集值映射及微分包含理论, 带有初始条件${x_i}({\rm{\theta}} ) = {{\rm{\phi}} _i}({\rm{\theta}} ),\;{\rm{\theta}} \in [ - {{\rm{\tau}} _2},\;0]$的式(8)在Filippov意义下的解${{x}}(t) = {[{x_1}(t),\;{x_2}(t), \cdots ,\;{x_n}(t)]^{\rm{T}}}$$[0,\;T]$($T$为一正常数)的任意子集$[{t_1},\;{t_2}]$上绝对连续, 并且有

    $$\left\{ \!\!\begin{aligned} &\begin{split} & {{\dot x}_i}(t)\! \in \!- co\{ d_i^*,\;d_i^{**}\} {x_i}(t)\! +\!\! \sum\limits_{j = 1}^n \!{co\{ a_{ij}^*,\;a_{ij}^{**}\} {f_j}({x_j}(t))}+ \\ &\qquad \sum\limits_{j = 1}^n {co\{ b_{ij}^*,\;b_{ij}^{**}\} {f_j}({x_j}(t - {\rm{\tau}} (t))) + {u_i}(t)} ,\;t \geq 0 \end{split} \\ & {{x_i}({\rm{\theta}} ) = {{\rm{\phi}} _i}({\rm{\theta}} ),\;{\rm{\theta}} \in [ - {{\rm{\tau}} _2},\;0],\;i = 1,\;2, \cdots ,\;n} \end{aligned} \right.$$ (11)

    或等价地, 对每一个$i,\;j = 1,\;2, \cdots ,\;n,$ 都有${\tilde d_i} \in $$ co\{ d_i^*,\,d_i^{**}\} ,\,{\tilde a_{ij}} \!\in\! co\{ a_{ij}^*,\,a_{ij}^{**}\} ,\, {\tilde b_{ij}} \!\in\! co\{ b_{ij}^*,\,b_{ij}^{**}\},$ 使得

    $$\left\{ \begin{aligned} & \begin{split} {{\dot x}_i}(t) =& - {{\tilde d}_i}({x_i}(t)){x_i}(t - {\rm{\delta}} (t))+ \\ &\sum\limits_{j = 1}^n {{{\tilde a}_{ij}}({x_i}(t)){f_j}({x_j}(t))} +\\ & \sum\limits_{j = 1}^n {{{\tilde b}_{ij}}({x_i}(t)){f_j}({x_j}(t - {\rm{\tau}} (t)))}+ \\ & {u_i}(t), \;t \geq 0 \end{split} \\ &\begin{split} {x_i}({\rm{\theta}} ) =\;& {{\rm{\phi}} _i}({\rm{\theta}} ),\;{\rm{\theta}} \in [ - {{\rm{\tau}} _2},\;0] \\ &i = 1,\;2, \cdots ,\;n \end{split} \end{aligned} \right.$$ (12)

    其中, $co\{ {\Pi _1},\;{\Pi _2}\}$表示由实数或实矩阵${\Pi _1}$${\Pi _2}$生成的凸闭包.

    为了方便分析问题, 常将式(11)和式(12)写成向量及矩阵的形式

    $$\left\{\begin{aligned} \dot {{x}}(t) \;\in\; & -co\{ {D^*},\;{D^{**}}\} {{x}}(t) + co\{ {A^*},\;{A^{**}}\} \times\\ & f({{x}}(t)) + co\{ {B^*},\;{B^{**}}\}\times \\ & f({{x}}(t - {\rm{\tau}} (t))) + {{u}}(t),\; t \geq 0\\ {{x}}({\rm{\theta}} ) =\;& {{\phi}} ({\rm{\theta}} ),\;{\rm{\theta}} \in [ - {{\rm{\tau}} _2},\;0] \end{aligned} \right.$$ (13)

    其中

    $$ \begin{split} &{D^*} = {(d_i^*)_{n \times n}},\;{D^{**}} = {(d_i^{**})_{n \times n}} \\ &{A^*} = {(a_{ij}^*)_{n \times n}},\;{A^{**}} = {(a_{ij}^{**})_{n \times n}}\\ &{B^*} = {(b_{ij}^*)_{n \times n}},\;{B^{**}} = {(b_{ij}^{**})_{n \times n}} \end{split} $$

    或等价地, 存在

    $$ \begin{split} &D \in co\{ {D^*},\;{D^{**}}\} ,\;A \in co\{ {A^*},\;{A^{**}}\} \\ &B \in co\{ {B^*},\;{B^{**}}\} \end{split} $$

    使得

    $$ \left\{ \begin{aligned} \dot {{x}}(t) =& - D{{x}}(t) + Af({{x}}(t))+ \\ & Bf({{x}}(t - {\rm{\tau}} (t))) + {{u}}(t), \;t \geq 0 \\ {{x}}({\rm{\theta}} ) =\;& {{\phi}} ({\rm{\theta}} ),\;{\rm{\theta}} \in [ - {{\rm{\tau}} _2},\;0]\end{aligned} \right. $$ (14)

    这里${{x}}(t) = {[{x_1}(t),\;{x_2}(t), \cdots ,\;{x_n}(t)]^{\rm{T}}}$为状态向量; $D = {\rm{diag}}({d_1},\;{d_2}, \cdots ,\;{d_n})$是实对角矩阵, 其中${d_i} > 0$${x_i}(t)$的自抑制; $A$$B$分别是反馈连接权矩阵和时滞反馈连接权矩阵; $f({{x}}(t)) = [{f_1}({x_1}(t)),\; $$ {f_2}({x_2}(t)), \cdots ,\;{f_n}({x_n}(t))]^{\rm{T}}$代表神经元激活函数; ${{u}}(t) = {\left( {{u_1}(t),\;{u_2}(t), \cdots ,\;{u_n}(t)} \right)^{\rm{T}}} \in {{{{\bf{R}}}}^n}$为外部输入向量; ${{\phi}} ({\rm{\theta}} ) = {[{{\rm{\phi}} _1}({\rm{\theta}} ),\;{{\rm{\phi}} _2}({\rm{\theta}} ), \cdots ,\;{{\rm{\phi}} _n}({\rm{\theta}} )]^{\rm{T}}}$为初值函数.

    这样, 时滞忆阻神经网络式(8)就转化为常规的时滞神经网络式(14). 相应地, 时滞忆阻神经网络的动力学分析与控制问题就变得容易处理了.

    基于忆阻器的时滞神经网络模型首次被Hu等[16]提出以来, 关于时滞忆阻神经网络的动力学行为, 例如, 平衡点的数目及分布、可控性、可观性、稳定性(含镇定)、吸引性、收敛性、周期震荡性、耗散性、无源性、一致性、鲁棒性、自适应性、状态估计、分岔和混沌、分形, 同步控制和跟踪控制, 除此之外, 还有同宿(异宿)轨道性态分析、滤波和状态边界分析等方面的研究, 已激发了国内外学者的浓厚兴趣, 并取得了丰硕的研究成果. 其中文献[16]被认为是国内外最早讨论时滞忆阻神经网络动力学行为的文献.

    研究基于忆阻器的神经网络系统的动力学行为及控制问题, 获得的相关结果可应用于基于忆阻器的新型电路的结构分析和调控, 进而有助于揭示不同材料制备的忆阻电路的内在动力学机理, 为新型电子存储材料研制和器件结构的研究提供理论指导.

    下面重点综述时滞忆阻神经网络系统的稳定性(镇定)、耗散性与无源性、同步控制等方面的内容.

    近年来, 随着忆阻神经网络系统在联想记忆、信号处理及人工智能等领域应用和推广, 国内外越来越多的科研工作者开始关注忆阻神经网络的动力学行为, 其中稳定与镇定问题最受重视. 众所周知, 系统稳定是实际的工程系统能够正常工作(运转)的前提条件, 也是人们设计控制系统和选择控制策略的最基本要求. 因此, 时滞忆阻神经网络的稳定性与镇定是控制科学与工程研究的一个重要分支.

    5.1.1   无限时间的稳定性与镇定

    自20世纪80年代以来, Lyapunov稳定性理论被成功地应用于神经网络系统稳定性与镇定分析, 并已取得了一系列的成果, 如文献[30-48]. 忆阻神经网络模型没有脱离神经网络模型的范畴, 所不同的是, 其连接权值由忆阻器的数学模型构成, 从而使忆阻神经网络成为一类由右端不连续的微分方程组成的特殊切换神经网络. 对于时滞MNNs稳定性与镇定的研究, 目前通用的方法是前述的第二种方法, 将时滞MNNs转化为通常的时滞神经网络进行稳定性分析与镇定研究.

    文献[49]针对具有时滞的忆阻神经网络, 提出基于M-矩阵的全局稳定充分性判据; Wen等在文献[20]分析了带有时变时滞的忆阻递归神经网络的指数稳定性问题, 借助于新构造的Lyapunov-Razumikhin函数, 获得了这类系统指数稳定的充分条件; Wu等[26]分析了一类时滞忆阻神经网络的全局指数稳定性和全局渐进稳定, 采用的分析方法不同于一般文献, 忆阻器的多端口效应没有被忽略, 而且所导出的代数判据容易实现; Zhang等[50]利用右端非连续微分方程的理论, 研究了一类带有混合时滞的MNNs动力学行为问题, 得到了保证其周期解存在以及周期解全局稳定的充分条件; 胡进等[51]研究了一类时滞忆阻递归神经网络全局一致渐进稳定问题, 得到了时滞相关一致渐进稳定的判据; 文献[52]研究了一类时滞忆阻递归神经网络可靠镇定问题; Zhang 等[53]研究了一类时变时滞惯性忆阻神经网络全局指数稳定性; Bao等[54]分析了一类忆阻递归神经网络的稳定性, 并讨论了其在联想记忆上的应用; Jiang等[19]讨论了一类时变时滞且同步切换的忆阻神经网络的全局指数稳定性问题; Li等[55]讨论了一类含时变时滞及泄漏项的反应—扩散忆阻神经网络的稳定性; 文献[56]研究了一类混合时滞的模糊忆阻神经网络指数镇定问题; Xiao等[57]讨论了一类时滞T-S模糊忆阻神经网络在拉格朗日意义下的稳定性问题; 文献[58]基于饱和数据抽样控制法, 研究了一类忆阻神经网络指数镇定问题.

    以上讨论的时滞MNNs系统都是确定系统, 没有考虑随机因素的影响. 在实际应用中, 忆阻神经网络通过一系列电阻、电容、忆阻器和放大器等电子器件实现. 一方面, 这些电子器件本身存在参数不确定性; 另一方面, 信号的储存以及神经元之间的突触传输都会受到随机因素(如噪声)的扰动. 因而, 分析时滞忆阻神经网络稳定性问题时, 需要考虑这些随机因素的影响, 应当说, 考虑随机因素的忆阻神经网络系统更接近实际系统. 王长弘等[59]运用Lyapunov泛函方法和随机分析方法, 研究了一类基于忆阻器的S-分布随机时滞神经网络的均方指数稳定性问题, 得到了该随机系统均方指数稳定的判据; Sakthivel等[60]研究了一类具有马尔科夫跳变和脉冲随机时滞神经网络指数稳定性问题; 2014年Li等[61]探讨了一类随机时滞忆阻神经网络的指数稳定性, 采用Lyapunov泛函和不等式的方法获得了其指数稳定的三个充分条件; Meng等[62]对一类随机混合时变时滞的忆阻递归神经网络稳定性进行分析, 得到了该系统基于线性矩阵不等式的均方渐进稳定和指数稳定的充分条件.

    5.1.2   有限时间的稳定性与镇定

    需要指出的是, 在已有关于各种时滞忆阻神经网络稳定与镇定的结果中, 以渐近稳定性或指数稳定及镇定控制问题, 即研究系统状态在无穷时间收敛到平衡点的问题居多. 随着有限时间控制概念的提出与发展, 时滞忆阻神经网络的有限时间稳定与有限时间镇定问题引起了学者重视, 也取得了一系列的结果.

    Cai等[63]研究了基于忆阻器的神经网络的有限时间镇定控制; Li等[64]讨论了一类马尔科夫跳变(跃迁概率部分已知)忆阻神经网络有限时间稳定性; Wang等[65]研究了时滞忆阻神经网络有限时间镇定和自适应控制问题; Sheng等[66]研究了一类含混合时滞的模糊忆阻神经网络拉格朗日意义下的指数稳定和有限时间的镇定问题, 借助于微分包含和比较策略, 得到了其全局指数稳定的充分条件.

    有限时间的镇定结果依赖于系统状态的初始时刻, 这极大地限制所得结果在实际中的应用. 为了避免这一局限, 在有限时间控制的基础上, 人们又提出了固定时间控制的概念[67], 固定时间的镇定不依赖系统状态的任何初始条件, 是完全独立的. 但笔者至今尚未见到有关时滞忆阻神经网络固定时间的镇定问题的结果, 是今后研究的一个方向.

    无源性作为耗散性的特例, 起源于电气网络理论, 广泛存在于物理学、电路系统、应用数学以及力学等学科领域. 在Kalman、Popov、Yakubovich和Willems等超稳定性、正实性等方面的大量工作基础上, 控制领域形成了系统的无源性和耗散性等相关理论. 在实践中, 通过采用Lyapunov方法, 无源性理论被广泛应用于非线性系统的分析和控制. 无源性的物理意义是它要求系统从外界吸收的能量要大于自身所提供的能量, 因此, 它能在本质特征上使系统保持内部稳定. 无源性在动力系统稳定性分析、混沌控制、同步、信号处理、模糊控制等方面具有广泛的应用.

    由于耗散性是比无源性更广泛的动力学性质, 因而时滞忆阻神经网络耗散性问题的研究比其无源性的研究更具有重要意义. 于是, 不少学者着手研究各种忆阻神经网络的无源性和耗散性问题. 文献[68]第一次将无源性分析理论应用到时变时滞的忆阻神经网络系统的无源性分析, 得到了该系统指数无源性判据; 文献[69]讨论了一类含不同忆导和时滞的忆阻BAM (Bidirectional associative memory)神经网络的无源性问题; 文献[70]研究了一类含泄漏时滞及两个额外时滞的忆阻神经网络耗散性与无源性问题; Cao等[71]讨论了一类时滞反应—扩散忆阻神经网络的无源性问题, 通过利用不等式技巧和建立适当的Lyapunov泛函, 得到了系统无源性的几个充分条件, 这些条件都是线性矩阵不等式形式表述, 易于验证; 文献[72]提出了一种倒数凸组合与Wirtinger积分不等式相结合的方法, 讨论了时滞忆阻神经网络的耗散性问题, 得到了时滞忆阻神经网络严格耗散的时滞依赖充分条件.

    近来文献[73-74]将广义耗散性概念应用于讨论一般的神经网络. 紧接着, Xiao等在文献[22]采纳一般的神经网络的广义耗散性概念, 研究了一类混合时滞的忆阻神经网络广义耗散性的问题, 并导出了系统广义耗散和无源的充分条件. Ding等[75]讨论了一类随机离散时间的时滞忆阻神经网络耗散性问题.

    然而, 正如文献[76]所指出, 神经网络的耗散性与无源性近期结果都是基于构造Lyapunov-Krasovskii (简称LK)泛函的方法. 依据LK泛函的方法所得结果, 其保守性可作为时滞相关判据优劣的重要指标, 但由于构造LK泛函缺乏一般性的方法, 完全有赖于研究者的经验, 使得文献上的判据不同程度存在保守性.

    由于忆阻器的不同, 使得时滞忆阻神经网络数学模型也不同, 分析这些时滞忆阻神经网络的耗散性与无源性问题的方法也迥异. 如何借助非光滑分析理论及Lyapunov方法开展时滞忆阻神经网络的耗散性与无源性研究, 得到时滞相关保守性更低的判据, 仍是一个开放问题.

    同步是自然界和社会生活中普遍存在的一种现象, 如萤火虫的同步发光现象, 蟋蟀、青蛙、知了的集体鸣叫等. 同步给人们的生产、生活既带来不利影响, 也带来有利影响. 比如, 英特网上不同的路由器以同步的方式发送消息会引发网络堵塞, 人的大脑内的神经元出现大规模同步放电会导致医学上痴痫症的发生; 混沌同步已被广泛应用于通信系统、激光以及神经元系统等多个领域. 因此, 同步问题成为目前复杂网络动力学的研究热点之一[77-78].

    众所周知, 忆阻神经网络是一种非常重要的非线性电路网络, 其在很多领域都有广泛的应用, 比如其混沌同步已在保密通信上获得应用[79-81], 在图形加密上也有应用[82]. 由于各种忆阻神经网络系统自身无法实现同步, 需要借助外部的力量, 为此人们提出了各种各样的控制方法和技术, 以实现上述网络系统的同步. 譬如, 自适应控制、模糊控制、脉冲控制、切换控制和间歇控制等.

    2014年Zhang等[81]采用非光滑分析, 研究了基于周期间歇控制的时滞忆阻神经网络的指数同步控制; Chen等[83]利用Lyapunov函数的方法分析了分数阶忆阻神经网络的稳定性和同步性; 田小敏等[84]研究了一类具有死区输入的分数阶混沌系统的有限时间同步问题; 2015年Wu等[85]采用了Lyapunov函数方法和不等式技术, 基于数据采样控制法研究一类时滞忆阻神经网络同步问题; Shi等[86]研究了一类忆阻器竞争时标神经网络的同步问题, 通过构造Lyapunov函数并采用微分包含理论, 设计了一个线性反馈同步控制器; Chandrasekar等[87]基于二阶倒数凸组合法, 研究了一类具有两个时滞的忆阻神经网络的同步问题; 文献[88]研究了一类带有不同时滞的忆阻递归神经网络的指数同步控制问题; 文献[89]运用鲁棒分析法, 讨论了一类时滞忆阻神经网络的同步控制问题; 文献[90]运用随机非线性脉冲控制法, 研究了时滞忆阻双向联想记忆神经网络同步问题; 谢涛[91]研究了带有时变时滞的忆阻神经网络同步问题, 通过运用菲利波夫解框架、微分包含理论、自适应控制技术, 用一种新颖的Lyapunov函数设计了驱动—响应系统的自适应同步规则, 获得了带有时滞的忆阻神经网络的自适应同步充分条件; Song等[92]基于驱动—响应的概念和随机微分包含理论, 研究了混合时滞随机忆阻递归神经网络的同步性; 文献[93] 基于非光滑分析和随机微分包含理论, 研究了时变时滞随机忆阻神经网络的同步控制问题.

    同样地, 在时滞忆阻神经网络的同步控制中, 也存在有限(固定)时间的同步控制问题, 即有限(固定)时间内实现同步, 如文献[94-98]. 应当说, 有限(固定)时间的同步控制比无穷时间的同步控制更实用.

    在动力系统分析中, 关于同步的定义有很多种, 除了前述的通常同步、滞后同步和有限时间同步外, 还有完全同步(Complete synchronization), 反同步(Anti-synchronization)、相位同步(Phase synchronization)、函数投影同步(Function projective synchronization)、聚类同步(Cluster synchronization)、向前同步(Anticipated synchronization)、广义同步(Generalized synchronization)、间歇滞后同步(Intermittent lag synchronization)等等. 自然地, 时滞忆阻神经网络的同步控制也涵盖这些类型, 限于篇幅, 这里不再赘述.

    为了得到时滞忆阻神经网络保守性更低的动力学行为的结果, 研究者首先需要搞清楚时滞相关判据的保守性的存在原因. 总的来说, 笔者认为, 结果的保守性主要来自两个方面: 一是LK泛函的构造仍不合理, 二是所构造的LK泛函对时间的导数被过度放大或LK泛函对时间导数的上确界没找到. 因此, 为了得到保守性更低的动力学行为判据, 构造一个恰当的LK泛函就尤为重要. 而为了构造一个适当的LK泛函, 有两种途径: 一是通过在状态指标项里增加时滞项来扩充LK泛函, 二是通过分割时滞区间来构造LK泛函, 但不存在一般性的构造方法. 此外, 就是巧妙处理所构造的LK泛函对时间的导数. 处理这个问题有两个主要办法: 利用各种积分不等式和增加自由权矩阵. 通常情况下, 可以通过引入零等式和S过程的方法来增加自由权矩阵. 如何通过在LK泛函的状态指标项里(如三次积分)增加一些时滞项来构建LK泛函, 仍然是个值得探索的问题. 并且, 在新构造的LK泛函中, 怎样有效地增加自由权矩阵和利用最新的积分不等式寻找更低保守性的结果, 依然是个有趣的挑战.

    上面主要综述了时滞忆阻神经网络的稳定性与镇定、耗散性与无源性和同步控制等动力学行为, 应该说, 这几个方面研究得比较充分, 取得了丰硕成果. 但如前所述, 时滞忆阻神经网络的动力学行为包括很多方面的内容, 其中不乏有至今无人研究的方面, 如可控性、可观性和解耦等, 另外, 有些方面研究也处于起步阶段, 成果非常有限, 仍值得人们去探索. 下面对时滞忆阻神经网络其他方面的研究作简单综述.

    Guo等[17]分析了时滞忆阻细胞神经的不变形和吸引性, 得到该系统有界和全局吸引的充分条件, 同时指出, n阶基于忆阻器的细胞神经网络位于分段线性激活函数饱和区域内的平衡点个数为${2^{2{n^2} + n}}$, 这个数量是不含忆阻器的细胞神经网络平衡点的${2^{2{n^2}}}$倍, 使得基于忆阻器的细胞神经网络的存储能力急剧增大, 从理论上解释了忆阻神经网络具有强大的存储能力. 文献[99]借助M-矩阵理论、微分包含理论和Mawhin-like收敛定理, 证明了一类时变时滞的忆阻Cohen-Grossberg神经网络的网络系统周期解的存在性. 文献[100]讨论了一类离散时滞忆阻神经网络H状态估计问题. Liu等[101] 研究了一类随机时滞离散忆阻神经网络H状态估计问题; Rakkiyappan等[102]基于无源性理论, 讨论了一类时滞忆阻递归神经网络状态估计问题; Li等[103]研究了一类时滞分数阶的忆阻神经网络非脆弱的状态估计; Liu等[104]解决了一类混合时滞离散忆阻神经网络H状态估计问题; Xiao等[105]提出了一类时滞忆阻神经系统模型, 讨论了其稳定性和分岔问题, 特别是分岔问题的解决丰富了时滞忆阻神经系统动力分岔的研究.

    除了整数阶的忆阻神经网络, 近期人们转向分数阶的忆阻神经网络的动力学行为研究. 当然, 分数阶的忆阻神经网络比整数阶复杂, 需要更深奥的分数阶的微积分的数学知识. Chen等[83]借助Lyapunov方法研究了基于忆阻器的分数阶神经网络的Mittag-Leffler稳定性和同步问题; 文献[84]研究了一类分数阶忆阻神经网络有限时间同步问题; 张玮玮等[106]研究了一类基于忆阻器分数阶时滞神经网络的修正投影同步问题; Rakkiyappan等[107]借助广义Gronwall不等式和Laplace变换研究了分数阶复数值的忆阻神经网络的有限时间稳定性问题; Wu等[108]研究了一类分数阶的忆阻神经网络全局Mittag-Leffler镇定问题.

    起初, 人们研究的时滞忆阻神经网络都是一阶的, 最近有学者开始研究高阶(二阶)时滞忆阻神经网络, 即带有惯性项的时滞忆阻神经网络, 如Zhang等在文献[109-110] 中, 建立了一类二阶时滞忆阻神经网络数学模型. 对于高阶(二阶)忆阻神经网络的动力学行为的分析, 一般都采用降阶法, 如文献[109, 111-117]. 近期学者开始寻找新的方法讨论这类问题, 这种新方法直接处理高阶(二阶)忆阻神经网络而不需要降阶, 所以称之为非降阶法, 如文献[110, 118-119]. Tu等[112]用降阶方法讨论了一类二阶中立型惯性忆阻神经网络的全局耗散性问题; Wang等[113]采用降阶法研究了一类二阶混合时滞的惯性神经网络全局拉格朗日稳定; Huang等[115]借助降阶法, 通过数据抽样控制, 研究了一类二阶惯性忆阻神经网络的有限时间的同步控制问题. 文献[110]采用非降阶法讨论了一类带惯性项的二阶时滞忆阻神经网络全局镇定问题, 通过构造新的Lyapunov泛函和设计状态反馈控制器, 得到了使其全局镇定的判据; Zhang等[119]基于非光滑分析、Lyapunov稳定性理论和自适应控制理论, 运用非降阶法讨论了一类二阶混合时滞忆阻神经网络的镇定问题, 得到了保证这类系统全局镇定的一些新结论. 笔者认为, 非降阶法优于降阶法, 降阶法借助变量代换来实现, 变量代换处理这种右端不连续的忆阻神经网络系统, 得到的结果严密性会弱一些.

    此外, 鉴于忆阻多层神经网络(Memristive multilayer neural networks, MMNN)在逻辑运算、图像处理、模式识别等领域应用前景十分广阔[120-122], 人们的研究也由忆阻单层神经网络转向忆阻多层神经网络[123-125]. 不过, 忆阻多层神经网络设计目前仍然是一个难题.

    笔者最近从事网络系统的自适应容错跟踪控制[126-127]及有限时间的一致性控制[128-129]等方面的研究, 希望下一步将这些控制推广到时滞忆阻神经网络系统, 得到相应的结果.

    基于忆阻器的人工神经网络具有一般人工神经网络无法比拟的优点, 设计满足人们实际需要的忆阻神经网络是一项重要的工作. 为了完成这项工作, 必须搞清忆阻神经网络系统的动力学行为. 由于忆阻神经网络不同于常规的神经网络, 它是状态依赖的切换系统, 其右端是非连续的, 加上时滞的存在, 大大增加了动力学行为的分析难度, 导致人类对忆阻神经网络动力学的研究仍然处于初级阶段, 至今还没有一个完善的普适性理论分析其动力学行为特性.

    本文综述了基于忆阻器的时滞神经网络动力学与控制问题, 重点综述了其稳定性、耗散性与无源性和同步控制问题. 事实上, 时滞忆阻神经网络动力学行为包括很多方面, 如可控性、可观性、稳定性(含镇定)、吸引性、收敛性、周期震荡性、耗散性、无源性、一致性、鲁棒性、自适应性、状态估计、分岔和混沌、分形, 同步控制和跟踪控制, 还有同宿轨道性态分析、滤波等方面.

    人工神经网络理论发展至今, 已经日趋成熟, 其硬件上的实现有望构成非冯·诺伊曼结构的计算机系统. 由于晶体管工艺的局限性, 传统计算机系统中基于晶体管的集成电路体积已经缩小到了极限, 很难再继续满足摩尔定律. 用新型材料的电路设备取代晶体管已成为必然, 也是研究热点. 忆阻器作为最有希望取代晶体管的新型设备之一, 具有许多优良的性质, 比如非易失性、高集成度、低功耗、良好的可扩展性等, 被用来研发新型的存储器和神经计算系统. 忆阻单层神经网络在芯片上的实现有望彻底改变计算机处理信息的方式, 构建非冯·诺伊曼计算机系统. 而忆阻多层神经网络应用十分广泛, 可用于逻辑运算、图像处理、模式识别等领域. 不过忆阻多层神经网络设计仍然是一个难题.

    目前, 国内外关于忆阻器的研究主要集中在三个方面: 1)忆阻器的制造技术, 即寻找经济、实惠的材料制造具有忆阻特性的器件; 2)由忆阻器构建的系统的动力学分析及其控制; 3)将各种忆阻器配置到传统的电路中, 构建满足人们需要的忆阻电路.

    随着实现忆阻功能的模型与机理的不断提出, 忆阻器已在模型分析、基础电路设计、电子器件和集成电路设计以及生物神经记忆行为仿真等领域崭露头角. 我们充分相信, 随着更多忆阻模型与机理不断建立和揭示, 相关结果必将给忆阻器和忆阻网络系统的应用带来广阔的前景. 我们认为, 对忆阻器和忆阻神经网络系统更深入的研究, 将为电路、信息材料、人工智能等领域带来新的发展机遇.

  • 图  1  四个基本二端电路元件关系图

    Fig.  1  The four fundamental two-terminal circuit elements

    图  2  基于忆阻器的递归神经网络电路图[9]

    Fig.  2  Circuit of memristor-based recurrent network[9]

    图  3  忆阻器的电流—电压特性曲线

    Fig.  3  Typical current-voltage characteristics of a memristor

    表  1  四类忆阻器

    Table  1  Four classes of memristors

    种类电流控制型电压控制型
    理想型忆阻器$v = M(q)i$$i = W(\varphi )v$
    $\dfrac{ {{\rm{d}}q} }{ {{\rm{d}}t} } = i$$\dfrac{ {{\rm{d}}\varphi } }{ {{\rm{d}}t} } = v$
    理想通用型忆阻器$v = M(x)i$$i = W(x)v$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x)i$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x)v$
    通用型忆阻器$v = M(x)i$$i = W(x)v$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x,i)$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x,v)$
    拓展型忆阻器$\begin{align} v = M(x,i)i \\ M(x,0) \ne \infty \end{align}$$\begin{align} i = W(x,v)v \\ W(x,v) \ne 0 \end{align}$
    $\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = f(x,i)$$\dfrac{ {{\rm{d}}x} }{ {{\rm{d}}t} } = g(x,v)$
    下载: 导出CSV
  • [1] Chua L. Memristor−The missing circuit element. IEEE Transactions on Circuit Theory, 1971, 18(5): 507−519 doi: 10.1109/TCT.1971.1083337
    [2] Strukov D B, Snider G S, Stewart D R, Williams R S. The missing memristor found. Nature, 2008, 453(7191): 80−83 doi: 10.1038/nature06932
    [3] Tour J M, He T. Electronics: The fourth element. Nature, 2008, 453(7191): 42−43 doi: 10.1038/453042a
    [4] Borghetti J, Snider G S, Kuekes P J, Yang J J, Stewart D R, Williams R S. ‘Memristive’ switches enable ‘stateful’ logic operations via material implication. Nature, 2010, 464(7290): 873−876 doi: 10.1038/nature08940
    [5] Chua L O, Kang S M. Memristive devices and systems. Proceedings of the IEEE, 1976, 64(2): 209−223 doi: 10.1109/PROC.1976.10092
    [6] 王小平, 沈轶, 吴计生, 孙军伟, 李薇. 忆阻及其应用研究综述. 自动化学报, 2013, 39(8): 1170−1184

    Wang Xiao-Ping, Shen Yi, Wu Ji-Sheng, Sun Jun-Wei, Li Wei. Review on memristor and its applications. Acta Automatica Sinica, 2013, 39(8): 1170−1184
    [7] Chua L. Everything you wish to know about memristors but are afraid to ask. Radioengineering, 2015, 24(2): 319−368 doi: 10.13164/re.2015.0319
    [8] 缪向水, 李祎, 孙华军, 薛堪豪. 忆阻器导论. 北京: 科学出版社, 2018.

    Miao Xiang-Shui, Li Yi, Sun Hua-Jun, Xue Kan-Hao. Introduction to Memristor. Beijing: Science Press, 2018.
    [9] Wen S P, Zeng Z G, Huang T W. Dynamic behaviors of memristor-based delayed recurrent networks. Neural Computing and Applications, 2013, 23(3−4): 815−821 doi: 10.1007/s00521-012-0998-y
    [10] Bartolozzi C, Indiveri G. Synaptic dynamics in analog VLSI. Neural Computation, 2007, 19(10): 2581−2603 doi: 10.1162/neco.2007.19.10.2581
    [11] Zhang B Y, Xu S Y, Lam J. Relaxed passivity conditions for neural networks with time-varying delays. Neurocomputing, 2014, 142: 299−306 doi: 10.1016/j.neucom.2014.04.031
    [12] Wu A L, Zeng Z G. Lagrange stability of memristive neural networks with discrete and distributed delays. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(4): 690−703 doi: 10.1109/TNNLS.2013.2280458
    [13] Wu A L, Zeng Z G. Dynamic behaviors of memristor-based recurrent neural networks with time-varying delays. Neural Networks, 2012, 36: 1−10 doi: 10.1016/j.neunet.2012.08.009
    [14] Zhang G D, Shen Y. New algebraic criteria for synchronization stability of chaotic memristive neural networks with time-varying delays. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(10): 1701−1707 doi: 10.1109/TNNLS.2013.2264106
    [15] Wu H Q, Han X M, Wang L F, Wang Y, Fang B L. Exponential passivity of memristive neural networks with mixed time-varying delays. Journal of the Franklin Institute, 2016, 353(3): 688−712 doi: 10.1016/j.jfranklin.2015.10.023
    [16] Hu J, Wang J. Global uniform asymptotic stability of memristor-based recurrent neural networks with time delays. In: Proceedings of the 2010 International Joint Conference on Neural Networks (IJCNN). Barcelona, Spain: IEEE, 2010. 1−8
    [17] Guo Z Y, Wang J, Yan Z. Attractivity analysis of memristor-based cellular neural networks with time-varying delays. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(4): 704−717 doi: 10.1109/TNNLS.2013.2280556
    [18] Duan S K, Wang H M, Wang L D, Huang T W, Li C D. Impulsive effects and stability analysis on memristive neural networks with variable delays. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(2): 476−481 doi: 10.1109/TNNLS.2015.2497319
    [19] Jiang Y L, Li C D. Globally exponential stability of memristive neural networks with time-varying delays and synchronous switching. Acta Automatica Sinica, 2017, 43(8): 1465−1469
    [20] Wen S P, Zeng Z G, Huang T W. Exponential stability analysis of memristor-based recurrent neural networks with time-varying delays. Neurocomputing, 2012, 97: 233−240 doi: 10.1016/j.neucom.2012.06.014
    [21] Pershin Y V, Di Ventra M. On the validity of memristor modeling in the neural network literature. Neural Networks, 2020, 121: 52−56 doi: 10.1016/j.neunet.2019.08.026
    [22] Xiao J Y, Zhong S M. Extended dissipative conditions for memristive neural networks with multiple time delays. Applied Mathematics and Computation, 2018, 323: 145−163 doi: 10.1016/j.amc.2017.11.053
    [23] Xiao J Y, Zhong S M, Li Y T. New passivity criteria for memristive uncertain neural networks with leakage and time-varying delays. ISA Transactions, 2015, 59: 133−148 doi: 10.1016/j.isatra.2015.09.008
    [24] Xiao J Y, Zhong S M, Li Y T. Improved passivity criteria for memristive neural networks with interval multiple time-varying delays. Neurocomputing, 2016, 171: 1414−1430 doi: 10.1016/j.neucom.2015.07.075
    [25] Wang L M, Shen Y. Finite-time stabilizability and instabilizability of delayed memristive neural networks with nonlinear discontinuous controller. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(11): 2914−2924 doi: 10.1109/TNNLS.2015.2460239
    [26] Wu A L, Zeng Z G. Algebraical criteria of stability for delayed memristive neural networks. Advances in Difference Equations, 2015, 2015(1): Article No. 111
    [27] Aubin J P, Cellina A. Differential Inclusions: Set-Valued Maps and Viability Theory. Berlin Heidelberg: Springer, 1984.
    [28] Filippov A F. Differential Equations With Discontinuous Righthand Sides. Dordrecht: Kluwer, 1988.
    [29] Aubin J P, Frankowska H. Set-valued Analysis. Boston: Birkhäuser, 2009.
    [30] Zhang H G, Wang Z S, Liu D R. A comprehensive review of stability analysis of continuous-time recurrent neural networks. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(7): 1229−1262 doi: 10.1109/TNNLS.2014.2317880
    [31] Zeng Z G, Zheng W X. Multistability of neural networks with time-varying delays and concave-convex characteristics. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(2): 293−305 doi: 10.1109/TNNLS.2011.2179311
    [32] Zhang H G, Shan Q H, Wang Z S. Stability analysis of neural networks with two delay components based on dynamic delay interval method. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(2): 259−267 doi: 10.1109/TNNLS.2015.2503749
    [33] Wu Z G, Lam J, Su H Y, Chu J. Stability and dissipativity analysis of static neural networks with time delay. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(2): 199−210 doi: 10.1109/TNNLS.2011.2178563
    [34] 钟守铭, 刘碧森, 王晓梅, 范小明. 神经网络稳定性理论. 北京: 科学出版社, 2008.

    Zhong Shou-Ming, Liu Bi-Sen, Wang Xiao-Mei, Fan Xiao-Ming. Stability Theory of Neural Networks. Beijing: Science Press, 2008.
    [35] Liao X X, Yu P. Absolute Stability of Nonlinear Control Systems (Second Edition). Dordrecht: Springer, 2008.
    [36] Tu Z W, Cao J D, Hayat T. Global exponential stability in Lagrange sense for inertial neural networks with time-varying delays. Neurocomputing, 2016, 171: 524−531 doi: 10.1016/j.neucom.2015.06.078
    [37] Wang L, Chen T. Multiple μ-stability of neural networks with unbounded time-varying delays. Neural Networks, 2014, 53: 109–118
    [38] Li T, Fei S M, Guo Y Q, Zhu Q. Stability analysis on Cohen-Grossberg neural networks with both time-varying and continuously distributed delays. Nonlinear Analysis: Real World Applications, 2009, 10(4): 2600−2612 doi: 10.1016/j.nonrwa.2008.04.003
    [39] Shi K B, Zhu H, Zhong S M, Zeng Y, Zhang Y P. Less conservative stability criteria for neural networks with discrete and distributed delays using a delay-partitioning approach. Neurocomputing, 2014, 140: 273−282 doi: 10.1016/j.neucom.2014.03.012
    [40] He Y, Liu G P, Rees D. New delay-dependent stability criteria for neural networks with time-varying delay. IEEE Transactions on Neural Networks, 2007, 18(1): 310–314
    [41] Arik S. A note on the global stability of dynamical neural networks. IEEE Transactions on Circuits and Systems: I: Fundamental Theory and Applications, 2002, 49(4): 502−504 doi: 10.1109/81.995665
    [42] Muralisankar S, Manivannan A, Balasubramaniam P. Mean square delay dependent-probability-distribution stability analysis of neutral type stochastic neural networks. ISA Transactions, 2015: 11–19
    [43] Zhang X M, Han Q L. Global asymptotic stability for a class of generalized neural networks with interval time-varying delay. IEEE Transactions on Neural Networks, 2011, 22(8): 1180−1192 doi: 10.1109/TNN.2011.2147331
    [44] Zeng H B, He Y, Wu M, Zhang C F. Complete delay-decomposing approach to asymptotic stability for neural networks with time-varying delays. IEEE Transactions on Neural Networks, 2011, 22(5): 806−812 doi: 10.1109/TNN.2011.2111383
    [45] Kwon O M, Park M J, Lee S M, Park J H, Cha E J. Stability for neural networks with time-varying delays via some new approaches. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(2): 181−193 doi: 10.1109/TNNLS.2012.2224883
    [46] He Y, Wu M, She J H. An improved global asymptotic stability criterion for delayed cellular neural networks. IEEE Transactions on Neural Networks, 2006, 17(1): 250–252
    [47] Liang X B, Yamaguchi T. Necessary and sufficient condition for absolute exponential stability of hopfield-type neural networks. IEICE Transactions on Information and Systems E Series D, 1996, 79(7): 990−993
    [48] Liao X F, Liu Y B, Guo S T, Mai H H. Asymptotic stability of delayed neural networks: A descriptor system approach. Communications in Nonlinear Science and Numerical Simulation, 2009, 14(7): 3120−3133 doi: 10.1016/j.cnsns.2008.12.001
    [49] 段飞腾, 崔宝同. 基于忆阻器时滞神经网络的全局稳定性新判据. 计算机工程, 2015, 41(7): 210−214 doi: 10.3969/j.issn.1000-3428.2015.07.040

    Duan Fei-Teng, Cui Bao-Tong. New criterion for global stability based on memristor time delay neural network. Computer Engineering, 2015, 41(7): 210−214 doi: 10.3969/j.issn.1000-3428.2015.07.040
    [50] Zhang G D, Shen Y, Yin Q, Sun J W. Global exponential periodicity and stability of a class of memristor-based recurrent neural networks with multiple delays. Information Sciences, 2013, 232: 386−396 doi: 10.1016/j.ins.2012.11.023
    [51] 胡进, 宋乾坤. 基于忆阻的时滞神经网络的全局稳定性. 应用数学和力学, 2013, 34(7): 724−735 doi: 10.3879/j.issn.1000-0887.2013.07.007

    Hu Jin, Song Qian-Kun. Global uniform asymptotic stability of memristor-based recurrent neural networks with time delays. Applied Mathematics and Mechanics, 2013, 34(7): 724−735 doi: 10.3879/j.issn.1000-0887.2013.07.007
    [52] Mathiyalagan K, Anbuvithya R, Sakthivel R, Park J H, Prakash P. Reliable stabilization for memristor-based recurrent neural networks with time-varying delays. Neurocomputing, 2015, 153: 140−147 doi: 10.1016/j.neucom.2014.11.043
    [53] Zhang W, Huang T W, He X, Li C D. Global exponential stability of inertial memristor-based neural networks with time-varying delays and impulses. Neural Networks, 2017, 95: 102−109 doi: 10.1016/j.neunet.2017.03.012
    [54] Bao G, Chen Y Y, Wen S Y, Lai Z C. Stability analysis for memristive recurrent neural network and its application to associative memory. Acta Automatica Sinica, 2017, 43(12): 2244−2252
    [55] Li R X, Cao J D. Stability analysis of reaction-diffusion uncertain memristive neural networks with time-varying delays and leakage term. Applied Mathematics and Computation, 2016, 278: 54−69 doi: 10.1016/j.amc.2016.01.016
    [56] Sheng Y, Lewis F L, Zeng Z G. Exponential stabilization of fuzzy memristive neural networks with hybrid unbounded time-varying delays. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(3): 739−750 doi: 10.1109/TNNLS.2018.2852497
    [57] Xiao Q, Zeng Z G. Lagrange stability for T-S fuzzy memristive neural networks with time-varying delays on time scales. IEEE Transactions on Fuzzy Systems, 2018, 26(3): 1091−1103 doi: 10.1109/TFUZZ.2017.2704059
    [58] Ding S B, Wang Z S, Rong N N, Zhang H G. Exponential stabilization of memristive neural networks via saturating sampled-data control. IEEE Transactions on Cybernetics, 2017, 47(10): 3027−3029 doi: 10.1109/TCYB.2017.2711496
    [59] 王长弘, 王林山. 基于忆阻器的S-分布时滞随机神经网络的均方指数稳定性. 山东大学学报(理学版), 2016, 51(5): 130−135, 142

    Wang Chang-Hong, Wang Lin-Shan. Mean square exponential stability of memristor-based stochastic neural networks with S-type distributed delays. Journal of Shandong University (Natural Science), 2016, 51(5): 130−135, 142
    [60] Sakthivel R, Raja R, Anthoni S M. Exponential stability for delayed stochastic bidirectional associative memory neural networks with Markovian jumping and impulses. Journal of Optimization Theory and Applications, 2013, 158(1): 251−273 doi: 10.1007/s10957-011-9817-3
    [61] Li J, Hu M F, Guo L X. Exponential stability of stochastic memristor-based recurrent neural networks with time-varying delays. Neurocomputing, 2014, 138: 92−98 doi: 10.1016/j.neucom.2014.02.042
    [62] Meng Z D, Xiang Z R. Stability analysis of stochastic memristor-based recurrent neural networks with mixed time-varying delays. Neural Computing and Applications, 2017, 28(7): 1787−1799 doi: 10.1007/s00521-015-2146-y
    [63] Cai Z W, Huang L H, Zhu M X, Wang D S. Finite-time stabilization control of memristor-based neural networks. Nonlinear Analysis: Hybrid Systems, 2016, 20: 37−54 doi: 10.1016/j.nahs.2015.12.001
    [64] Li R, Cao J. Finite-time stability analysis for Markovian jump memristive neural networks with partly unknown transition probabilities. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(12): 2924−2935
    [65] Wang L M, Shen Y, Zhang G D. Finite-time stabilization and adaptive control of memristor-based delayed neural networks. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(11): 2648−2659
    [66] Sheng Y, Lewis F L, Zeng Z G, Huang T W. Lagrange stability and finite-time stabilization of fuzzy memristive neural networks with hybrid time-varying delays. IEEE Transactions on Cybernetics, 2020, 50(7): 2959−2970 doi: 10.1109/TCYB.2019.2912890
    [67] Polyakov A. Nonlinear feedback design for fixed-time stabilization of linear control systems. IEEE Transactions on Automatic Control, 2012, 57(8): 2106−2110 doi: 10.1109/TAC.2011.2179869
    [68] Wen S P, Zeng Z G, Huang T W, Chen Y R. Passivity analysis of memristor-based recurrent neural networks with time-varying delays. Journal of the Franklin Institute, 2013, 350(8): 2354−2370 doi: 10.1016/j.jfranklin.2013.05.026
    [69] Anbuvithya R, Mathiyalagan K, Sakthivel R, Prakash P. Passivity of memristor-based BAM neural networks with different memductance and uncertain delays. Cognitive Neurodynamics, 2016, 10(4): 339−351 doi: 10.1007/s11571-016-9385-1
    [70] Fu Q H, Cai J Y, Zhong S M, Yu Y B. Dissipativity and passivity analysis for memristor-based neural networks with leakage and two additive time-varying delays. Neurocomputing, 2018, 275: 747−757 doi: 10.1016/j.neucom.2017.09.014
    [71] Cao Y Y, Cao Y T, Wen S P, Huang T W, Zeng Z G. Passivity analysis of delayed reaction-diffusion memristor-based neural networks. Neural Networks, 2019, 109: 159−167 doi: 10.1016/j.neunet.2018.10.004
    [72] 张芬, 李智. 基于忆阻时滞神经网络的耗散研究. 工程科学与技术, 2017, 49(3): 129−136

    Zhang Fen, Li Zhi. Dissipativity research on memristor-based neural networks with time-varying delays. Advanced Engineering Sciences, 2017, 49(3): 129−136
    [73] Lee T H, Park M J, Park J H, Kwon O M, Lee S M. Extended dissipative analysis for neural networks with time-varying delays. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(10): 1936−1941 doi: 10.1109/TNNLS.2013.2296514
    [74] Jin L, He Y, Jiang L, Wu M. Extended dissipativity analysis for discrete-time delayed neural networks based on an extended reciprocally convex matrix inequality. Information Sciences, 2018, 462: 357−366 doi: 10.1016/j.ins.2018.06.037
    [75] Ding S B, Wang Z S, Zhang H G. Dissipativity analysis for stochastic memristive neural networks with time-varying delays: A discrete-time case. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(3): 618−630 doi: 10.1109/TNNLS.2016.2631624
    [76] Kwon O M, Park M J, Park J H, Lee S M, Cha E J. Passivity analysis of uncertain neural networks with mixed time-varying delays. Nonlinear Dynamics, 2013, 73(4): 2175−2189 doi: 10.1007/s11071-013-0932-6
    [77] Pecora L M, Carroll T L. Synchronization in chaotic systems. Physical Review Letters, 1990, 64(8): 821−824 doi: 10.1103/PhysRevLett.64.821
    [78] Wang X F. Complex networks: Topology, dynamics and synchronization. International Journal of Bifurcation and Chaos, 2002, 12(5): 885−916 doi: 10.1142/S0218127402004802
    [79] 刘洋, 彭良玉, 董胡. 统一混沌系统同步及其保密通信. 计算机工程与应用, 2008, 44(3): 133−135 doi: 10.3778/j.issn.1002-8331.2008.03.042

    Liu Yang, Peng Liang-Yu, Dong Hu. Synchronization of unified chaotic system and secure communication. Computer Engineering and Applications, 2008, 44(3): 133−135 doi: 10.3778/j.issn.1002-8331.2008.03.042
    [80] 许碧荣. 蔡氏混沌系统网络的混沌同步及其保密通信. 信息与控制, 2010, 39(1): 54−58, 65 doi: 10.3969/j.issn.1002-0411.2010.01.010

    Xu Bi-Rong. Chaotic synchronization of network of Chua′ s chaotic system and its applications to secure communication. Information and Control, 2010, 39(1): 54−58, 65 doi: 10.3969/j.issn.1002-0411.2010.01.010
    [81] Zhang G D, Shen Y. Exponential synchronization of delayed memristor-based chaotic neural networks via periodically intermittent control. Neural Networks, 2014, 55(7): 1−10
    [82] Chen W H, Luo S X, Zheng W X. Impulsive synchronization of reaction-diffusion neural networks with mixed delays and its application to image encryption. IEEE Transactions on Neural Networks and Learning Systems, 2016, 27(12): 2696−2710 doi: 10.1109/TNNLS.2015.2512849
    [83] Chen J J, Zeng Z G, Jiang P. Global Mittag-leffler stability and synchronization of memristor-based fractional-order neural networks. Neural Networks, 2014, 51(3): 1−8
    [84] 田小敏, 费树岷, 柴琳. 具有死区输入的分数阶混沌系统的有限时间同步(英文). 控制理论与应用, 2015, 32(9): 1240−1245 doi: 10.7641/CTA.2015.50247

    Tian Xiao-Min, Fei Shu-Min, Chai Lin. Finite-time synchronization of fractional-order chaotic systems by considering dead-zone phenomenon. Control Theory & Applications, 2015, 32(9): 1240−1245 doi: 10.7641/CTA.2015.50247
    [85] Wu H Q, Li R X, Wei H Z, Zhang X W, Yao R. Synchronization of a class of memristive neural networks with time delays via sampled-data control. International Journal of Machine Learning and Cybernetics, 2015, 6(3): 365−373 doi: 10.1007/s13042-014-0271-z
    [86] Shi Y C, Zhu P Y. Synchronization of memristive competitive neural networks with different time scales. Neural Computing and Applications, 2014, 25(5): 1163−1168 doi: 10.1007/s00521-014-1598-9
    [87] Chandrasekar A, Rakkiyappan R, Cao J D, Lakshmanan S. Synchronization of memristor-based recurrent neural networks with two delay components based on second-order reciprocally convex approach. Neural Networks, 2014, 57: 79−93 doi: 10.1016/j.neunet.2014.06.001
    [88] Zhang R M, Zeng D Q, Park J H, Zhong S M, Yu Y B. Novel discontinuous control for exponential synchronization of memristive recurrent neural networks with heterogeneous time-varying delays. Journal of the Franklin Institute, 2018, 355(5): 2826−2848 doi: 10.1016/j.jfranklin.2018.01.018
    [89] Yang X S, Ho D W C. Synchronization of delayed memristive neural networks: Robust analysis approach. IEEE Transactions on Cybernetics, 2016, 46(12): 3377−3387 doi: 10.1109/TCYB.2015.2505903
    [90] Mathiyalagan K, Park J H, Sakthivel R. Synchronization for delayed memristive BAM neural networks using impulsive control with random nonlinearities. Applied Mathematics and Computation, 2015, 259: 967−979 doi: 10.1016/j.amc.2015.03.022
    [91] 谢涛. 基于自适应控制的忆阻神经网络同步研究. 西南大学学报(自然科学版), 2018, 40(5): 178−184

    Xie Tao. Synchronization of memristive neural networks with delays based on adaptive control. Journal of Southwest University (Natural Science Edition), 2018, 40(5): 178−184
    [92] Song Y F, Wen S P. Synchronization control of stochastic memristor-based neural networks with mixed delays. Neurocomputing, 2015, 156: 121−128 doi: 10.1016/j.neucom.2014.12.077
    [93] 沈君, 楼旭阳. 变时滞随机忆阻器神经网络的同步控制. 计算机系统应用, 2016, 25(4): 23−28

    Shen Jun, Lou Xu-Yang. Synchronization control of stochastic memristor-based neural networks with time-varying delays. Computer Systems & Applications, 2016, 25(4): 23−28
    [94] Abdurahman A, Jiang H J, Teng Z D. Finite-time synchronization for memristor-based neural networks with time-varying delays. Neural Networks, 2015, 69: 20−28 doi: 10.1016/j.neunet.2015.04.015
    [95] Cao J D, Li R X. Fixed-time synchronization of delayed memristor-based recurrent neural networks. Science China Information Sciences, 2017, 60(3): Article No. 032201
    [96] Wang J Y, Zhang H G, Wang Z S, Gao D W. Finite-time synchronization of coupled hierarchical hybrid neural networks with time-varying delays. IEEE Transactions on Cybernetics, 2017, 47(10): 2995−3004 doi: 10.1109/TCYB.2017.2688395
    [97] Jiang M, Wang S, Mei J, Shen Y. Finite-time synchronization control of a class of memristor-based recurrent neural networks. Neural Networks, 2014, 63: 133−140
    [98] Haliding X, Jiang H J, Abdurahman A, Hu C. Fixed-time lag synchronization analysis for delayed memristor-based neural networks. Neural Processing Letters, 2020, 52(1): 485−509 doi: 10.1007/s11063-020-10249-0
    [99] 王有刚, 武怀勤. 时滞忆阻Cohen-Grossberg神经网络周期解的存在性. 西华大学学报(自然科学版), 2017, 36(5): 22−30, 35 doi: 10.3969/j.issn.1673-159X.2017.05.004

    Wang You-Gang, Wu Huai-Qin. Existence of periodic solutions for memristive Cohen-Grossberg neural networks with delays. Journal of Xihua University (Natural Science Edition), 2017, 36(5): 22−30, 35 doi: 10.3969/j.issn.1673-159X.2017.05.004
    [100] Ding S B, Wang Z S, Wang J D, Zhang H G. H state estimation for memristive neural networks with time-varying delays: The discrete-time case. Neural Networks, 2016, 84: 47−56 doi: 10.1016/j.neunet.2016.08.002
    [101] Liu H J, Wang Z D, Shen B, Alsaadi F E. H state estimation for discrete-time memristive recurrent neural networks with stochastic time-delays. International Journal of General Systems, 2016, 45(5): 633−647 doi: 10.1080/03081079.2015.1106731
    [102] Rakkiyappan R, Chandrasekar A, Laksmanan S, Park J H. State estimation of memristor-based recurrent neural networks with time-varying delays based on passivity theory. Complexity, 2014, 19(4): 32−43 doi: 10.1002/cplx.21482
    [103] Li R X, Gao X B, Cao J D. Non-fragile state estimation for delayed fractional-order memristive neural networks. Applied Mathematics and Computation, 2019, 340: 221−233 doi: 10.1016/j.amc.2018.08.031
    [104] Liu H J, Wang Z D, Shen B, Dong H L. Delay-distribution-dependent H state estimation for discrete-time memristive neural networks with mixed time-delays and fading measurements. IEEE Transactions on Cybernetics, 2020, 50(2): 440−451 doi: 10.1109/TCYB.2018.2862914
    [105] Xiao M, Zheng W X, Jiang G P, Cao J D. Qualitative analysis and bifurcation in a neuron system with memristor characteristics and time delay. IEEE Transactions on Neural Networks and Learning Systems, 2020, PP(99): 1−15 doi: 10.1109/TNNLS.2020.2995631
    [106] 张玮玮, 陈定元, 吴然超, 曹进德. 一类基于忆阻器分数阶时滞神经网络的修正投影同步. 应用数学和力学, 2018, 39(2): 239−248

    Zhang Wei-Wei, Chen Ding-Yuan, Wu Ran-Chao, Cao Jin-De. Modified projective synchronization of memristor-based fractional-order delayed neural networks. Applied Mathematics and Mechanics, 2018, 39(2): 239−248
    [107] Rakkiyappan R, Velmurugan G, Cao J D. Finite-time stability analysis of fractional-order complex-valued memristor-based neural networks with time delays. Nonlinear Dynamics, 2014, 78(4): 2823−2836 doi: 10.1007/s11071-014-1628-2
    [108] Wu A L, Zeng Z G. Global Mittag-Leffler stabilization of fractional-order memristive neural networks. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(1): 206−217 doi: 10.1109/TNNLS.2015.2506738
    [109] Zhang G D, Zeng Z G, Hu J H. New results on global exponential dissipativity analysis of memristive inertial neural networks with distributed time-varying delays. Neural Networks, 2018, 97: 183−191 doi: 10.1016/j.neunet.2017.10.003
    [110] Zhang G D, Hu J H, Zeng Z G. New criteria on global stabilization of delayed memristive neural networks with inertial item. IEEE Transactions on Cybernetics, 2020, 50(6): 2770−2780 doi: 10.1109/TCYB.2018.2889653
    [111] Rakkiyappan R, Premalatha S, Chandrasekar A, Cao J D. Stability and synchronization analysis of inertial memristive neural networks with time delays. Cognitive Neurodynamics, 2016, 10(5): 437−451 doi: 10.1007/s11571-016-9392-2
    [112] Tu Z W, Cao J D, Alsaedi A, Alsaadi F. Global dissipativity of memristor-based neutral type inertial neural networks. Neural Networks, 2017, 88: 125−133 doi: 10.1016/j.neunet.2017.01.004
    [113] Wang J F, Tian L X. Global Lagrange stability for inertial neural networks with mixed time-varying delays. Neurocomputing, 2017, 235: 140−146 doi: 10.1016/j.neucom.2017.01.007
    [114] Li N, Zheng W X. Synchronization criteria for inertial memristor-based neural networks with linear coupling. Neural Networks, 2018, 106: 260−270 doi: 10.1016/j.neunet.2018.06.014
    [115] Huang D S, Jiang M H, Jian J G. Finite-time synchronization of inertial memristive neural networks with time-varying delays via sampled-date control. Neurocomputing, 2017, 266: 527−539 doi: 10.1016/j.neucom.2017.05.075
    [116] Rakkiyappan R, Kumari E U, Chandrasekar A, Krishnasamy R. Synchronization and periodicity of coupled inertial memristive neural networks with supremums. Neurocomputing, 2016, 214: 739−749 doi: 10.1016/j.neucom.2016.06.061
    [117] Guo Z Y, Gong S Q, Huang T W. Finite-time synchronization of inertial memristive neural networks with time delay via delay-dependent control. Neurocomputing, 2018, 293: 100−107 doi: 10.1016/j.neucom.2018.03.004
    [118] Li X Y, Li X T, Hu C. Some new results on stability and synchronization for delayed inertial neural networks based on non-reduced order method. Neural Networks, 2017, 96: 91−100 doi: 10.1016/j.neunet.2017.09.009
    [119] Zhang G D, Zeng Z G. Stabilization of second-order memristive neural networks with mixed time delays via nonreduced order. IEEE Transactions on Neural Networks and Learning Systems, 2020, 31(2): 700−706 doi: 10.1109/TNNLS.2019.2910125
    [120] Hu X F, Feng G, Duan S K, Liu L. A Memristive multilayer cellular neural network with applications to image processing. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(8): 1889−1901 doi: 10.1109/TNNLS.2016.2552640
    [121] Tang Z R, Zhu R H, Hu R H, Chen Y H, Wu E Q, Wang H, et al. A multilayer neural network merging image preprocessing and pattern recognition by integrating diffusion and drift memristors. IEEE Transactions on Cognitive and Developmental Systems, 2020, PP(99): 1−1 doi: 10.1109/TCDS.2020.3003377
    [122] Yang L, Zeng Z G, Huang Y, Wen S P. Memristor-based circuit implementations of recognition network and recall network with forgetting stages. IEEE Transactions on Cognitive and Developmental Systems, 2018, 10(4): 1133−1142 doi: 10.1109/TCDS.2018.2859303
    [123] Wen S P, Xie X D, Yan Z, Huang T W, Zeng Z G. General memristor with applications in multilayer neural networks. Neural Networks, 2018, 103: 142−149 doi: 10.1016/j.neunet.2018.03.015
    [124] Zhang Y, Wang X P, Friedman E G. Memristor-based circuit design for multilayer neural networks. IEEE Transactions on Circuits and Systems I: Regular Papers, 2018, 65(2): 677−686 doi: 10.1109/TCSI.2017.2729787
    [125] Wen S P, Xiao S X, Yang Y, Yan Z, Zeng Z G, Huang T W. Adjusting learning rate of memristor-based multilayer neural networks via fuzzy method. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2019, 38(6): 1084−1094 doi: 10.1109/TCAD.2018.2834436
    [126] Song Y D, Wang Y J, Wen C Y. Adaptive fault-tolerant PI tracking control with guaranteed transient and steady-state performance. IEEE Transactions on Automatic Control, 2017, 62(1): 481−487 doi: 10.1109/TAC.2016.2554362
    [127] Song Y D, Huang X C, Wen C Y. Tracking control for a class of unknown nonsquare MIMO nonaffine systems: A deep-rooted information based robust adaptive approach. IEEE Transactions on Automatic Control, 2016, 61(10): 3227−3233 doi: 10.1109/TAC.2015.2508741
    [128] Wang Y J, Song Y D, Krstic M, Wen C Y. Fault-tolerant finite time consensus for multiple uncertain nonlinear mechanical systems under single-way directed communication interactions and actuation failures. Automatica, 2016, 63: 374−383 doi: 10.1016/j.automatica.2015.10.049
    [129] Song Y D, Wang Y J, Holloway J, Krstic M. Time-varying feedback for regulation of normal-form nonlinear systems in prescribed finite time. Automatica, 2017, 83: 243−251 doi: 10.1016/j.automatica.2017.06.008
  • 期刊类型引用(9)

    1. 肖敏,陆云翔,虞文武,郑卫新. 神经网络分岔动力学综述. 自动化学报. 2025(01): 72-89 . 本站查看
    2. 赵一飞,曹梦亭,褚佳奕,崔铠亭,章联生. 一类区间时滞忆阻神经网络的稳定性控制. 北京石油化工学院学报. 2024(02): 60-68 . 百度学术
    3. 陶斌斌,肖敏,蒋国平. 链式神经网络动力学及其与环状结构、星型结构对比分析. 控制理论与应用. 2024(09): 1588-1597 . 百度学术
    4. 文天赐,方勇纯,卢彪. 采用神经网络的双吊车自适应防摆控制. 自动化学报. 2023(01): 111-121 . 本站查看
    5. 赵杰梅,张卓毅. 时滞惯性忆阻神经网络的可达集估计研究. 华中科技大学学报(自然科学版). 2023(05): 101-105 . 百度学术
    6. 梁荣富,林朝光,李泽亮,王柱,王天雷. 基于BP神经网络的球头铣刀恒力切削控制方法研究. 机电工程技术. 2023(06): 151-154 . 百度学术
    7. 刘青松,李明鹏,柴利. 具有遗忘个体的社会网络多维观点动力学分析与应用. 自动化学报. 2023(10): 2201-2210 . 本站查看
    8. 程铁栋,胡玮剑,杨丽荣,尹宝勇,林鹏. 基于变容二极管的忆阻PID自适应控制系统设计. 电子元件与材料. 2022(01): 104-110 . 百度学术
    9. 何海滨,胡元发,郭志方,刘小洋. 惯性忆阻神经网络固定时间抗干扰聚类同步控制. 控制理论与应用. 2022(11): 2168-2176 . 百度学术

    其他类型引用(22)

  • 加载中
图(3) / 表(1)
计量
  • 文章访问数:  1718
  • HTML全文浏览量:  909
  • PDF下载量:  542
  • 被引次数: 31
出版历程
  • 收稿日期:  2020-08-28
  • 录用日期:  2020-12-14
  • 网络出版日期:  2021-01-11
  • 刊出日期:  2021-04-23

目录

/

返回文章
返回