2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于人机信息交互的助行外骨骼机器人技术进展

明东 蒋晟龙 王忠鹏 綦宏志 万柏坤

刘小明, 唐少虎, 朱凤华, 陈兆盟. 基于MFD的城市区域过饱和交通信号优化控制. 自动化学报, 2017, 43(7): 1220-1233. doi: 10.16383/j.aas.2017.c160250
引用本文: 明东, 蒋晟龙, 王忠鹏, 綦宏志, 万柏坤. 基于人机信息交互的助行外骨骼机器人技术进展. 自动化学报, 2017, 43(7): 1089-1100. doi: 10.16383/j.aas.2017.c160032
LIU Xiao-Ming, TANG Shao-Hu, ZHU Feng-Hua, CHEN Zhao-Meng. Urban Area Oversaturated Traffic Signal Optimization Control Based on MFD. ACTA AUTOMATICA SINICA, 2017, 43(7): 1220-1233. doi: 10.16383/j.aas.2017.c160250
Citation: MING Dong, JIANG Sheng-Long, WANG Zhong-Peng, QI Hong-Zhi, WAN Bai-Kun. Review of Walk Assistant Exoskeleton Technology:Human-machine Interaction. ACTA AUTOMATICA SINICA, 2017, 43(7): 1089-1100. doi: 10.16383/j.aas.2017.c160032

基于人机信息交互的助行外骨骼机器人技术进展

doi: 10.16383/j.aas.2017.c160032
基金项目: 

国家自然科学基金 91520205

国家自然科学基金 91648122

国家自然科学基金 81630051

详细信息
    作者简介:

    蒋晟龙 天津大学精密仪器与光电子工程学院博士研究生.主要研究方向为康复机器人, 神经肌肉电刺激.E-mail:justinjiang@tju.edu.cn

    王忠鹏 天津大学精密仪器与光电子工程学院硕士研究生.主要研究方向为神经肌肉电刺激.E-mail:wzp2468@126.com

    綦宏志 天津大学精密仪器与光电子工程学院副教授.主要研究方向为生物医学信号处理, 神经工程, 脑-机接口.E-mail:qhz@tju.edu.cn

    万柏坤 天津大学精密仪器与光电子工程学院教授.主要研究方向为生物医学信息检测与医学仪器, 模式识别与特征提取算法, 神经工程与康复医学, 脑机交互及人工智能设备.E-mail:bkwan@tju.edu.cn

    通讯作者:

    明东 天津大学精密仪器与光电子工程学院教授.主要研究方向为神经工程, 康复工程, 脑机接口和生物医学信息处理.本文通信作者. E-mail:richardming@tju.edu.cn

Review of Walk Assistant Exoskeleton Technology:Human-machine Interaction

Funds: 

National Natural Science Foundation of China 91520205

National Natural Science Foundation of China 91648122

National Natural Science Foundation of China 81630051

More Information
    Author Bio:

      Ph. D. candidate at the College of Precision Instruments & Optoelectronics Engineering, Tianjin University. His research interest covers rehabilitation robot and neuromuscular electrical stimulation

      Master student at the College of Precision Instruments & Optoelectronics Engineering, Tianjin University. His main research interest is neuromuscular electrical stimulation

      Associate professor at the College of Precision Instruments & Optoelectronics Engineering, Tianjin University. His research interest covers biomedical signal processing, neuroengineering, and braincomputer interface

      Professor at the College of Precision Instruments & Optoelectronics Engineering, Tianjin University. His research interest covers biomedical information detection & medical instrument, pattern recognition & feature extraction algorithm, neuroengineering & rehabilitation medicine, braincomputer interface, and artiflcial intelligence equipment

    Corresponding author: MING Dong  Professor at the College of Precision Instruments & Optoelectronics Engineering, Tianjin University. His research interest covers neural engineering, rehabilitation engineering, brain-computer interface and biomedical information processing. Corresponding author of this paper. E-mail:richardming@tju.edu.cn
  • 摘要: 外骨骼机器人是集人体信息检测、机器人自动控制、神经工程等多学科知识于一身的高科技成果.本文简要介绍了外骨骼机器人研发技术现状和应用市场前景,分别从外骨骼动力驱动和运动测量技术角度剖析了支撑典型外骨骼机器人实现其运动辅助功能的主要技术基础,重点从神经信息交互角度出发,讨论了构建人机信息交互环路中的技术瓶颈,以及如何更为高效准确地获取人体运动意图.最后展望了其未来技术研发方向.
  • 传统发电调控框架在保持多区域互联大电网的系统有功平衡, 维持系统频率稳定等方面发挥了重要作用.随着相关研究的不断深入, 传统发电调控框架逐渐发展成为存在三种不同时间尺度问题的调控框架[1-2]: 1)机组组合(Unit commitment, UC)[3-4]; 2)经济调度(Economic dispatch, ED)[5]; 3)自动发电控制(Automatic generating control, AGC)和发电指令调度(Generation command dispatch, GCD)[6-9].然而, 传统发电调控框架在以下方面可以改善: 1)在传统发电调控框架中, 较长时间尺度下调控有可能导致不准确控制指令的产生.同时, 不同时间尺度调控之间存在的不协调问题有可能导致反向调节现象的产生. 2)在传统发电调控框架中, UC和ED问题解决是以下一时间段负荷预测结果作为条件, 而实时AGC和GCD却是基于AGC机组特性所得指令.从长时间尺度的角度来看, AGC和GCD做出的控制结果并不是一个最优的控制结果. 3)一般情况下, 不同时间尺度下的优化目标均不相同.因此, 无论是对长期还是短期而言, 仅依据这些优化结果做出的调控指令, 都不是最优的.

    研究者为了解决传统框架中存在的部分问题, 提出了大量集成算法或集成框架.文献[10]提出针对微电网实时调度的AGC和ED集成方法.文献[11]研究了考虑含有AGC仿射索引过程的鲁棒经济调度.文献[12]从优化的角度, 将ED和AGC控制器相结合.然而, 这些算法均不能完整地对传统发电调控框架进行改善.

    强化学习(Reinforcement learning, RL), 又称再励学习、评价学习, 既可看作是人工智能领域中一种重要的机器学习方法, 也被认为是属于马尔科夫决策过程(Markov decision process, MDP)和动态优化方法的一个独立分支.互联电网AGC是一个动态多级决策问题, 其控制过程可视为马尔科夫决策过程.文献[13]针对微电网孤岛运行模式下新能源发电强随机性导致的系统频率波动, 提出基于多智能体相关均衡强化学习(Correlated equilibrium Q ($\lambda$), CEQ ($\lambda$))的微电网智能发电控制方法.文献[14]针对非马尔科夫环境下火电占优的互联电网AGC控制策略, 引入随机最优控制中Q($\lambda$)学习的"后向估计"原理, 有效解决火电机组大时滞环节带来的延时回报问题.然而, 这些方法的采用均没有从整体上对传统发电调控框架进行改善.

    为了完整地解决传统发电调控框架中存在的问题, 本文提出一种实时经济调度与控制(Real-time economic generation dispatch and control, REG)框架替代传统的发电控制框架.除此之外, 为适应REG框架, 还提出一种懒惰强化学习(Lazy reinforcement learning, LRL)算法.由于懒惰强化学习算法是一种需要大量数据的算法, 所提算法需要大量数据进行训练.因此, 采用基于人工社会-计算实验-平行执行(Artificial societies-Computational experiments-Parallel execution, ACP)和社会系统的平行系统, 在短时间内产生大量数据以适应所提算法的需要.文献[15]提出基于ACP的平行系统进行社会计算的理论.文献[16]提出一种可用于信息和控制的基于信息-物理系统和ACP的分散自治系统.平行系统或平行时代的理论已经被应用到很多领域, 例如, 平行管理系统[17]、区块链领域[18]、机器学习[19]和核电站安全可靠性的分析[20]等.在一个实际系统中, 社会目标也被考虑在CPS中, 也可称为信息物理社会融合系统(CPSS)[21]; 同时, CPS的概念中应当加入社会系统, 即"智能电网"或"能源互联网"[22].

    因此, 基于REG框架的控制方法是一种适用于互联大电网发电调度和控制的统一时间尺度的调控方法.

    虽然采用基于ACP和社会系统的平行系统可以快速获取海量的数据, 但是这些数据中既存在调控效果较好的数据, 也有调控效果较差的数据.为了解决这一问题, 设计了一种选择算子对有利于LRL训练的数据进行筛选保留.另外, 由于AGC机组存在大量约束限制.设计了一种松弛算子对优化结果进行限制.

    为了对比人工神经网络(Artificial neural network, ANN)和LRL的调控效果, 本文设计了一种基于人工神经网络和松弛算子结合的松弛人工神经网络算法(Relaxed artificial neural network, RANN).本文提出的LRL算法的特性归纳如下:

    1) 作为一种统一时间尺度的控制器, 从长远角度来看, LRL可以避免不同时间尺度需要协同调控问题.

    2) 为LRL设计了一个强化网络, 可为一个区域的所有AGC机组提供多个输出.且采用松弛机满足AGC机组的约束.

    3) 懒惰学习的控制策略可以采用从平行系统不断产生的海量数据进行在线更新.这有利于LRL进行训练.

    图 1所示, 传统发电调控框架包含UC, ED, AGC和GCD四个过程.

    图 1  传统发电调控框架
    Fig. 1  Framework of conventional generation control

    UC负责制定长期(1天)的机组开停和有功出力计划; 然后ED重新制定短期(15分钟)所有已开启的机组的发电指令; 最后AGC和GCD为所有AGC机组再次重新制定实时发电指令.

    1.1.1   机组组合模型

    UC的目标是在给定时间周期内制定出最优的机组开停和生产出力计划.因此, UC问题是一个随机混合0-1整数规划问题, 可以采用优化算法进行求解.

    UC问题的优化目标是使总发电成本最低, UC问题的约束包括:有功平衡约束、热备用约束、有功出力限制约束以及发电机调节比率约束, 其目标函数表达式及约束条件为

    $ \begin{align} &\min \sum\limits_{t = 1}^T {\sum\limits_{j = 1}^{{J_i}} {[{F_j}({P_{j, t}}){u_{j, t}} + S{U_{j, t}}(1 - {u_{j, t - 1}}){u_{j, t}}]} }\notag\\ &\, \mathrm{s.t.} \begin{cases} \sum\limits_{j = 1}^{{J_i}} {{P_{j, t}}{u_{j, t}} = P{D_{i, t}}} \\[1mm] \sum\limits_{j = 1}^{{J_i}} {P_j^{\max }{u_{j, t}} \ge P{D_{i, t}} + S{R_{i, t}}} \\[1mm] {u_{j, t}}P_j^{\min } \le {P_{j, t}} \le {u_{j, t}}P_j^{\max }\\[1mm] 0 \le {P_{j, t}} - {P_{j, (t - 1)}} \le P_j^{{\rm{up}}}\\[1mm] 0 \le {P_{j, t}} - {P_{j, (t - 1)}} \le P_j^{{\rm{down}}} \end{cases} \end{align} $

    (1)

    其中, $T$为给定时间周期内的时间断面的个数, 一般设定为24; $J_i$为第$i$个区域内的发电机组个数; $u_{j, t}$为第$j$个发电机组在第$t$时间断面的状态, $u_{j, t}$取值为1或0, 分别代表机组开启和关停状态; 总发电成本包括燃料成本$F_j(P_{j, t})$和启动成本$SU_{j, t}$; $P{D_{i, t}}$为第$i$个区域内在第$t$时间段内的负荷需求总量; $P_j^{\min }$和$P_j^{\max }$分别为在第$i$区域的第$j$个发电机组的有功出力的最小值和最大值; $S{R_{i, t}}$为第$i$个区域内在第$t$时间段内所需的热备用容量; $P_j^{{\rm{up}}}$和$P_j^{{\rm{down}}}$分别为第$j$台发电机组的上调和下调的最大幅度限制; $T_j^{\min\mbox{-}\rm{up}}$为第$j$个发电机组的持续开启时间的最小值; $T_j^{\min\mbox{-}\rm{dowm}}$为第$j$个发电机组的持续停机时间的最小值.

    燃料成本$F_j(P_{j, t})$, 启动成本$SU_{j, t}$以及约束$u_{j, t}$的计算公式如下:

    $ {F_j}({P_{j, t}}) = {a_j} + {b_j}{P_{j, t}} + {c_j}P_{j, t}^2 $

    (2)

    $ \begin{align} &S{U_{j, t}} =\notag\\ &\ \ \ \begin{cases} S{U_{{\rm{H}}, j}}, & T_j^{{\rm{min\mbox{-}down}}} \le T_{j, t}^{{\rm{up}}} \le T_j^{{\rm{min\mbox{-}down}}} + T_j^{{\rm{cold}}}\\ S{U_{{\rm{C}}, j}}, &T_{j, t}^{{\rm{down}}} > T_j^{{\rm{min\mbox{-}down}}} + T_j^{{\rm{cold}}} \end{cases} \end{align} $

    (3)

    $ \begin{align} \begin{cases} T_{j}^{{\rm{up}}} \geq T_j^{\min\mbox{-}{\rm{up}}}\\ T_{j}^{{\rm{down}}} \geq T_j^{\min\mbox{-}{\rm{down}}} \end{cases} \end{align} $

    (4)

    其中, $P_{j, t}$为第$j$台发电机组在第$t$个时间断面时的有功出力; $a_j$, $b_j$和$c_j$分别是发电成本的常数因子, 一次项因子和二次项因子; $T_{j}^{{\rm{up}}}$和$T_{j}^{{\rm{down}}}$分别为第$j$台发电机组开启和关停的累积时间; $T_j^{{\rm{cold}}}$是第$j$台发电机组从完全关停状态进行冷启动所需的时间; $SU_{H, j}$和$SU_{C, j}$分别为第$j$台发电机组进行热启动和冷启动所需的成本.

    1.1.2   经济调度模型

    ED采用优化算法从经济角度重新制定发电命令.通常ED的优化目标包括两部分:经济目标和碳排放目标.将两种优化目标进行线性权重结合, 得到最终的ED的模型如下:

    $ \begin{align} &\min {F_{{\rm{total}}}} = \sum\limits_{j = 1}^{{J_i}} {(\omega F_j^{\rm{e}}({P_j}) + (1 - \omega )F_j^{\rm{c}}({P_j}))}\notag \\ &\, \mathrm{s.t.}\begin{cases} P{D_i} - \sum\limits_{j = 1}^{{J_i}} {{P_j} = 0} \\ P_j^{\min } \le {P_j} \le P_j^{\max }\\ {P_{j, t}} - {P_{j, t - 1}} \le P_j^{{\rm{up}}}\\ {P_{j, t - 1}} - {P_{j, t}} \le P_j^{{\rm{down}}} \end{cases} \end{align} $

    (5)

    其中, $PD_i$为第$i$个区域的系统总负荷量, $\omega$为经济目标权重.

    经济目标和碳排放目标具体表达如下:

    $ \begin{align} F_{{\rm{total}}}^{\rm{e}} = \sum\limits_{j = 1}^{{J_i}} {F_j^{\rm{e}}} ({P_j}) = \sum\limits_{j = 1}^{{J_i}} {({c_j}P_j^2 + {b_j}{P_j} + {a_j})} \end{align} $

    (6)

    $ \begin{align} F_{{\rm{total}}}^{\rm{c}} = \sum\limits_{j = 1}^{{J_i}} {F_j^{\rm{c}}} ({P_j}) = \sum\limits_{j = 1}^{{J_i}} {({\alpha _j}P_j^2 + {\beta _j}{P_j} + {\gamma _j})} \end{align} $

    (7)

    式中, $F_j^{\rm{e}}({P_j})$为第$j$台发电机组的发电成本; ${P_j}$为第$j$台发电机组的有功出力; $F_j^{\rm{c}}({P_j})$为第$j$台发电机组的碳排放量; $\gamma _j$, $\beta _j$和$\alpha _j$分别表示第$j$台发电机组关于碳排放的常数因子、一次项因子和二次项因子.

    1.1.3   自动发电控制模型

    图 2是传统实时控制系统中包含两个区域的电力系统AGC模型. AGC控制器的输入为第$i$个区域的频率误差和区域控制误差(Area control error, ACE) $e_i$, 输出为第$i$个区域的发电命令. AGC模型的控制周期为秒级, 一般设定为4秒或8秒.

    图 2  两区电力系统的AGC模型
    Fig. 2  AGC model of two-area power system
    1.1.4   发电命令调度模型

    GCD的输入为ACG产生的发电指令, 输出为第$i$个区域内所有AGC机组的发电命令$\Delta {P_{i, j}}$.进而, ACG单元的实际发电指令$P_{i, j}^{{\rm{actual}}}$取ED和GCD的发电指令之和, 即$P_{i, j}^{{\rm{actual}}} = {P_{i, j}} + \Delta {P_{i, j}}$.在实际工程中, GCD的目标采用如式(5)所示的经济目标.

    频率控制包含三种调节方式:一次调频、二次调频以及三次调频.一次调频通过调节发电机组在短时间内的有功出力, 进而调节系统频率.但是, 一次调频是一种有差调节方式.为了更好地平衡发电机和负荷之间的有功功率, 电力系统引入了二次调频和三次调频方式.二次调频和三次调频包含了多种算法的集成, 即集成了UC, ED, AGC和GCD.其中, AGC采用的是控制算法, 而UC, ED和GCD均为优化算法.因此, 传统发电调控算法是一种"优化算法+优化算法+控制算法+优化算法"的组合形式.

    大量的优化算法被运用到UC, ED和GCD之中.常用的优化算法有: GA[23]、PSO[24]、模拟退火算法[25]、多元优化算法[26]、灰狼优化算法[27]、多目标极值优化算法[28]、混沌多目标机制优化算法[29]等.同时, 多种控制算法被运用于AGC控制器中.诸如传统的PID算法、模糊逻辑控制算法[30]、模糊PID[31]、滑动模式控制器[32]、自抗扰控制器[33]分数阶PID[34]、Q学习[35]、Q ($\lambda$)学习[14]和R ($\lambda$)学习[36]以及分布式模型预测控制算法[37]等. 表 1展示了频率调节方式和传统发电调控框架之间的关系.

    表 1  频率调节方式与传统发电调控框架之间的关系
    Table 1  Relationship between regulation processes and conventional generation control framework
    传统发电控制调节方式算法类型时间间隔(s)输入输出
    UC三次调频优化算法86 400$ PD_{i, t} $$u_{i, t, j}, P_{j, t}$
    ED二次调频优化算法900 $PD_i$$P_{i, j}$
    AGC二次调频控制算法4$e_{i}, \Delta f_i$$ \Delta P_i$
    GCD二次调频优化算法4 $\Delta P_i$$\Delta P_{i, j}$
    下载: 导出CSV 
    | 显示表格

    在第$i$区域中, UC依据下一天的负荷预测值$PD_{i, t}$制定发电机的启动状态$u_{i, t, j}$以及出力水平$P_{j, t}$.其中时间周期为一天中的每小时, 即$t =\{ 1, 2$, $\cdots$, $24\}$; ED采用15分钟后的超短期负荷预测值$PD_i$制定有功出力值$P_{i, j}$; AGC控制器计算第$i$个区域的总发电需求量$\Delta P_i$; GCD将总的发电量$\Delta P_i$分配到每个AGC机组$\Delta P_{i, j}$.

    为了快速获取准确的发电调度与控制动作, 本文建立了大量的平行发电控制系统.如图 3所示, 在平行发电系统中, 多重虚拟发电控制系统被用来对真实发电控制系统不断地进行仿真.当虚拟控制发电系统的控制效果优于实际发电控制系统时, 它们之间会交换它们发电控制器的重要数据.即虚拟发电控制系统将重要的控制器参数传递到真实发电控制系统, 而真实发电系统则将更新后的系统模型参数反馈回虚拟发电控制系统.

    图 3  平行发电控制系统
    Fig. 3  Parallel generation control systems

    由于通过平行系统可以获取海量的数据, 如果采用传统学习方法对控制算法学习进行训练将花费大量的时间.因此, 需要采用一种更有效的学习算法对海量数据进行学习.本文针对平行发电控制系统的特点, 提出一种懒惰强化学习算法(LRL).如图 4所示, LRL由懒惰学习、选择算子、强化网络以及松弛算子四部分构成.提出的LRL算法可以设计成为基于REG框架的控制器, 可以替代传统的组合算法(UC, ED, AGC和GCD).因此, 基于REG框架的控制器的输入为频率误差$\Delta {f_i}$和ACE $e_i$, 输出为所有AGC机组的发电命令$\Delta {P_{i, j}}$.

    图 4  基于REG的LRL控制器的流程图
    Fig. 4  Procedures of LRL based REG controller

    LRL的懒惰学习将对下一个系统状态进行预测.因此, 懒惰学习的输入为频率误差$\Delta {f_i}$和ACE $e_i$.此外, 懒惰学习可以依据电力系统当前采取的动作集${\bf \it {A}}$预测电力系统的下一状态$\Delta {F'_{i, (t + 1)}}$.其中, 初始动作集合${\bf \it{A}}$描述如下:

    $ \begin{align} {\bf \it{A}} = \left[ {\begin{array}{*{20}{c}} {{a_{1, 1}}}&{{a_{1, 2}}}& \cdots &{{a_{1, k}}}\\ {{a_{2, 1}}}&{{a_{2, 2}}}& \cdots &{{a_{2, k}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{{J_i}, 1}}}&{{a_{{J_i}, 2}}}& \cdots &{{a_{{J_i}, k}}} \end{array}} \right] \end{align} $

    (8)

    其中, ${\bf \it{A}} $具有$k$列, 每一列都是一个AGC机组的发电命令动作向量.对下一状态的预测同样具有$k$列, 且每一列与每一个动作向量的预测相对应.因此, $\Delta {F'_{i, (t + 1)}}$是一个依据所有$k$列动作向量预测而组成的$k$列预测矩阵.

    采用懒惰学习方法估计未知函数的值与映射$g:$ ${{\bf R}^m}$ $ \to {\bf R} $类似.懒惰学习方法的输入和输出可以从矩阵$\Phi $获取, 描述如下:

    $ \begin{align} {\rm{\{ (}}{\varphi _1}{\rm{, }}{y_1}{\rm{), (}}{\varphi _2}{\rm{, }}{y_2}{\rm{), }} \cdots {\rm{, (}}{\varphi _{{N_{{\rm{lazy}}}}}}, {y_{{N_{{\rm{lazy}}}}}}{\rm{)\} }} \end{align} $

    (9)

    其中, $\varphi _i$为$N_{\rm{lazy}}\times k$的输入矩阵, $i=1, 2, \cdots$, $N_{\rm{lazy}}$; $y_i$为$N_{\rm{lazy}} \times 1$的输出向量.第$q$个查询点的预测值可以由下式计算.

    $ \begin{align} \widehat {y}_q = \varphi _q^{\rm{T}}{({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})^{ - 1}}{{\bf \it{Z}}^{\rm{T}}}{\bf \it{v}} \end{align} $

    (10)

    其中, ${{Z}}={ {W\Phi}}$; ${\bf \it{v}}={\bf \it{Wy}}$. ${\bf \it{W}}$是一个对角矩阵, ${\bf \it{W}}_{ii}$ $=\omega_i$, 其中, $\omega_i$为从查询点$\varphi _q$到点$\varphi _i$的距离$d(\varphi _i, \varphi _q)$的权重函数.从而, $({\bf \it{Z}}^{\rm{T}}\bf \it{Z}) \beta={\bf \it{Z}}^{\rm{T}} {\bf \it{v}}$可以作为一个局部加权回归模型.在其训练过程的误差校验方法可为留一法交叉校验(Leave-one-out cross-validation, LOOCV), 计算方式为

    $ \begin{align} &{\rm{MS}}{{\rm{E}}^{{\rm{CV}}}}({\varphi _q}) =\nonumber\\[1mm] &\qquad \displaystyle\frac{1} {{\sum\limits_i {w_i^2} }}\sum\limits_i {{{\left( {\frac{{{v_i} - z_i^{\rm{T}}{{({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})}^{ - 1}} {{\bf \it{Z}}^{\rm{T}}}{\bf \it{v}}}}{{1 - z_i^{\rm{T}}{{({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})}^{ - 1}}{z_i}}}} \right)}^2}} = \nonumber\\[1mm] &\qquad \displaystyle\frac{1}{{\sum\limits_i {w_i^2} }}\sum\limits_i {{{\left( {{w_i}\frac{{{y_i} - \varphi _i^{\rm{T}}{{({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})}^{ - 1}}{{\bf \it{Z}}^{\rm{T}}} {\bf \it{v}}}}{{1 - z_i^{\rm{T}}{{({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})}^{ - 1}}{z_i}}}} \right)}^2}} = \nonumber\\[1mm] &\qquad \displaystyle\frac{1}{{\sum\limits_i {w_i^2} }}\sum\limits_i {{{\left( {{w_i}{e^{{\rm{CV}}}}(i)} \right)}^2}} \end{align} $

    (11)

    其中, ${e^{{\rm{CV}}}}(i)$为第$i$个留一误差, 计算方式为

    $ \begin{align} e_{n + 1}^{{\rm{CV}}}(i) = \dfrac{{{y_i} - \varphi _i^{\rm{T}}{\beta _{n + 1}}}}{{1 + \varphi _i^{\rm{T}}{{\bf \it{P}}_{n + 1}}{\varphi _i}}} \end{align} $

    (12)

    其中, ${{\bf \it{P}}_n}$为矩阵${({{\bf \it{Z}}^{\rm{T}}}{\bf \it{Z}})^{ - 1}}$的回归逼近; ${\beta _n}$为$n$邻近的最优最小二乘序列参数; 且在$e_n^{{\rm{CV}}}(i)$中满足$1$ $\le$ $i\le n$; ${\beta _{n + 1}}$的计算方法如下:

    $ \begin{align} &{\beta _{n + 1}} = {\beta _n} + {\gamma _{n + 1}}{e_{n + 1}}\nonumber\\ & {e_{n + 1}} = {y_{n + 1}} - \varphi _{n + 1}^{\rm{T}}{\beta _n}\nonumber\\ & {\gamma _{n + 1}} = {{\bf \it{P}}_{n + 1}}{\varphi _{n + 1}}\nonumber\\ & {{\bf \it{P}}_{n + 1}} = {{\bf \it{P}}_n} - \frac{{{{\bf \it{P}}_n}{\varphi _{n + 1}}\varphi _{n + 1}^{\rm{T}}{{\bf \it{P}}_n}}}{{1 + \varphi _{n + 1}^{\rm{T}}{{\bf \it{P}}_n}{\varphi _{n + 1}}}} \end{align} $

    (13)

    因此, 针对REG问题, 所提LRL算法中懒惰学习离线学习和在线学习的输入和输出可见表 2.

    表 2  懒惰强化学习输入输出量
    Table 2  Inputs and outputs of lazy reinforcement learning
    输入输出懒惰学习强化网络懒惰强化学习
    输入量$\Delta {f_i}, {e_i}, {\bf \it {A}}$$\Delta {F'_{i, (t + 1)}}$$\Delta {f_i}, {e_i}$
    输出量${\Delta {f'_{i, (t + 1)}}}$$\Delta {P_{i, j}}, $
    $i = 1, 2, \cdots, {J_i}$
    $\Delta {P_{i, j}}, $
    $i = 1, 2, \cdots, {J_i}$
    下载: 导出CSV 
    | 显示表格

    LRL中的选择过程可以从下一状态$(\Delta {F'_{i, (t + 1)}})$中选择最优的状态(最小的$| {\Delta {{f'}_{i, (t + 1)}}} |$).

    LRL中的强化网络可以计算出总的发电命令$\Delta {P_i}$, 并分配$\Delta {P_{i, j}}$到第$i$个区域里的所有AGC机组上, 其中, $\Delta {P_i}=\sum_{j = 1}^{{J_i}} {\Delta {P_{i, j}}} $.强化网络由强化学习和一个反向传播神经网络(Back propagation neural network, BPNN)组成. Q学习是一种无需模型的控制算法.基于Q学习的控制器可以在线根据环境变化更新其控制策略.此类控制器的输入为状态值和奖励值, 输出为作用于环境的动作量.它们可以依据Q-矩阵$\bf \it{Q}$和概率分布矩阵$\bf \it{P}$, 针对当前的环境状态$s$, 制定应当进行的动作$a$.矩阵$\bf \it{Q}$和$\bf \it{P}$可以由奖励函数随后进行更新.

    $ \begin{align} &Q(s, a) \leftarrow Q(s, a) + \alpha (R(s, s', a) \, + \nonumber\\ &\qquad\qquad\ \ \gamma \mathop {\max }\limits_{a \in A} Q(s', a) - Q(s, a)) \end{align} $

    (14)

    $ \begin{align} &P(s, a) \leftarrow \begin{cases} P(s, a) - \beta (1 - P(s, a)), &s' = s\\ P(s, a)(1 - \beta ), &{\mbox{其他}} \end{cases} \end{align} $

    (15)

    其中, $\alpha$为学习率; $\gamma$为折扣系数; $\beta$为概率系数; $s$, $s'$分别为当前状态和下一状态; $R(s, s', a)$为奖励函数, 与当前状态$s$和由动作$a$导致的状态有关.当前状态$s$和下一状态$s'$同属于状态集合$\bf \it{S}$, 即$s \in {\bf \it{S}}$, $s'$ $\in$ ${\bf \it{S}}$.被选择的动作$a$输出动作集合$\bf \it{A}$, 即$a \in {\bf \it{A}}$.本文采用结构简单的三层感知器BPNN, 分配到多个机组的输出$y_i^{{\rm{bpnn}}}$的计算公式为

    $ \begin{align} y_i^{{\rm{bpnn}}} = f\left(x_i^{{\rm{bpnn}}}\right) = f\left(\sum\limits_{j = 1}^{{n^{{\rm{bpnn}}}}} {\omega _{ji}^{{\rm{bpnn}}}x_i^{{\rm{bpnn}}} + b_i^{{\rm{bpnn}}}} \right) \end{align} $

    (16)

    其中, $\omega _{ji}^{{\rm{bpnn}}}$为权重值; $b_i^{{\rm{bpnn}}}$为补偿值; ${n^{{\rm{bpnn}}}}$为BP神经网络中的隐藏元的个数; $f(z)$为sigmoid函数.本文采用的sigmoid函数为

    $ \begin{align} f(z)=\tanh (z) = \frac{{{\rm e}^z - {\rm e}^{ - z}}}{{{\rm e}^z + {\rm e}^{ - z}}} \end{align} $

    (17)

    BPNN训练算法为莱文贝格-马夸特方法(Levenberg-Marquardt algorithm).

    LRL的松弛算子类似一个操作员对强化网络的输出进行约束控制.因此, 松弛算子的约束可以表达为

    $ \begin{align} \Delta {P_{i, j}} \leftarrow \frac{{[\Delta {P_{i, j}}{{u'}_{j, t}}]}}{{\sum\limits_{j = 1}^{{J_i}} {([\Delta {P_{i, j}}{{u'}_{j, t}}])} }}\sum\limits_{j = 1}^{{J_i}} {(\Delta {P_{i, j}})} \end{align} $

    (18)

    其中, $\left[{\Delta {P_{i, j}}{{u'}_{j, t}}} \right]$为约束函数, 表达式为

    $ \begin{align} &\max \left\{ {{P_{j, (t - 1)}} - P_j^{{\rm{down}}}, {{u'}_{j, t}}P_j^{\min }} \right\} \le\notag \\ &\qquad\ \ \Delta {P_{i, j}}{{u'}_{j, t}} \le \min \left\{ {{P_{j, (t - 1)}} + P_j^{{\rm{up}}}, {{u'}_{j, t}}P_j^{\max }} \right\} \end{align} $

    (19)

    其中, ${u'_{j, t}}$为临时启动状态, 表达式为

    $ \begin{align} {u'_{j, t}}=\!\begin{cases} 1, &\!\left[ {\Delta {P_{i, j}}} \right] > 0~\mbox{或}~ 1 < T_{j, (t - 1)}^{{\rm{up}}} < T_{j, (t - 1)}^{{\rm{min\mbox{-}up}}}\\ 0, &\!\left[ {\Delta {P_{i, j}}} \right] = 0~\mbox{或}~1 \le T_{j, (t - 1)}^{{\rm{down}}} < T_j^{{\rm{min\mbox{-}down}}} \end{cases} \end{align} $

    (20)

    传统学习算法会对所有通过平行系统获取的数据进行学习.然而, 采用这些数据进行学习不一定能够取得比当前真实系统更优的控制效果.因此, 本文提出的LRL方法, 会筛选出那些更优的数据进行学习.即, 当在$t$时刻的状态$s_t$优于时刻的状态${s'_{(t + t), 1}}$, 而劣于$t + \Delta t$时刻的状态${s'_{(t + t), 2}}$, 那么算法将排除从$s_t$到${s'_{(t + t), 1}}$的变化过程数据, 而将保留从$s_t$到${s'_{(t + t), 2}}$的变化过程数据进行离线训练.

    针对REG问题, 离线训练的输入与输出如表 2所示.但在对比状态${s'_{(t + t), 1}}$和${s'_{(t + t), 2}}$时, 可将状态设定为预测的区域i频率偏差, 即$\Delta {f'_{i, (t + 1)}}$, 也即从$\Delta {F'_{i, (t + 1)}}$选择最优值对应的输入和输出数据进行训练. 图 5是在平行系统下基于REG框架的懒惰强化学习的控制器运行步骤.

    图 5  平行系统下基于REG控制器的LRL算法的流程图
    Fig. 5  Procedures of LRL based REG controller under parallel systems

    本文仿真均是在主频为2.20 GHz, 内存96 GB的AMAX XR-28201GK型服务器上基于MATLAB 9.1 (R2016b)平台实现的. 表 3是仿真中采用的所有算法, 其中各算法的含义见表 4.

    表 3  仿真所用的算法
    Table 3  Algorithms for this simulation
    序号UCEDAGCGCD
    1模拟退火算法(SAA)SAAPID控制SAA
    2多元优化(MVO)MVO滑模控制器MVO
    3遗传算法(GA)GA自抗扰控制GA
    4灰狼算法(GWO)GWO分数阶PID控制GWO
    5粒子群优化(PSO)PSO模糊逻辑控制器PSO
    6生物地理优化(BBO)BBOQ学习BBO
    7飞蛾扑火算法(MFO)MFOQ($\lambda$)学习MFO
    8鲸鱼群算法(WOA)WOAR($\lambda$)学习WOA
    9固定比例
    10松弛人工神经网络(RANN)
    11懒惰强化学习(LRL)
    下载: 导出CSV 
    | 显示表格
    表 4  各对比算法的缩写
    Table 4  Abbreviation of compared algorithms
    缩写全称意义
    UCUnit commitment机组组合
    EDEconomical dispatch经济调度
    AGCAutomatic generation control自动发电控制
    GCDGeneration command dispatch发电指令调度
    RLReinforcement learning强化学习
    REGReal-time economic generation dispatch and control实时经济调度与控制
    ACPArtificial societies- computational experiments-parallel execution人工社会-计算实验-平行执行
    CPSCyber-physical system信息物理系统
    CPSSCyber-physical-social systems信息物理社会融合系统
    LRLLazy reinforcement learning懒惰强化学习
    RANNRelaxed artificial neural network松弛人工神经网络
    SAASimulated annealing algorithm模拟退火算法
    MVOMulti-verse optimizer多元优化
    GAGenetic algorithm遗传算法
    GWOGray wolf optimizer灰狼算法
    PSOParticle swarm optimization粒子群优化
    BBOBiogeography-based optimization生物地理优化
    MFOMoth-flame optimization飞蛾扑火算法
    WOAWhale optimization algorithm鲸鱼群算法
    LOOCVLeave-one-out cross-validation留一法交叉校验
    BPNNBack propagation neural network反向传播神经网络
    下载: 导出CSV 
    | 显示表格

    组合算法和REG控制器的仿真时间设定为1天或86 400秒.总共采用了有4 608种传统发电调控算法($8\times 8 \times 8 \times 9=4 608$种组合)和两种基于REG框架的算法进行仿真实验.总的设置仿真模拟时间为12.6301年或为($8\times 8 \times 8 \times 9+2$)天.所有的传统发电调控算法的参数设置详见附录A.

    图 6是IEEE新英格兰10机39节点标准电力系统结构.从图 6可以看出, 仿真实验将该电力系统划分成3个区域.该系统中设置10台发电机, 发电机{30, 37, 39}划分至区域1, 发电机{31, 32, 33, 34, 35}划分至区域2, 剩下的发电机{36, 38}划分至区域3.除此之外, 光伏, 风电以及电动汽车也被纳入仿真模型之中(详细参数见图 7).其中, 电动汽车负荷需求曲线为5种不同车辆用户行为叠加而成的.各个机组参数如表 5表 6所示.

    图 6  新英格兰电力系统结构图
    Fig. 6  Structure of New-England power system
    图 7  光伏、电动汽车、风电、负荷曲线
    Fig. 7  Curves of photo-voltaic power (PV), electric vehicle (EV), wind power and load
    表 5  机组参数表
    Table 5  Parameters of the generators
    机组编号30373931323334353638
    机组最小连续开机时间$T_j^{\mathrm{min-up}}$ (h)8855633111
    机组最小连续关机时间$T_j^{\mathrm{min-down}}$ (h)8855633111
    机组最大出力$P_j^{\min}$ (MW)4554551301301628085555555
    机组最小出力$P_j^{\max}$ (MW)1501502020252025101010
    热启动成本$SU_{\mathrm{H}, j}$ (t/(MW $\cdot$ h))4 5005 000550560900170260303030
    冷启动成本$SU_{\mathrm{C}, j}$ (t/(MW $\cdot$ h))9 00010 0001 1001 1201 800340520606060
    冷启动时间$T_j^{\mathrm{cold}}$ (h)5544422000
    ED成本系数$a_j$0.6750.450.5630.5630.450.5630.5630.3370.3150.287
    ED成本系数$b_j$360240299299240299299181168145
    ED成本系数$c_j$11 2507 5109 3909 3907 5109 3909 3905 5305 2505 270
    ED排放系数$\alpha _j$3.3751.1251.6891.5761.171.5761.5760.6740.630.574
    ED排放系数$\beta _j$1 800600897837624837837362404290
    ED排放系数$\gamma _j$56 25018 77028 17026 29019 53026 29026 29011 06013 80010 540
    下载: 导出CSV 
    | 显示表格
    表 6  机组组合问题参数表
    Table 6  Parameters for unit commitment problem
    UC问题的负荷时段(h)123456789101112
    UC问题的负荷值$PD_t$ (WM)7007508509501 0001 1001 1501 2001 3001 4001 4501 500
    UC问题的旋转备用$SR_t$ (WM)70758595100110115120130140145150
    UC问题的负荷时段(h)131415161718192021222324
    UC问题的负荷值$PD_t$ (WM)1 4001 3001 2001 0501 0001 1001 2001 4001 3001 100900800
    UC问题的旋转备用$SR_t$ (WM)1401301201051001101201401301109080
    下载: 导出CSV 
    | 显示表格

    仿真实验设置发电控制的控制周期为4 s. REG控制器每4 s计算一次.对于传统组合算法, UC每天进行一次, ED每15分钟优化一次, AGC和GCD每次控制周期中计算一次.松弛人工神经网络RANN算法由人工神经网络和所提LRL算法中的松弛算子组成. LRL整体的输入和输出分别作为RANN算法的输入和输出. RANN算法的松弛算子见式(18)~(20). BPNN选择的三层感知网络的隐含层神经元的个数设定为40个.每个松弛人工神经网络设置有40个隐藏元.在所提LRL算法中, 强化学习和懒惰学习的动作集$k$的列数设为121, 该列数一般可选范围较大; 动作值选为从$-300$~$300$ MW; 其中强化学习的学习率的范围为$\alpha \in (0, 1]$, 本文选为0.1;概率选择系数$\beta \in (0, 1]$, 本文设定为0.5;折扣系数$\lambda \in (0, 1]$, 本文设定为0.9.其中学习率选择的越大学习速度越快, 但会导致精度随之下降.

    强化学习系列算法Q学习、Q($\lambda $)学习和R($\lambda $)学习算法的离线学习是时间分别为2.27 h, 2.49 h和2.95 h; 松弛人工神经网络算法的训练时间为15.50 h; 所提LRL算法的离线训练时间为6.60 h.虽然所提LRL算法较传统强化学习算法在离线训练效率方面不具有优势, 但是其具有最佳的控制效果.同时, 与统一时间尺度的松弛人工神经网络算法相比, LRL算法的离线训练时间较小且其控制效果更优.

    仿真结果展示在图 8~12表 7~10中.

    表 7  UC算法仿真结果统计
    Table 7  Statistic of simulation results obtained by the UC
    算法ACE1 (MW) $\Delta f_1$ (Hz)ACE2 (MW)$\Delta f_2$ (Hz)ACE3 (MW)$\Delta f_3$ (Hz)
    SAA573.89040.038235258.77980.037525 527.97461.3137
    MVO575.36720.038274259.92650.0375585 532.62021.3154
    GA603.43910.041805258.64840.0410416 052.28061.4428
    GWO616.0640.043454257.61070.0426536 290.08431.5017
    PSO575.71720.038264260.35430.0375555 535.16441.3159
    BBO574.27690.038213259.3490.0374995 522.56911.3131
    MFO569.71590.037685259.14990.0369845 441.34871.2932
    WOA645.59060.047207255.82460.046396 844.85091.6369
    RANN553.40320.039963224.17480.0390835 431.28441.2907
    LRL441.92250.010254389.99050.00956121 023.19190.23743
    下载: 导出CSV 
    | 显示表格
    表 8  ED算法仿真结果统计
    Table 8  Statistic of simulation results obtained by the ED algorithms
    算法ACE1 (MW) $\Delta f_1$ (Hz)ACE2 (MW)$\Delta f_2$ (Hz)ACE3 (MW)$\Delta f_3$ (Hz)
    SAA587.84140.039976258.27670.0392345 777.57551.3756
    MVO588.1770.039978258.51250.0392455 782.35671.3768
    GA589.40910.040193257.63350.0394795 818.98091.3856
    GWO587.65470.039959258.09230.0392285 780.46641.3763
    PSO587.8580.039915258.81110.0391825 771.29241.3741
    BBO588.01980.039924258.92110.0391925 770.46081.3739
    MFO588.18360.039988258.49480.039255 778.8441.3759
    WOA588.69740.040103257.71130.0393875 805.40461.3823
    RANN553.40320.039963224.17480.0390835 431.28441.2907
    LRL441.92250.010254389.99050.00956121 023.19190.23743
    下载: 导出CSV 
    | 显示表格
    表 9  AGC算法仿真结果统计
    Table 9  Statistic of simulation results obtained by the AGC algorithms
    算法ACE1 (MW) $\Delta f_1$ (Hz)ACE2 (MW)$\Delta f_2$ (Hz)ACE3 (MW)$\Delta f_3$ (Hz)
    PID控制591.30810.040435257.5180.0397175 854.01021.3939
    滑动模式控制器590.73350.040374257.44950.0396565 844.72911.3916
    自抗扰控制591.37710.040424257.67730.0397075 853.04881.3937
    分数阶PID控制591.10070.040437257.30690.0397155 852.74781.3936
    模糊逻辑控制591.9510.040504257.60240.0397815 863.47851.3963
    Q学习591.36030.040452257.45720.0397275 855.13391.3942
    Q($\lambda$)学习591.07720.040419257.44210.0396965 849.97051.393
    R($\lambda$)学习591.72820.040494257.4690.039775 862.78321.3961
    RANN553.40320.039963224.17480.0390835 431.28441.2907
    LRL441.92250.010254389.99050.00956121 023.19190.23743
    下载: 导出CSV 
    | 显示表格
    表 10  GCD算法仿真结果统计
    Table 10  Statistic of simulation results obtained by the GCD algorithms
    算法ACE1 (MW) $\Delta f_1$ (Hz)ACE2 (MW)$\Delta f_2$ (Hz)ACE3 (MW)$\Delta f_3$ (Hz)
    SAA591.30810.040435257.5180.0397175 854.01021.3939
    MVO590.73350.040374257.44950.0396565 844.72911.3916
    GA591.37710.040424257.67730.0397075 853.04881.3937
    GWO591.10070.040437257.30690.0397155 852.74781.3936
    PSO591.9510.040504257.60240.0397815 863.47851.3963
    BBO591.36030.040452257.45720.0397275 855.13391.3942
    MFO591.07720.040419257.44210.0396965 849.97051.393
    WOA591.72820.040494257.4690.039775 862.78321.3961
    固定比例509.03910.028801282.03320.0276093 973.7430.94347
    RANN553.40320.039963224.17480.0390835 431.28441.2907
    LRL441.92250.010254389.99050.00956121 023.19190.23743
    下载: 导出CSV 
    | 显示表格
    图 8  仿真统计结果
    Fig. 8  Statistical result
    图 9  仿真统计结果(频率偏差)
    Fig. 9  Statistical result of frequency deviation
    图 10  仿真统计结果(区域控制误差)
    Fig. 10  Statistical result of area control error
    图 11  平行系统频率偏差收敛曲线
    Fig. 11  Convergence curve of frequency deviation obtained by the parallel systems
    图 12  平行系统区域控制误差收敛曲线
    Fig. 12  Convergence curve of area control error obtained by the parallel systems

    图 8是频率偏差、区域控制误差和仿真计算所用时间的统计结果, 其中所提LRL算法能得到最优的调控效果.

    图 9是各个算法频率偏差的统计对比效果, 其中所提LRL算法能在所有区域均获得最小的频率偏差. 图 10是各个算法获得的区域控制误差的统计结果, 可以看出, 所提LRL算法不会导致大量牺牲某个区域的功率来满足其他区域的功率平衡.

    图 11图 12是利用平行系统仿真数据对所提LRL算法训练的收敛曲线图.可以看出, 经过667次的迭代, 能获得最优的收敛结果.

    图 9以及表 7~10可以看出, 与传统组合发电控制算法和松弛人工神经网络相比, 本文提出的LRL方法可以保持系统内的有功平衡, 并且能使电网频率偏差达到最低.因此, LRL能够在多区域大规模互联电网中取得最优的控制效果.

    图 8图 10可以看出, 在仿真中, 由于LRL可以在最短时间内取得最低的频率偏差和最低的控制错误率, LRL的懒惰学习可以有效地对电力系统的下一状态进行预测.因此, LRL可以提供准确的AGC机组动作指令.

    在应对多区域大规模互联电网的经济调度和发电控制问题时, REG控制器完全可以取代传统的组合算法方法.

    图 11图 12可以看出, 由于仿真采用了平行系统, 降低了使用的真实仿真时间, 由于平行系统进行了迭代, 加速了仿真的过程.

    为了解决多区域大规模互联电网经济调度和发电控制中存在的协同问题, 本文提出了一种REG框架.该框架可作为一种传统发电调控框架的替代.然后, 为REG控制器提出了一种基于人工社会-计算实验-平行执行方法的懒惰学习算法.基于REG控制器的LRL算法的特征可以总结如下:

    1) 本文提出了一种统一时间尺度的REG控制框架, 并提出一种基于REG控制器的LRL算法.可以有效地对电力系统的下一运行状态进行预测并且输出满足UC问题的约束动作指令, 取得最优的控制效果.

    2) LRL中的强化学习网络具有同时产生多个输出的能力.因此, 基于REG控制器LRL的可以不断地为存在于多区域大规模互联电网的所有AGC机组输出发电命令.

    3) 通过搭建平行系统, 使得基于LRL的REG控制器可以用于解决多区域大规模互联电网经济调度和发电控制问题.

    各算法重要参数设置如下:

    1) PID控制:比例系数$k_{\mathrm{P}}=-0.006031543250198, $积分系数$k_{\mathrm{I}}=0.00043250;$

    2) 滑模控制器:开通/关断点$k_{\mathrm{point}}=\pm 0.1$ Hz, 开通/关断输出$k_{\mathrm{v}}=\pm80$ MW;

    3) 自抗扰控制:扩张状态观测器

    $ \begin{align*} &A = \left[ {\begin{array}{*{20}{c}} 0&{0.0001}&0&0\\ 0&0&{0.0001}&0\\ 0&0&0&{0.0001}\\ 0&0&0&0 \end{array}} \right]\\ &B = \left[ {\begin{array}{*{20}{c}} 0&0\\ 0&0\\ {0.0001}&{0.0001}\\ 0&0 \end{array}} \right]\\ &C = {\rm diag}\left\{ {\begin{array}{*{20}{c}} {0.1}&{0.1}&{0.1}&{0.1} \end{array}} \right\}\\ &D = {0_{4 \times 2}}\\ &k_1=15.0, \ k_2=5.5, \ k_3=2.0, \ k_4=1 \end{align*} $

    4) 分数阶PID控制:比例系数$k_{\mathrm{P}}=-1, $积分系数$k_{\mathrm{I}}$ $=$ $0.43250, $ $\lambda=1.3, $ $\mu=200;$

    5) 模糊逻辑控制器: $X$ (输入, $\Delta f$)在[$-$0.2, 0.2] Hz等间隔选取21个区间, $Y$ (输入, $\int \Delta f{\rm d}t$)在[$-$1, 1] Hz等间隔选取21个区间, $Z$ (输出, $\Delta P$)在[$-$150, 150] MW等间隔选取441个区间;

    6) Q学习:动作集$A=\{-300, -240, -180, -120$, $-60, 0, 60, 120, 180, 240, 300\}$, 学习率$\alpha=0.1, $概率分布常数$\beta=0.5, $未来奖励折扣系数$\gamma=0.9, $ $\lambda=0.9$;

    7) Q($\lambda$)学习: $A=\{-300, -240, -180, -120, -60, 0$, $60, 120, 180, 240, 300\}$, $\alpha=0.1$, $\beta=0.5$, $\gamma=0.9$, $\lambda=0.9$;

    8) R($\lambda$)学习: $A=\{-300, -240, -180, -120, -60, 0$, $60, 120, 180, 240, 300\}$, $\alpha=0.1$, $\beta=0.5$, $\gamma=0.9$, $\lambda=0.9$, $R_0$ $=0;$

    9) 对于所有用于UC的优化算法:进化代数$N_{\mathrm{g}}=50$, 种群数目$P_{\mathrm{s}}=10$;

    10) 对于所有用于ED的优化算法:进化代数$N_{\mathrm{g}}=30$, 种群数目$P_{\mathrm{s}}=10$;

    11) 对于所有用于GCD的优化算法:进化代数$N_{\mathrm{g}}=5$, 种群数目$P_{\mathrm{s}}=10$;

    12) 固定比例GCD控制: ${k_j} = {{\Delta P_j^{\max }}}/ {{\sum {\Delta P_j^{\max }} }}\Delta {P_j}$, $j$ $= 1, 2, \cdots, {J_i}$, $i = 1, 2, \cdots, 3$.


  • 本文责任编委 程龙
  • 图  1  采用液压驱动的外骨骼助力机器人

    Fig.  1  Power assisted skeleton driven by hydraulic

    图  2  采用电机驱动的外骨骼机器人

    Fig.  2  Skeleton driven by electric motor

    图  3  日本本田研发的ASIMO双腿行走机器人(左)与步行助手(中:第一代; 右:第二代)

    Fig.  3  ASIMO bipedal walking robot (left) and walk assistant developed by Honda, Japan (middle: the first generation; right:the second generation)

    图  4  中科院常州先进制造技术研究所(左)和深圳先进技术研究院(右)研发的外骨骼系统

    Fig.  4  Skeleton developed by Institute of Advanced Manufacturing Technology (left) and Shenzhen Institute of Advanced Technology (right), Chinese Academy of Sciences

    图  5  哈佛大学与ReWalk公司合作研制的柔性外骨骼机器人

    Fig.  5  Soft exoskeleton designed by Harvard university and ReWalk Robotics

    图  6  混合动力外骨骼及其协同控制方式

    Fig.  6  Kinesis hybrid exoskeleton and cooperative control approach

    图  7  柄反作用矢量定义示意图

    Fig.  7  Definition of HRV

    图  8  步态相位和足底反力(GRF)的同步测量

    Fig.  8  Synchronous measurement of gait cycle and GRF

    图  9  人机信息交环路及可能存在的制约瓶颈

    Fig.  9  Bottleneck of closed-loop human-machine interaction

    图  10  运动相关电位的时间空间特征与运动状态的关系[59]

    Fig.  10  The relationship between the temporal spatial features of motion related potentials and movement states[59]

  • [1] Port F D. Treatment of paralysis. The Decade of Medicine or the Physician of the Rich and the Poorć. Berlin Heidelberg:Springer, 1988. 108-109
    [2] 李建军, 周红俊, 洪毅, 季京平, 刘根林, 粟绍强, 赵超男, 董云英, 方玉美, 谭鹏, 周天健, 张爱民, 郑樱. 2002年北京市脊髓损伤发病率调查.中国康复理论与实践, 2004, 10(7):412-413 http://www.cnki.com.cn/Article/CJFDTOTAL-ZKLS200407016.htm

    Li Jian-Jun, Zhou Hong-Jun, Hong Yi, Ji Jing-Ping, Liu Gen-Lin, Su Shao-Qiang, Zhao Chao-Nan, Dong Yun-Ying, Fang Yu-Mei, Tan Peng, Zhou Tian-Jian, Zhang Ai-Min, Zheng Ying. Spinal cord injuries in Beijing:a municipal epidemiological survey in 2002. Chinese Journal of Rehabilitation Theory and Practice, 2004, 10(7):412-413 http://www.cnki.com.cn/Article/CJFDTOTAL-ZKLS200407016.htm
    [3] Liu M, Wu B, Wang W Z, Lee L M, Zhang S H, Kong L Z. Stroke in China:epidemiology, prevention, and management strategies. The Lancet Neurology, 2007, 6(5):456-464 doi: 10.1016/S1474-4422(07)70004-2
    [4] Zorowitz R D, Gillard P J, Brainin M. Poststroke spasticity:sequelae and burden on stroke survivors and caregivers. Neurology, 2013, 80(Suppl 3):S45-S52 https://www.researchgate.net/publication/234155984_Poststroke_spasticity_Sequelae_and_burden_on_stroke_survivors_and_caregivers
    [5] 李建军.中国康复医学发展的回顾与展望.中国康复理论与实践, 2011, 17(1):1-4 http://www.cnki.com.cn/Article/CJFDTOTAL-ZKLS201101002.htm

    Li Jian-Jun. Advance in rehabilitation medicine in China:review and prospects. Chinese Journal of Rehabilitation Theory and Practice, 2011, 17(1):1-4 http://www.cnki.com.cn/Article/CJFDTOTAL-ZKLS201101002.htm
    [6] Eustis S. Global Robotic Prosthetics, Exoskeletons and Assistive Rehabilitation Technologies Market Assessment & Forecast:2015——2019. Winter Green Research, USA, 2016.
    [7] Kazerooni H. Human augmentation and exoskeleton systems in Berkeley. International Journal of Humanoid Robotics, 2007, 4(3):575-605 doi: 10.1142/S0219843607001187
    [8] Harris S. Exoskeleton stands on its own two feet. Engineer, 2011, 296(7827):1-8 http://nynashamnsnaturskola.se/pdfHtm/MOVEMENT_OF_ANIMALS_1_medbilder.pdf
    [9] Lu R Q, Li Z J, Su C Y, Xue A K. Development and learning control of a human limb with a rehabilitation exoskeleton. IEEE Transactions on Industrial Electronics, 2014, 61(7):3776-3785 doi: 10.1109/TIE.2013.2275903
    [10] Huang R, Cheng H, Chen Q M, Tran H T, Lin X C. Interactive learning for sensitivity factors of a human-powered augmentation lower exoskeleton. In:Proceeding of the 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems. Hamburg, Germany:IEEE, 2015. 6409-6415
    [11] Tsagarakis N G, Caldwell D G. Development and control of a 'soft-actuated' exoskeleton for use in physiotherapy and training. Autonomous Robots, 2003, 15(1):21-33 doi: 10.1023/A:1024484615192
    [12] Wehner M, Quinlivan B, Aubin P M, Martinez-Villalpando E, Baumann M, Stirling L, Holt K, Wood R, Walsh C. A lightweight soft exosuit for gait assistance. In:Proceeding of the 2013 IEEE International Conference on Robotics and Automation. Karlsruhe, Germany:IEEE, 2013. 3362-3369
    [13] Müller-Putz G R, Zimmermann D, Graimann B, Nestinger K, Korisek G, Pfurtscheller G. Event-related beta EEG-changes during passive and attempted foot movements in paraplegic patients. Brain Research, 2007, 1137:84-91 doi: 10.1016/j.brainres.2006.12.052
    [14] Qiu S, Yi W B, Xu J P, Qi H P, Du J G, Wang C F, He F, Ming D. Event-related beta EEG changes during active, passive movement and functional electrical stimulation of the lower limb. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2016, 24(2):283-290 doi: 10.1109/TNSRE.2015.2476481
    [15] del-Ama A J, Gil-Agudo Á, Pons J L, Moreno J C. Hybrid FES-robot cooperative control of ambulatory gait rehabilitation exoskeleton. Journal of NeuroEngineering and Rehabilitation, 2014, 11:Article No. 27 doi: 10.1186/1743-0003-11-27
    [16] Ha K H, Quintero H A, Farris R J, Goldfarb M. Enhancing stance phase propulsion during level walking by combining FES with a powered exoskeleton for persons with paraplegia. In:Proceeding of the 2012 IEEE Annual International Conference of the IEEE Engineering in Medicine and Biology Society. San Diego, USA:IEEE, 2012. 344-347
    [17] Baker R. Gait analysis methods in rehabilitation. Journal of NeuroEngineering and Rehabilitation, 2006, 3:Article No. 4 doi: 10.1186/1743-0003-3-4
    [18] Cappozzo A. Gait analysis methodology. Human Movement Science, 1984, 3(1-2):27-50 doi: 10.1016/0167-9457(84)90004-6
    [19] Bowker P. Gait analysis:an introduction. Physiotherapy, 1991, 77(11):786 http://ci.nii.ac.jp/ncid/BA18631162
    [20] Tao W, Liu T, Zheng R C, Feng H T. Gait analysis using wearable sensors. Sensors, 2012, 12(2):2255-2283 http://www.mdpi.com/1424-8220/12/2/2255/pdf
    [21] Bejarano N C, Ambrosini E, Pedrocchi A, Ferrigno G, Monticone M, Ferrante S. A novel adaptive, real-time algorithm to detect gait events from wearable sensors. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2015, 23(3):413-422 doi: 10.1109/TNSRE.2014.2337914
    [22] Zeilig G, Weingarden H, Zwecker M, Dudkiewicz I, Bloch A, Esquenazi A. Safety and tolerance of the ReWalkm TM exoskeleton suit for ambulation by people with complete spinal cord injury:a pilot study. Journal of Spinal Cord Medicine, 2012, 35(2):96-101 doi: 10.1179/2045772312Y.0000000003
    [23] Esquenazi A, Talaty M, Packel A, Saulino M. The ReWalk powered exoskeleton to restore ambulatory function to individuals with thoracic-level motor-complete spinal cord injury. American Journal of Physical Medicine & Rehabilitation, 2012, 91(11):911-921 https://www.researchgate.net/publication/232532271_The_ReWalk_Powered_Exoskeleton_to_Restore_Ambulatory_Function_to_Individuals_with_Thoracic-Level_Motor-Complete_Spinal_Cord_Injury
    [24] Pappas I P I, Keller T, Mangold S, Popovic M R, Dietz V, Morari M. A reliable gyroscope-based gait-phase detection sensor embedded in a shoe insole. IEEE Sensors Journal, 2004, 4(2):268-274 doi: 10.1109/JSEN.2004.823671
    [25] Donaldson N, Yu C H. A study of handle reaction vector (HRV) in walker FES standing. Proceedings of the Institution of Mechanical Engineers, 1996, 211(1):81-94 https://www.researchgate.net/publication/220715359_Study_on_wireless_dynamometer_walker_system
    [26] Ming D, Wan B K, Hu Y, Wang Y Z, Wu Y H, Liang Z R. Dynamical measurement method of handle reaction vector for FES-assisted paraplegic walking. Transactions of Tianjin University, 2005, 11(5):318-321 https://www.researchgate.net/publication/283250125_Dynamical_measurement_method_of_handle_reaction_vector_for_FES-assisted_paraplegic_walking
    [27] Xu R, Qiu S, Zhai T, Xu Q, Qi H, Zhou P, Zhang L, Wan B, Ming D. Step side recognition based on handle reaction forces during functional electrical stimulation. Biomedical Engineering/Biomedizinische Technik, 2013, 58(Suppl 1), DOI: 10.1515/bmt-2013-4023
    [28] Farris R J, Quintero H A, Goldfarb M. Preliminary evaluation of a powered lower limb Orthosis to aid walking in paraplegic individuals. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2011, 19(6):652-659 doi: 10.1109/TNSRE.2011.2163083
    [29] Suzuki K, Mito G, Kawamoto H, Hasegawa Y, Sankai Y. Intention-based walking support for paraplegia patients with robot suit HAL. Advanced Robotics, 2007, 21(12):1441-1469 https://www.researchgate.net/profile/Yasuhisa_Hasegawa/publication/220670867_Intention-Based_Walking_Support_for_Paraplegia_Patients_with_Robot_Suit_HAL/links/0deec51bfedc7241c7000000/Intention-Based-Walking-Support-for-Paraplegia-Patients-with-Robot-Suit-HAL.pdf
    [30] Tsukahara A, Hasegawa Y, Eguchi K, Sankai Y. Restoration of gait for spinal cord injury patients using HAL with intention estimator for preferable swing speed. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2015, 23(2):308-318 doi: 10.1109/TNSRE.2014.2364618
    [31] Yakub F, Md. Khudzari A Z, Mori Y. Recent trends for practical rehabilitation robotics, current challenges and the future. International Journal of Rehabilitation Research, 2014, 37(1):9-21 doi: 10.1097/MRR.0000000000000035
    [32] Gomez-Rodriguez M, Peters J, Hill J, Schölkopf B, Gharabaghi A, Grosse-Wentrup M. Closing the sensorimotor loop:haptic feedback facilitates decoding of motor imagery. Journal of Neural Engineering, 2011, 8(3):Article No. 036005 http://www.ias.tu-darmstadt.de/uploads/Publications/Gomez-RodriguezJNE2011.pdf
    [33] Takahashi M, Takeda K, Otaka Y, Osu R, Hanakawa T, Gouko M, Ito K. Event related desynchronization-modulated functional electrical stimulation system for stroke rehabilitation:a feasibility study. Journal of NeuroEngineering and Rehabilitation, 2012, 9:Article No. 56 doi: 10.1186/1743-0003-9-56
    [34] Jiang S L, Chen L, Wang Z P, Xu J P, Qi C, Qi H Z, He F, Ming D. Application of BCI-FES system on stroke rehabilitation. In:Proceeding of the 7th International IEEE/EMBS Conference on Neural Engineering. Montpellier, France:IEEE, 2015. 1112-1115
    [35] Hara Y, Obayashi S, Tsujiuchi K, Muraoka Y. The effects of electromyography-controlled functional electrical stimulation on upper extremity function and cortical perfusion in stroke patients. Clinical Neurophysiology, 2013, 124(10):2008-2015 doi: 10.1016/j.clinph.2013.03.030
    [36] Young W. Electrical stimulation and motor recovery. Cell Transplantation, 2015, 24(3):429-446 doi: 10.3727/096368915X686904
    [37] Zoss A, Evans J, Sandler R, Harding N, Julin A, Lubin J, Heanue T, Fairbanks D, Stryker J. Reconfigurable Exoskeleton, World Patent 2014093470, June 2014.
    [38] Contreras-Vidal J L, Prasad S, Kilicarslan A, Bhagat N. Methods for Closed-loop Neural-machine Interface Systems for the Control of Wearable Exoskeletons and Prosthetic Devices, U.S. Patent 20150012111, January 2015.
    [39] Fernandez-Leon J A, Acosta G G, Rozenfeld A. How simple autonomous decisions evolve into robust behaviours?:A review from neurorobotics, cognitive, self-organized and artificial immune systems fields. BioSystems, 2014, 124:7-20 doi: 10.1016/j.biosystems.2014.08.003
    [40] Murphy T H, Corbett D. Plasticity during stroke recovery:from synapse to behaviour. Nature Reviews Neuroscience, 2009, 10(12):861-872 doi: 10.1038/nrn2735
    [41] Barbero Á, Grosse-Wentrup M. Biased feedback in brain-computer interfaces. Journal of NeuroEngineering and Rehabilitation, 2010, 7:Article No. 34 doi: 10.1186/1743-0003-7-34
    [42] Grosse-Wentrup M, Liefhold C, Gramann K, Buss M. Beamforming in noninvasive brain-computer interfaces. IEEE Transactions on Biomedical Engineering, 2009, 56(4):1209-1219 doi: 10.1109/TBME.2008.2009768
    [43] Grosse-Wentrup M, Mattia D, Oweiss K. Using brain-computer interfaces to induce neural plasticity and restore function. Journal of Neural Engineering, 2011, 8(2):Article No. 025004 http://citeseerx.ist.psu.edu/viewdoc/bookmark?doi=10.1.1.370.8901&title=Using%20brain–computer%20interfaces%20to%20induce%20neural%20plasticity%20and%20restore%20function&site=digg
    [44] LeCun Y, Bengio Y, Hinton G. Deep learning. Nature, 2015, 521(7553):436-444 doi: 10.1038/nature14539
    [45] Torres-Oviedo G, Vasudevan E, Malone L, Bastian A J. Locomotor adaptation. Progress in Brain Research, 2011, 191:65-74 doi: 10.1016/B978-0-444-53752-2.00013-8
    [46] Patla A E. Some characteristics of EMG patterns during locomotion:implications for the locomotor control process. Journal of Motor Behavior, 1985, 17(4):443-461 doi: 10.1080/00222895.1985.10735360
    [47] 明东, 王坤, 何峰, 綦宏志, 万柏坤.想象动作诱发生理信息检测及其应用研究:回顾与展望.仪器仪表学报, 2014, 35(9):1921-1931 http://www.cnki.com.cn/Article/CJFDTOTAL-YQXB201409001.htm

    Ming Dong, Wang Kun, He Feng, Qi Hong-Zhi, Wan Bai-Kun. Study on physiological information detection and application evoked by motor imagery:review and prospect. Chinese Journal of Scientific Instrument, 2014, 35(9):1921-1931 http://www.cnki.com.cn/Article/CJFDTOTAL-YQXB201409001.htm
    [48] Pfurtscheller G, da Silva F H L. Event-related EEG/MEG synchronization and desynchronization:basic principles. Clinical Neurophysiology, 1999, 110(11):1842-1857 doi: 10.1016/S1388-2457(99)00141-8
    [49] Servick K. Kickoff looms for demo of brain-controlled machine. Science, 2014, 344(6188):1069-1070 doi: 10.1126/science.344.6188.1069
    [50] Rajangam S, Tseng P H, Yin A, Lehew G, Schwarz D, Lebedev M A, Nicolelis M A. Wireless cortical brain-machine interface for whole-body navigation in primates. Scientific Reports, 2016, 6:Article No. 22170 doi: 10.1038/srep22170
    [51] Gwin J T, Ferris D P. An EEG-based study of discrete isometric and isotonic human lower limb muscle contractions. Journal of NeuroEngineering and Rehabilitation, 2012, 9:Article No. 35 doi: 10.1186/1743-0003-9-35
    [52] Edelman B J, Baxter B, He B. EEG source imaging enhances the decoding of complex right-hand motor imagery tasks. IEEE Transactions on Biomedical Engineering, 2016, 63(1):4-14 doi: 10.1109/TBME.2015.2467312
    [53] Niazi I K, Jiang N, Tiberghien O, Nielsen J F, Dremstrup K, Farina D. Detection of movement intention from single-trial movement-related cortical potentials. Journal of Neural Engineering, 2011, 8(6):Article No. 066009 https://www.researchgate.net/publication/51745583_Detection_of_movement_intention_from_single-trial_movement-related_cortical_potentials
    [54] do Nascimento O F, Nielsen K D, Voigt M. Movement-related parameters modulate cortical activity during imaginary isometric plantar-flexions. Experimental Brain Research, 2006, 171(1):78-90 doi: 10.1007/s00221-005-0247-z
    [55] Jochumsen M, Niazi I K, Mrachacz-Kersting N, Farina D, Dremstrup K. Detection and classification of movement-related cortical potentials associated with task force and speed. Journal of Neural Engineering, 2013, 10(5):Article No. 056015 https://www.researchgate.net/publication/256201186_Detection_and_classification_of_movement-related_cortical_potentials_associated_with_task_force_and_speed
    [56] Ibáñez J, Serrano J I, del Castillo M D, Monge-Pereira E, Molina-Rueda F, Alguacil-Diego I, Pons J L. Detection of the onset of upper-limb movements based on the combined analysis of changes in the sensorimotor rhythms and slow cortical potentials. Journal of Neural Engineering, 2014, 11(5):Article No. 056009 https://www.researchgate.net/publication/264432388_Detection_of_the_onset_of_upper-limb_movements_based_on_the_combined_analysis_of_changes_in_the_sensorimotor_rhythms_and_slow_cortical_potentials
    [57] Lu J, Xie K, McFarland D J. Adaptive spatio-temporal filtering for movement related potentials in EEG-based brain-computer interfaces. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2014, 22(4):847-857 doi: 10.1109/TNSRE.2014.2315717
    [58] Yi W B, Qiu S, Wang K, Qi H Z, Zhang L X, Zhou P, He F, Ming D. Evaluation of EEG oscillatory patterns and cognitive process during simple and compound limb motor imagery. PLoS One, 2014, 9(12):e114853 doi: 10.1371/journal.pone.0114853
    [59] Nascimento O F D, Nielsen K D, Voigt M. Relationship between plantar-flexor torque generation and the magnitude of the movement-related potentials. Experimental Brain Research, 2005, 160(2):154-65 doi: 10.1007/s00221-004-1996-9
    [60] 彭亮, 侯增广, 王卫群.康复机器人的同步主动交互控制与实现.自动化学报, 2015, 41(11):1837-1846 http://www.aas.net.cn/CN/abstract/abstract18759.shtml

    Peng Liang, Hou Zeng-Guang, Wang Wei-Qun. Synchronous active interaction control and its implementation for a rehabilitation robot. Acta Automatica Sinica, 2015, 41(11):1837-1846 http://www.aas.net.cn/CN/abstract/abstract18759.shtml
    [61] 丁其川, 熊安斌, 赵新刚, 韩建达.基于表面肌电的运动意图识别方法研究及应用综述.自动化学报, 2016, 42(1):13-25 http://www.aas.net.cn/CN/abstract/abstract18792.shtml

    Ding Qi-Chuan, Xiong An-Bin, Zhao Xin-Gang, Han Jian-Da. A review on researches and applications of sEMG-based motion intent recognition methods. Acta Automatica Sinica, 2016, 42(1):13-25 http://www.aas.net.cn/CN/abstract/abstract18792.shtml
    [62] Amsúss S, Goebel P M, Jiang N, Graimann B, Paredes L, Farina D. Self-correcting pattern recognition system of surface EMG signals for upper limb prosthesis control. IEEE Transactions on Biomedical Engineering, 2014, 61(4):1167-1176 doi: 10.1109/TBME.2013.2296274
    [63] Fleischer C, Hommel G. A human-exoskeleton interface utilizing electromyography. IEEE Transactions on Robotics, 2008, 24(4):872-882 doi: 10.1109/TRO.2008.926860
    [64] Han J D, Ding Q C, Xiong A B, Zhao X G. A state-space EMG model for the estimation of continuous joint movements. IEEE Transactions on Industrial Electronics, 2015, 62(7):4267-4275 doi: 10.1109/TIE.2014.2387337
    [65] Feng W W, Belagaje S R. Recent advances in stroke recovery and rehabilitation. Seminars in Neurology, 2013, 33(5):498-506 https://www.ncbi.nlm.nih.gov/pubmed/24504613/
  • 加载中
  • 图(10)
    计量
    • 文章访问数:  3428
    • HTML全文浏览量:  852
    • PDF下载量:  2332
    • 被引次数: 0
    出版历程
    • 收稿日期:  2016-01-14
    • 录用日期:  2017-03-02
    • 刊出日期:  2017-07-20

    目录

    /

    返回文章
    返回