2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于SSVEP直接脑控机器人方向和速度研究

伏云发 郭衍龙 李松 熊馨 李勃 余正涛

李春娜, 陈伟杰, 邵元海. 鲁棒的稀疏Lp-模主成分分析. 自动化学报, 2017, 43(1): 142-151. doi: 10.16383/j.aas.2017.c150512
引用本文: 伏云发, 郭衍龙, 李松, 熊馨, 李勃, 余正涛. 基于SSVEP直接脑控机器人方向和速度研究. 自动化学报, 2016, 42(11): 1630-1640. doi: 10.16383/j.aas.2016.c150880
LI Chun-Na, CHEN Wei-Jie, SHAO Yuan-Hai. Robust Sparse Lp-norm Principal Component Analysis. ACTA AUTOMATICA SINICA, 2017, 43(1): 142-151. doi: 10.16383/j.aas.2017.c150512
Citation: FU Yun-Fa, GUO Yan-Long, LI Song, XIONG Xin, LI Bo, YU Zheng-Tao. Direct-brain-controlled Robot Direction and Speed Based on SSVEP Brain Computer Interaction. ACTA AUTOMATICA SINICA, 2016, 42(11): 1630-1640. doi: 10.16383/j.aas.2016.c150880

基于SSVEP直接脑控机器人方向和速度研究

doi: 10.16383/j.aas.2016.c150880
基金项目: 

云南省级人培项目 KKSY201303048

云南省教育厅重点项目 2013Z130

云南省应用基础研究计划 2013FB026

国家自然科学基金 61363043, 61463024, 81470084

详细信息
    作者简介:

    伏云发 昆明理工大学信息工程与自动化学院副教授.主要研究方向为模式识别与智能控制, 脑信息处理与脑控机器人接口, 脑-机交互控制理论和方法, 脑网络连通性.E-mail:fyf@ynu.edu.cn

    李松 昆明理工大学信息工程与自动化学院硕士研究生.主要研究方向为脑信息处理与脑机交互控制, 模式识别与智能控制.E-mail:lksong1234@sina.com

    熊馨 昆明理工大学信息工程与自动化学院讲师.主要研究方向为医学图像处理与模式识别, 脑网络连通性, 脑信息处理与脑机交互.E-mail:xiongxin840826@163.com

    李勃 昆明理工大学信息工程与自动化学院教授.主要研究方向为智能信息处理, 图像处理与模式识别.E-mail:lbly9177@163.com

    余正涛 昆明理工大学信息工程与自动化学院教授.主要研究方向为智能信息处理.E-mail:ztyu@hotmail.com

    通讯作者:

    郭衍龙 昆明理工大学信息工程与自动化学院硕士研究生.主要研究方向为脑信息处理与脑机交互控制, 模式识别与智能控制. E-mail:hrbeu_gyl@foxmail.com.

Direct-brain-controlled Robot Direction and Speed Based on SSVEP Brain Computer Interaction

Funds: 

Cultiva- tion Program of Talents of Yunnan Province KKSY201303048

Focal Program for Education Office of Yunnan Province 2013Z130

Research Project for Appli- cation Foundation of Yunnan Province 2013FB026

Supported by National Natural Science Foundation of China 61363043, 61463024, 81470084

More Information
    Author Bio:

    Associate professor at the Faculty of Information Engineering and Automation, Kunming University of Science and Technology. His research interest covers pattern recognition and intelligent control, brain information processing and brain-controlled robot interface, theories and methods for brain-machine interaction control, and brain network connectivity.

    Lecturer at the Faculty of Information Engineering and Automation, Kunming University of Science and Technology. Her research interest covers medical image processing and pattern recognition, brain network connectivity, brain information processing, and brain-computer interaction.

    Professor at the Faculty of Information Engineering and Automation, Kunming University of Science and Technolog. His research interest covers intelligent information processing, image processing, and pattern recognition.

    Professor at the Faculty of Information Engineering and Automation, Kunming University of Science and Technology. His main research interest is intelligent information processing.

    Corresponding author: GUO Yan-LongMaster student at the Faculty of Information Engineering and Automation, Kunming University of Science and Technology. His research interest covers brain information processing, brain-computer interaction control, pattern recognition, and intelligent control. Corresponding author of this paper.
  • 摘要: 直接用思维意图来控制机器人而没有大脑外周神经和肌肉的参与是人类的一个梦想,目前这一研究已成为国际前沿热点和突破点.传统的脑控机器人(Brain-controlled robot,BCR)主要控制其方向,而本文旨在探讨能够同时脑控机器人方向和速度的有效方法.采用可分类目标数多、单次识别率高且训练时间短的稳态视觉诱发电位(Steady state visual evoked potentials,SSVEP)脑机交互(Brain-computer/machine interaction,BCI/BMI)方法,为脑控机器人运动规划了向左、向右、前进和后退4个方向,设计了低速、中速和高速3级运动速度并组合了9个脑控指令;进而比较并优化了SSVEP刺激目标布局间距以及刺激目标闪烁时间,采用典型相关分析(Canonical correlation analysis,CCA)进行识别.结果表明恰当设置SSVEP刺激目标数及其布局间距和刺激目标闪烁时间,可以有效提高被试/用户直接脑控机器人的性能;优化的SSVEP刺激范式三结合适应SSVEP解码的典型相关分析,8名被试脑控机器人到达终点平均用时为2分40秒,最少用时1分29秒;同时,在脑控机器人运动过程中触碰障碍平均次数为0.88,最少碰触次数为0.本研究显示基于SSVEP的脑机交互可以作为直接脑控机器人灵活运动的一种可选方法,能够实现对机器人多个运动方向和多级速度的控制;也证实了适当增加刺激目标间距可以有效提高SSVEP-BCI脑控指令识别的正确率,说明了该脑控方法的性能与刺激被试的范式有关;再次验证了CCA算法在基于SSVEP的脑机交互中具有优良的效果.最后,为克服单一SSVEP范式存在的局限,本研究也尝试把该范式与运动想象相结合的混合范式用于脑控机器人方向和速度,并进行了初步的研究,表明可以进一步改善控制速度和提高被试舒适度.本文可望为基于SSVEP或与运动想象混合的脑机交互应用于分级或精细控制机器人方向和速度提供思路,并为直接脑控机器人技术推向实际应用打下一定的基础.
  • 主成分分析(Principle component analysis,PCA) [1]是一种被广泛研究的数据处理和降维技术,在多元统计分析、 生物信息、图像识别等领域中有着广泛应用 [2-6]. 对于给定的数据,PCA寻找线性投影方向使得数据在投影后空间中方差极大化,从而使得这些投影方向构成的低维线性空间能够较好地体现原空间的数据结构信息.

    当数据服从正态分布时,经典的PCA由于使用L2- 模,使得其在均方重构误差意义下是最优的.此外,PCA所求出的各主成分(Principle component,PC)之间互不相关,因此更有利于对各个主成分进行分析.尽管经典的PCA有诸多优点,但其各主成分是原变量的线性组合,且组合权重系数通常是非零的,这使得PCA在实际应用中往往可解释性较差. 为解决该问题,通常的做法是对权重系数加稀疏限制,如Zou等 [7]将PCA的原始问题构造为回归类型的优化问题,并通过Lasso和弹性网络得到稀疏的主成分; Shen等 [8]利用PCA和奇异值分解(Singular value decomposition,SVD) 之间的关系,通过求解低阶矩阵问题求解PCA,并通过极小化带正则项的优化问题得到稀疏的主成分; Johnstone等 [9] 则在高维情况下对单个主成分模型用阈值方法进行求解; Journée 等 [10]利用广义幂法通过添加L0- 模、L1- 模稀疏惩罚项构造非凸优化问题提取稀疏主成分.

    同时,L2- 模本身性质会导致PCA对数据离群点敏感 [11].对此,许多学者对鲁棒性进行了研究 [12-18]. L1- 模常常被作为达到鲁棒降维的有效手段 [19-21]. Brooks等 [12]针对含不平衡离群点数据提出基于低维子空间的L1- 模PCA (L1-PCA*),并用基于最适应超平面的方法来求解. 相比于文献[12],Ke等 [13] 通过求解凸优化问题实现L1- 模问题.不同于利用L1- 模,Ding 等 [14] 使用旋转不变的R1- 模构造PCA,在一定程度上抑制了离群点的影响.但是 该方法依赖于投影空间的维数.不同于以上方法通过在输入空间中极小化重构误差而实现,Kwak [15]提出PCA-L1,在特征空间中极大化相应的L1- 模问题并通过贪婪算法进行求解.该算法直观、简单且易于实施,并且与R1-PCA相比速度更快; 文献[16]则讨论了带Lp- 模稀疏约束的PCA模型,其中0<p< 1,并采用逐次线性化算法求解.最近,Kwak [17]将PCA-L1推广到PCA-Lp,其中p是任意非负数,同时证明了当p=2和p=1时,PCA-Lp分别等价于经典PCA和文献[15]提出的PCA-L1.

    为同时达到鲁棒性和稀疏性,Meng等 [18] 在PCA-L1的基础上提出具有稀疏性的L1- 模PCA (RSPCA). 实验表明,该算法不仅保持了PCA-L1的鲁棒性,而且具有稀疏性 [18]. 因此,本文拟提出稀疏的PCA-Lp (LpSPCA),将对任意p>0的LpSPCA进行研究;同时,通过添加额外L1- 模正则项,LpSPCA不仅有较好的降维性能,并具有一定的稀疏性.特别地,当0<p≦1时,LpSPCA同时具有良好的鲁棒性和稀疏性.

    LpSPCA可以通过一个简单的迭代算法实现,并且该算法在p≧1时收敛于局部最优解.此外,当p=1时,LpSPCA等价于文献[18]中所提的RSPCA.在具有离群点的人工数据及带噪声的人脸数据上的实验表明,LpSPCA在鲁棒性和稀疏性上与经典PCA相比有诸多优势,并可针对不同数据选择适当的p 以达到更好的效果.

    本文结构如下:第1节给出本文所提LpSPCA模型,第2节提出LpSPCA求解算法并进行相应的理论分析. 第3节将LpSPCA应用到人工数据及人脸数据上进行实验.第4节进行总结.

    考虑如下原始数据矩阵: $X = [{x_1},{x_2}, \cdots ,{x_N}] \in {R^{d \times N}}$ ,其中d代表样本点维数,N代表样本点个数. 不失一般性,假设数据已中心化.

    经典PCA试图寻找一个m<d维线性子空间使得样本点X在该空间中的方差尽可能大.该空间可以通过求解以下优化问题得到:

    $\eqalign{ & \mathop {\max }\limits_W \sum\limits_{i = 1}^N {\left\| {{W^{\rm{T}}}{x_i}} \right\|} _2^2 \cr & {\rm{s}}.{\rm{t}}.\quad {W^{\rm{T}}}W = I \cr} $

    (1)

    其中, $\|\cdot\|_2 $ 为L2- 模, $W = [{w_1},{w_2}, \cdots ,{w_m}] \in {R^{d \times m}},I \in {R^{m \times m}}$ 是单位阵.这里 ${{w}_j}$ 是数据X的第j主成分, $j=1,\cdots,m$ .优化问题(1)可以通过特征值问题进行求解.由约束条件 $W^{\rm T}W=I$ 知, $\{{{w}_j}\}_{j=1}^m $ 构成所求m 维线性子空间的标准正交基.

    由于优化问题(1)对w不具有稀疏性,为了引入稀疏性,可考虑以下带稀疏约束的优化问题:

    $\eqalign{ & \mathop {\max }\limits_W \mathop \sum \limits_{i = 1}^N \left\| {{W^{\rm{T}}}{x_i}} \right\|_2^2 \cr & {\rm{s}}.{\rm{t}}.\quad {W^{\rm{T}}}W = I,\left\| W \right\|0 \le k \cr} $

    (2)

    其中, $\| \cdot \| _0$ 为L0- 模,k是所求主成分稀疏度.显然,优化问题(2)是一个复杂的NP难组合问题,求解困难.为得到该问题的近似解,Jolliffe等 [22]L0- 模问题(2)松弛为L1- 模问题:

    $\eqalign{ & \mathop {\max }\limits_W \mathop \sum \limits_{i = 1}^N \left\| {{W^{\rm{T}}}{x_i}} \right\|_2^2 \cr & {\rm{s}}.{\rm{t}}.\quad {W^{\rm{T}}}W = I,{\left\| W \right\|_1} \le k \cr} $

    (3)

    其中, $\| \cdot \| _1$ 为L1- 模.优化问题(3)使得投射后的样本点在L2- 模意义下方差最大,并使解具有L1- 模意义下的稀疏度k. 但由于L2- 模的应用使得样本方差由范数较大的样本点决定,因此文献[18]进一步考虑如下优化问题:

    $\eqalign{ & \mathop {\max }\limits_W \mathop \sum \limits_{i = 1}^N {\left\| {{W^{\rm{T}}}{x_i}} \right\|_1} \cr & {\rm{s}}.{\rm{t}}.\quad {W^{\rm{T}}}W = I,{\left\| W \right\|_1} \le k \cr} $

    (4)

    优化问题(3)和(4)的区别在于式(4)使用L1- 模定义投射空间样本方差,而式(3)则用L2- 模定义.进一步,我们可以将以上问题推广为要求投射后的样本点在Lp- 模意义下方差最大,其中p>0是任意实数.通过选择适当的p,适应更广泛类型的数据.因此,本文提出稀疏Lp- 模PCA的原始优化问题如下:

    $\eqalign{ & \mathop {\max }\limits_W {F_p}(W) = \cr & {1 \over p}\sum\limits_{i = 1}^N {\left\| {{W^{\rm{T}}}{x_i}} \right\|_p^p} = {1 \over p}\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^m | } w_j^{\rm{T}}{x_i}{|^p} \cr & {\rm{s}}.{\rm{t}}.\quad {W^{\rm{T}}}W = I,{\left\| W \right\|_1} \le k \cr} $

    (5)

    其中, $\| \cdot \|_p$ 为Lp- 模.我们称以上模型为LpSPCA.容易看到,当p=2时,式(5)是优化问题(3),而当p = 1时,式(5)等价于优化问题(4).此外,当0 < p ≦1时,LpSPCA可同时保持鲁棒性及稀疏性的优点.因此,可以通过选择不同的p,实现在保持稀疏性的同时满足不同的降维要求.

    尽管优化问题(5)中的稀疏约束用凸的L1- 模代替了非凸的L0- 模,LpSPCA仍然难以给出通用的优化方法.为此,我们首先考虑求解m=1的情况;对于m>1的情形,可通过引入贪婪算法求解.因此,首先考虑求解如下问题:

    $\eqalign{ & \mathop {\max }\limits_w {F_p}(w) = {1 \over p}\sum\limits_{i = 1}^N | {w^{\rm{T}}}{x_i}{|^p} \cr & {\rm{s}}.{\rm{t}}.\quad {w^{\rm{T}}}w = 1,{\left\| w \right\|_1} \le k \cr} $

    (6)

    通过引入拉格朗日函数对优化问题(6)进行求解.记优化问题(6)的拉格朗日函数如下:

    $L(w) = {F_p}(w) - \lambda ({w^{\rm{T}}}w - 1) - \gamma ({\left\| w \right\|_1} - k)$

    (7)

    其中,λ>0.令

    $\nabla w = \sum\limits_{i = 1}^N {{\rm{sgn}}} ({w^{\rm{T}}}{x_i})|{w^{\rm{T}}}{x_i}{|^{p - 1}}{x_i}$

    (8)

    Fp (w)w的导数,其中 ${\rm sgn}(\cdot)$ 为符号函数.则L(w)w 的导数为0时有

    $\nabla w - 2\lambda w - \gamma {\rm{sgn}}(w) = 0$

    (9)

    从而, $w = {1 \over {2\lambda }}(\nabla w - \gamma {\rm{sgn}}(w))$ ,λ>0. 当λ< 0 时,令 $\triangledown_{ w} =0$ . 则此时w=0,问题(6)无解. 当λ> 0时,从式(9)可得w满足 ${\rm{sgn}}(w) = {\rm{sgn}}({\nabla _w}),|{\nabla _w}| \ge \gamma $.由此,

    $w = {{{\rm{sgn}}(w)} \over {2\lambda }}{(|{\nabla _w}| - \gamma )_ + } = {1 \over {2\lambda }}\beta $

    (10)

    其中,

    $\eqalign{ & \beta = {\rm{sgn}}(w){(|\nabla w| - \gamma )_ + } \cr & {(a)_ + } = \left\{ \matrix{ a,{\rm{ }}a > 0 \hfill \cr 0,{\rm{ }}a \le 0 \hfill \cr} \right. \cr} $

    由于 ${ w}^{\rm T}{ w}=1$ ,因此可得 $\lambda =\| {\beta} \| _2 /2$ ,且 ${ w}^\ast={\beta} /\| {\beta} \| _2$ . 令λ是 $| \triangledown_{ w} | $ 中第k+1大的元素,则由式(10)所表示的w恰好有k个非零元素.从而我们可以得到当m=1时,LpSPCA 模型的求解算法如下:

    算法 1. 一个主成分的LpSPCA算法(m=1)

    输入. 数据矩阵 $X=[{ x}_1 ,{ x}_2 ,\cdots ,{ x}_N]\in R^{d\times N}$ ,稀疏度k.

    输出. ${ w}^\ast $ .

    步骤 1. 初始化 ${ w}(0)$ ,并令 $w(0) = w(0)/w(0){_2}$ ,迭代次数t=0.

    步骤 2. 奇异性检查:若 $p\le 1$ ,且存在i,使得 ${ w}^{\rm T}(t){ x}_i$ = 0,则令 $w(t) \leftarrow (w(t) + \delta )/w(t) + \delta {_2}$ ,其中是一个小的随机生成的向量.

    步骤 3. 计算

    $\nabla w(t) = \sum\limits_{i = 1}^N {{\rm{sgn}}} (w{(t)^{\rm{T}}}{x_i})|w{(t)^{\rm{T}}}{x_i}{|^{p - 1}}{x_i}$

    令 ${ w}(t+1)={\beta} (t)/\| {\beta} (t)\| _2$ ,其中${\beta} (t)={\rm sgn}({ w}(t))$×$(| \triangledown_{{ w}(t)} | -\gamma )_+ $,λ是 $| \triangledown_{{ w}(t)} | $ 中第k+1大的元素.

    步骤 4. 收敛检查:如果优化问题(6)的目标函数继续增长,转到步骤2; 否则,得到最优解 ${w^ * } = w(t)$ ,并停止迭代.

    在给出求解多个主成分的算法前,首先讨论算法1当p≧1时的收敛性.

    定理 1.p≧1时,优化问题(6)的目标函数值通过每次迭代单调不降.

    证明 . 首先考虑p>1的情况.令 w(t)w在第t次迭代中的值.则 ${ w}(t+1)={\beta} (t)/\| {\beta} (t)\| _2 $ ,其中 ${\beta} (t)={\rm sgn}({ w}(t))(| \triangledown_{{ w}(t)} | -\gamma )_+ $ .由于p>1,因此 $F_p ({ w})$ 是凸函数.由凸函数的性质可知:

    ${F_p}(w(t + 1)) - {F_p}(w(t)) \ge \nabla _{w(t)}^{\rm{T}}(w(t + 1) - w(t))$

    (11)

    注意到sgn(w(t+1))=sgn(▽w(t)),且w(t+1) 满足 $w(t + 1){_2} = 1,w(t + 1){_1} \le k$ ,而w(t)满足 $\| { w}(t)\| _2 =1$,$\| { w}(t)\| _1 \le k$ ,因此有 $\nabla _{w(t)}^{\rm{T}}(w(t + 1) - w(t)) \ge 0$ .结合式(11)可知, ${F_p}(w(t + 1)) - {F_p}(w(t)) \ge 0$ ,因此可得p>1时的结论.

    p=1时,由文献[18]中的定理1知,算法1收敛.

    综上所述,当p≧1时,优化问题(6)的目标函数是单调不降的.

    由于优化问题(6)的目标函数有上界,且由定理1知,随着每次迭代目标函数值非降,因此算法1当p≧1时是收敛的.需要注意的是,尽管当0< p<1时,优化问题(6)的目标函数是非凸的,但在实验中发现,目标函数值在迭代过程中也很快趋于稳定.

    由于当m>1时,优化问题(5)很难用一般优化方法进行求解.为此,采用贪婪算法进行求解.算法的基本思路是首先对原始数据应用算法1得到第一主成分w1;然后将数据投影到与w1正交的空间中得到新的数据集,并在投影后的数据集上继续应用算法1 得到第二主成分;依次类推,直到得到m个主成分.算法具体步骤如下:

    算法 2. 多个主成分的LpSPCA算法 (m>1)

    输入. 数据矩阵 $X=[{ x}_1 ,{ x}_2 ,\cdots ,{ x}_N]\in R^{d\times N}$ ,稀疏度k,主成分个数m>1.

    输出. m个稀疏主成分 $\{{ w}_i \}_{i=1}^m $ .

    步骤 1. 记 ${ w}_0 =0\in R^d$ 且 $X^0=\{{ x}_i^0 ={ x}_i \}_{i=1}^n $ .

    步骤 2. 对$j=1,2,\cdots ,m$,进行以下循环:

    1) 令 $X^j=\{{ x}_i^j ={ x}_i^{j-1} -{ w}_{j-1} ({ w}_{j-1}^{\rm T} { x}_i^{j-1} )\}_{i=1}^N $ ;

    2) 应用算法1到数据集Xj上并得到稀疏度为k的主成份wj.

    算法2求得的各主成分不随m的变化而改变,并且第1主成分为原始式(6)的局部最优解,第2主成分为式(6)的局部次优解,依次类推.算法2是一个启发式算法,只能得到式(5)的近似解.主要包括两方面: 1)算法1本身只能得到式(6)的局部解; 2)由算法2产生的 $\{{ w}_i\}_{i=1}^m $ 的正交性不能在理论上给予保证.然而,由算法2中步骤2可知, $w_s^{\rm{T}}x_i^j = 0,i = 1,2, \cdots ,N,s = 1,2, \cdots ,j - 1$ ,因此投射后的样本集Xj属于 $\{{ w}_s \}_{s=1}^{j-1}$ 所张成的$(j-1)$维子空间,并且由Xj所得到的第j个主成分wj也近似正交于 $\{{ w}_s \}_{s=1}^{j-1} $ .

    需要注意的是,算法2实际上是对算法1在不同数据集上的循环执行.因此,算法1的解对算法2有直接影响.在算法1中,初始值是随机选取,而算法1所得的局部解是依赖于该初始值的.因此,好的初始值比较重要.在实际运行中,除了随机赋初始值外,还可以采用经典PCA 的解作为算法1的初始值;或者选择不同的初始值多次运行算法1,并在这些初始值中选择使得目标函数最大的初始值;还可以选择初始值使得其与范数最大的样本同向.为减少运算复杂度,同时为了测试算法的稳定性,本文采取随机赋值的方法.

    为验证本文算法的鲁棒性和稀疏性,通过两个人工数据集和两组带离群点和噪声点的Yale人脸数据集,以重构误差(Reconstruction error)为指标,分别对LpSPCA算法与经典PCA [1]、PCA-Lp [17]及RSPCA [18]算法进行性能分析. 为方便起见,以下称PCA-Lp为LpPCA.所有实验均以Matlab 2014b为软件环境,以Intel i5 (2.3 GHz)处理器,8 GB内存的计算机为硬件平台.在实验中,使用Matlab中eig函数求解经典PCA的特征值问题,使用算法2求解LpSPCA.

    3.1.1   LpSPCA 鲁棒性分析

    通过设计一个三维带离群点的人工数据集,验证不同p值对LpSPCA算法抗离群点性能的影响.人工数据集构造如下: 1)选取31个数据点 $\{ ({x_i},{y_i},{z_i})\} _{i = 1}^{31}$ 构成空间中平行于x轴的近似直线,其中 ${x_i} \in [ - 3,3]$ ,且yizi分别随机取自[0,0.1]和[-1,-0.9]上的均匀分布. 2)在该数据中引入4个离群点,分别为 $(4+\alpha_i ,2+{\beta} _i ,4+\gamma _i )$ 和 $({\alpha _i}, - 3 + {\beta _i},4 + {\gamma _i})$ ,其中 ${\alpha _i},{\beta _i},{\gamma _i}$ 随机取自[0,0.1]上的均匀分布,i=1,2,如图 1 (a)所示.

    图 1  PCA和LpSPCA在人工数据集上所得到的第1个主成分及 将数据用LpSPCA、PCA、RSPCA、LpPCA投影到该主成分所张成空间上的重构误差
    Fig. 1  The -rst principal components of the arti-cial data set obtained by classical PCA and LpSPCA, and reconstruction errors in the spaces spanned by the -rst principal components obtained by LpSPCA, PCA, RSPCA and LpPCA, respectively

    由上述人工数据集的结构可知,该数据由1个平行于x的主方向和远离该主方向的4个离群点构成.因而,该人工数据本质上是1维向量嵌入在3 维空间中的数据.因此,在本组实验中,将检验LpSPCA和PCA、RSPCA、LpPCA将数据降到1维子空间后的重构性能.另外,设置LpSPCA 和RSPCA的稀疏度为k=2.

    对于LpSPCA,由于该人工数据在三维空间中,因此稀疏度k可以取为1或2.然而,若取k=1时,则主成分将有两个分量为0.此时,根据该数据点的构造,可以得到的主成分将平行于x轴方向,因而意义不大.因此,选取稀疏度k=2.

    图 1 (a)给出了LpSPCA和经典PCA的第1主成分(PC)投影方向(为使图像更清晰,没有画出LpPCA所提取的PC方向).结果表明:当p=0.5时,LpSPCA所得到的第一PC方向与数据的真实方向最为接近,并且随着p的增长,LpSPCA的PC方向受离群点影响越来越大.特别地,当p=2时,LpSPCA与经典PCA所得PC方向基本一致.

    为进一步验证各算法性能,与文献[15]类似,引入重构误差指标,定义如下:

    ${e_i} = {\left\| {{\zeta _i} - {w_1}w_1^{\rm{T}}{\zeta _i}} \right\|_2}$

    其中, ${\zeta} _i =\{(x_i ,y_i ,z_i )\}$ 为第i个样本点,w1是相应方法所得的第一PC.图 1 (b)描绘了各算法将原3维空间数据降到1维后每个样本点的重构误差.从图 1(b) 可以看出,当p=0.5时,LpSPCA在该数据上的重构误差最小,并且随着p增大,LpSPCA的重构误差依次增大; LpPCA也呈现同样的特点.然而,当取相同p时,可以看到LpSPCA的重构误差比LpPCA 略低,说明在此数据集上,主成分本身具有一定稀疏性,因此LpSPCA效果更好.同时,RSPCA的重构误差与p=1时的LpSPCA、LpPCA基本持平.此外,p=2时,LpSPCA、LpPCA与经典PCA在样本点上的重构误差相近.实验结果表明,LpSPCA可以通过调节p达到相当的鲁棒性.

    3.1.2   LpSPCA 稀疏性分析

    通过设计一个8维的人工数据集验证LpSPCA算法的稀疏性.该人工数据集的构造基于文献[7]中的人工数据.

    在构造人工数据集前,定义三个潜在因子:

    $\eqalign{ & {V_1} \sim {\rm{N}}(0,20) \cr & {V_2} \sim {\rm{N}}(0,30) \cr & {V_3} = - 0.2V + 0.8{V_2} + \varepsilon \cr} $

    其中, $\varepsilon \sim {\rm N}(0,1)$ ,且V1V2ε互相独立.记xi为数据集的第i个特征, $i=1,2,{\cdots},8$ . 则定义 ${x_1},{x_2},{x_3} = {V_1},{x_4},{x_5},{x_6} = {V_2},{x_7},{x_8} = {V_3}$ .三个潜在因子的方差分别为20、30和20,因此V2最重要,V1V3基本同等重要.这样,得到的第1主成分应只用 $({x_4},{x_5},{x_6})$ 就可恢复V3,而第2和第3主成分可只用 $({x_1},{x_2},{x_3})$ 或 $({x_7},{x_8})$ 恢复,即所构造数据本身具有稀疏性.将各算法应用于此数据,所得结果列于表 1 ~ 3中.

    表 1  PCA和RSPCA在人工数据集2上提取的前两个主成分
    Table 1  The first two PCs extracted by PCA and RSPCA on artificial data set 2
    PCARSPCA
    PC1PC2PC1PC2
    0.0608-0.123800.0998
    -0.05270.042200.4954
    0.03890.151400.4048
    -0.1343-0.1754-0.36080
    0.167-0.10620.36790
    0.20740.184100
    0.21350.023700
    -0.12540.19330.27130
    下载: 导出CSV 
    | 显示表格
    表 2  LpPCA 在人工数据集2 上所提取的前两个主成分
    Table 2  The first two PCs extracted by LpPCA on artificial data set 2
    LpPCA (L0.5)LpPCA (L1) LpPCA (L1.5)LpPCA (L2)
    PC1 PC2 PC1 PC2 PC1 PC2 PC1 PC2
    0.1610.1896-0.1924-0.16570.0588-0.1483-0.1807-0.1945
    -0.14330.08550.17830.0865-0.1833-0.0360.03990.1858
    -0.1472-0.18070.1511-0.0542-0.17710.04280.1957-0.1054
    0.07730.0125-0.10560.131-0.0350.10670.2457-0.0457
    -0.09420.05660.17130.1395-0.2173-0.1576-0.01840.0696
    0.1948-0.16460.05-0.1428-0.2380.23750.1488-0.1129
    0.08310.1925-0.14280.14990.21350.08990.08310.1925
    -0.09910.11790.0085-0.1306-0.12540.1812-0.09910.1179
    下载: 导出CSV 
    | 显示表格
    表 3  LpSPCA 在人工数据集2 上所提取的前两个主成分
    Table 3  The first two PCs extracted by LpSPCA on artificial data set 2
    LpPCA (L0.5)LpPCA (L1) LpPCA (L1.5)LpPCA (L2)
    PC1 PC2 PC1 PC2 PC1 PC2 PC1 PC2
    00.29780-0.447400.128500.1126
    0-0.6740-0.169600.4496-0.06250
    00.02820-0.38300.422000.4801
    0.272600.256700.5954000.4073
    -0.402700.37410-0.24690-0.58450
    0.324700.3693000-0.3530
    00000000
    00000.2713000
    下载: 导出CSV 
    | 显示表格

    表 1 ~ 3可以看出,经典PCA和LpPCA (p = 0.5,1,1.5,2)均不具有稀疏性,而RSPCA和LpSPCA (p=0.5,1,1.5,2)有较好的稀疏性.同时p越小,LpSPCA所提取的稀疏主成分越接近于真实情况.特别地,当p=0.5,1和1.5时,LpSPCA所得结果优于RSPCA.

    特征脸提取是人脸识别的一个重要环节,近年来得到广泛研究与发展.然而,传统的特征脸提取方法大多基于无噪声污染的人脸图像数据 [23-26].但是,现实中人脸图像大多包含离群点或噪声,例如脸部被遮掩、弱光线下的图像等,这极大影响了传统基于L2- 模降维方法的性能.因此,本实验将LpSPCA算法应用到带离群点和噪声的Yale人脸数据上,并 将其和经典PCA、RSPCA及LpPCA比较,以验证其特征提取能力及鲁棒性.

    Yale人脸数据集包含15类共165张灰色人脸数据图片,每类包含11张图片,并且每张图片都具有不同的布局及面部表情. Yale人脸数据图片的原始大小为320像素×243像素,本文采用裁剪后大小为64像素×64像素的归一化图片. 为测试LpSPCA的鲁棒性,本文采取文献[18]中的做法,对原始图片进行两种加离群点及噪声点处理: 1) 遮盖噪声(Occluded),首先在每类的11个图像中随机抽取两张图像,然后在抽取的图像上随机选择大小为40×30 的长方形区域,并用黑白噪声对其覆盖; 2)哑噪声(Dummy),在整个人脸数据集中额外加入与原人脸图像大小相同的50张黑白点噪声图片.

    本文将分别在上述两类Yale人脸数据集上,以重构特征脸和平均重构误差(Average reconstruction error,ARCE)为指标,验证和分析LpSPCA的鲁棒性.类似文献[15],这里将使用前m个PC对图像进行重构,其ARCE定义如下:

    $e(m) = {1 \over n}\sum\limits_{i = 1}^n {\xi _i^o - \sum\limits_{j = 1}^m {{w_j}} w_j^{\rm{T}}{\xi _i}{_2}} $

    其中,n为图像样本点个数, ${\xi} _i^o $ 代表第i张原始人脸图片, ${\xi} _i$ 代表噪声化人脸数据集中相应的图片.

    3.2.1   稀疏度 k 对算法性能的影响

    在验证LpSPCA算法的鲁棒性之前,首先分析稀疏度k对ARCE的影响.每个人脸在实际计算中都相当于4 096 (64×64)维向量. 对每个不同的p,选取稀疏度k为维度的一定百分比: 95 %,90 %,85 %,80 %,75 %. 例如,当取百分比为95 %时,则此时稀疏度k 为4 096×95 %.

    图 2 (a)图 2 (b)分别给出了在两种噪声人脸数据集上,具有不同稀疏度的LpSPCA的平均重构误差.从图 2可以看出,无论是哪种数据,随着k 值的增加,LpSPCA的重构误差整体趋势逐渐增加,然而,当稀疏度选为维数的90% 时,其重构误差最小.因此,在后续鲁棒性实验中,始终设定算法稀疏度为维度的90%.

    图 2  稀疏度k对LpSPCA平均重构误差在带遮盖噪声和哑噪声的Yale 人脸数据上的影响
    Fig. 2  The influence of parsity k to the ARCE of LpSPCA on the occluded or dummy Yale face database
    3.2.2   LpSPCA 与其他算法性能对比

    对于遮盖噪声型数据,首先使用各算法将64×64维的图像高维空间降维到由前30个PC张成的子空间,然后再用该子空间对遮盖噪声图像进行重构. 图 3 (a)给出了各算法的重构效果.从图 3 (a)可以看出,当p=0.5时,LpSPCA重构效果最好,这是由于L0.5- 模极大程度抑制了噪声的影响; 随着p的增大,LpSPCA受噪声的影响增大;当p=2时,其性能与经典的L2-PCA相近.上述结果表明,传统基于L2- 模的降维算法,其重构性能易受噪声点影响.

    图 3  带遮盖噪声的Yale人脸数据及LpSPCA、PCA、RSPCA和LpPCA在该数据上用前30个相应主成分的重构效果图及 将数据用各方法投影到该1 ~ 70个主成分上的重构误差
    Fig. 3  Occluded Yale face database and face reconstruction pictures of the data set constructed by the first thirty principal components obtained by LpSPCA,PCA,RSPCA and LpPCA and reconstruction errors in the spaces spanned by 1 ~ 70 principal components obtained by PCA,RSPCA,LpPCA and LpSPCA,respectively

    图 3 (b)给出了各算法提取的PC个数(即重构子空间维数)对ARCE的影响.结果表明:对于所有算法,随着PC个数的增大,ARCE逐级减少,说明重构子空间维数对重构效果存在较大影响.随PC个数增加,当p=0.5时,LpPCA和LpSPCA的ARCE 快速下降,且当特征个数大于35时,LpSPCA的ARCE略低于LpPCA. p=1时,LpPCA和LpSPCA的ARCE小于RSPCA,且当所提取特征个数小于50 时,LpSPCA的重构误差更小.随着p的增大(p=1.5,2),LpPCA和LpSPCA的性能开始变差,其ARCE高于RSPCA. 然而,LpPCA、 LpSPCA (p= 0.5,1,1.5,2)和RSPCA的性能都比经典PCA要好.从图中可以看出,当提取PC个数在12 ~ 30之间时,随着提取特征数的增加,经典PCA、RSPCA及p=1.5,2时,LpPCA和LpSPCA的重构误差也有所增加.表明对于经典PCA、RSPCA及p=1.5,2时的LpPCA和LpSPCA,所加遮盖噪声对第12 ~ 30个PC的提取有很大影响.相反,当p=0.5,1时,LpPCA和LpSPCA随提取特征数据的增长,ARCE下降较快,且没有接近常数的值.以上结果表明,当0<p< 1时,LpSPCA具有良好的鲁棒性.

    对于哑噪声型数据,可以得到类似结论. 1)图 4 (a)描述了经典PCA、RSPCA 及p =0.5,1,1.5,2时LpPCA和LpSPCA在该数据集上的重构效果.从图 4 (a)可以看出,经典PCA及p=1.5,2时的LpPCA和LpSPCA对原始图片重构效果最差,以至于对半数以上人脸重构失真,并且p=1.5时的结果比p=2时更差.相对而言,RSPCA及对应p=0.5,1 的LpPCA和LpSPCA则成功提取人脸特征,并再现了原始人脸图片. 2)图 4 (b)给出的相应平均重构误差,进一步印证了以上结论.具体地,当提取特征数为5 ~ 55时,对于经典PCA、 p=1.5,2时的LpPCA 和p=2 时的LpSPCA,它们的重构误差接近于常数,表明所加虚拟噪声图像对第5 ~ 55个PC的提取有很大的影响.相反,当p=0.5,1时,LpSPCA和LpPCA的ARCE则下降较快,并且两者ARCE值基本相同.说明与LpPCA相比,LpSPCA并没有损失精度,却具有良好的稀疏性.

    图 4  原始Yale人脸数据及LpSPCA、PCA、RSPCA和LpPCA 在带哑噪声的Yale数据上用前30个相应主成分的\\重构效果图及将数据用 各方法投影到该1 ~ 70个主成分上的重构误差
    Fig. 4  Original Yale face database and face reconstruction pictures of its dummy data set constructed by the first thirty principal components obtained by LpSPCA,PCA,RSPCA and LpPCA and reconstruction errors in the spaces spanned by 1 ~ 70 principal components obtained by PCA,RSPCA,LpPCA and LpSPCA,respectively

    以上在Yale带离群点和噪声人脸数据上的实验结果表明,相比于经典PCA和LpPCA,本文所提LpSPCA在不损失精度的基础上具有较好的稀疏性; 相比于经典PCA和RSPCA,LpSPCA可通过选择p达到不同的处理离群点及噪声效果,具有鲁棒性.

    本文提出一种新的鲁棒稀疏PCA模型及算法LpSPCA. LpSPCA对LpPCA赋予了稀疏性,使得算法在具有鲁棒性的同时具有较强的可解释性. LpSPCA可由一个简单的算法进行求解,并理论上验证了该算法p≧1时的收敛性. LpSPCA在人工数据及人脸数据上的结果表明了该算法的优势.然而,本文所提LpSPCA算法只能求得局部近似解而不保证精确解.因此,设计针对LpSPCA更有效的算法是值得进一步研究的.

  • 图  1  直接脑控机器人系统

    Fig.  1  Direct brain-controlled robot system

    图  2  脑控机器人测试平台及脑控机器人系统客户/服务器结构

    Fig.  2  The test platform and client/server architecture \\for brain-controlled robot system

    图  3  SSVEP脑机交互刺激范式一

    Fig.  3  The first SSVEP-based BCI stimulation paradigm

    图  4  SSVEP脑机交互刺激范式二和范式三

    Fig.  4  The second and the third SSVEP-based BCI stimulation paradigm

    图  5  基于SSVEP脑机交互直接脑控机器人系统结构

    Fig.  5  The structure of SSVEP-based BCI directly brain-controlled robot

    图  6  三种SSVEP刺激范式下被试脑控机器人达到终点平均用时及触碰障碍物次数及在1 $\sim$ 4秒刺激时间下的平均正确识别率

    Fig.  6  The averaged consuming time,number of touching obstacles and classification accuracies across 8 subjects when their controlling robot by their brains to reach the destination under three SSVEP stimulation paradigms

    表  1  一种脑控机器人策略: SSVEP 脑机交互刺激范式刺激目标对应的脑控制指令

    Table  1  A strategy for brain-controlled robot: control commands corresponding to the stimulus targets of SSVEP-based BCI stimulation paradigm

    F(Forward)BCIID01CA1000低速前进
    F+BCIID01CA2000中速前进
    F++BCIID01CA3000高速前进
    B(Backward)BCIID01CA0100低速后退
    B+BCIID01CA0200中速后退
    L(Left)BCIID01CA0010低速左转
    L+BCIID01CA0020中速左转
    R(Right)BCIID01CA0001低速右转
    R+BCIID01CA0002中速右转
    下载: 导出CSV

    表  2  三种SSVEP 刺激范式下被试脑控机器人达到终点用时及触碰障碍物次数

    Table  2  The consuming time and the number of touching obstacles when subjects controlling robot by their brains to reach the destination under three SSVEP stimulation paradigms

    SSSVEP刺激范式一SSVEP刺激范式二SSVEP刺激范式三
    用时(min)触碰次数 用时(min)触碰次数用时(min)触碰次数
    S1601854036330593
    602633054230360
    505644012230411
    603264057320461
    S2504834020130392
    502644029330010
    505034021220190
    S3500323039130020
    504343054220431
    603853004020370
    S4505544020330563
    505243039130172
    501843035110590
    S5404833026220321
    404433005120090
    504643022220470
    S6600963051230142
    505443025120250
    502752050210290
    S7405953009220271
    405562059210471
    701653053130422
    S8601143054230250
    604943013230241
    Aver50354.1730321.7520401.88
    Min404422050010290
    Var0.391.060.390.600.460.64
    下载: 导出CSV

    表  3  SSVEP脑机交互刺激范式一下刺激目标不同闪烁时间被试的正确识别率(%)

    Table  3  The correct recognition rate (%) at different flickering durations for 8 subjects under the first SSVEP-based BCI stimulation paradigm

    STd=1sTd=2sTd=3sTd=4s
    S133.3366.6783.3386.67
    S236.6770.0086.6793.33
    S330.0063.338086.67
    S430.0060.0076.6780
    S546.6780.0093.33100
    S643.3380.009096.67
    S736.6770.0086.6790
    S840.0066.6783.3386.67
    Aver37.0869.588590
    Max46.6780.0093.33100
    Var31.7845.6624.9936.11
    下载: 导出CSV

    表  4  SSVEP脑机交互刺激范式二下刺激目标不同闪烁时间被试的正确识别率(%)

    Table  4  The correct recognition rate (%) at different flickering durations for 8 subjects under the second SSVEP-based BCI stimulation paradigm stimulation paradigm

    STd=1sTd=2sTd=3sTd=4s
    S140.0073.3386.6793.33
    S243.3380.009096.67
    S336.6773.3386.6793.33
    S440.0076.679093.33
    S556.6786.6796.67100
    S653.3383.3393.33100
    S743.3376.679093.33
    S846.6780.0093.3396.67
    Aver45.0078.7590.8395.83
    Max56.6786.6796.67100
    Var41.6719.2810.417.65
    下载: 导出CSV

    表  5  脑机交互刺激范式三下刺激目标不同闪烁时间被试的正确识别率(%)

    Table  5  The correct recognition rate (%) at different flickering durations for 8 subjects under the third SSVEP-based BCI stimulation paradigm stimulation paradigm

    S Td=1 s Td=2 s Td=3 s Td=4 s45
    S1 43.33 80.00 90.00 93.3345
    S2 46.67 83.33 93.33 96.6745
    S3 43.33 80.00 90.00 93.3345
    S4 40.00 76.67 90.00 96.6745
    S5 60.00 86.67 96.67 10045
    S6 53.33 86.67 96.67 10045
    S7 46.67 83.33 93.33 93.3345
    S8 46.67 83.33 96.67 10045
    Aver 47.50 82.50 93.33 96.6745
    Max 60.00 86.67 96.67 10045
    Var 35.42 10.42 8.34 8.3445
    下载: 导出CSV
  • [1] Brain-computer interface from Wikipedia, the free encyclopedia [Online], available: http://en.wikipedia.org/wiki/ Brain-computer_interface, April 29, 2016.
    [2] Hochberg L R, Bacher D, Jarosiewicz B, Masse N Y, Simeral J D, Vogel J, Haddadin S, Liu J, Cash S S, van der Smagt P, Donoghue J P. Reach and grasp by people with tetraplegia using a neurally controlled robotic arm. Nature, 2012, 485(7398): 372-375 doi: 10.1038/nature11076
    [3] 伏云发, 王越超, 李洪谊, 徐保磊, 李永程. 直接脑控机器人接口技术. 自动化学报, 2012, 38(8): 1229-1246 doi: 10.3724/SP.J.1004.2012.01229

    Fu Yun-Fa, Wang Yue-Chao, Li Hong-Yi, Xu Bao-Lei, Li Yong-Cheng. Direct brain-controlled robot interface technology. Acta Automatica Sinica, 2012, 38(8): 1229-1246 doi: 10.3724/SP.J.1004.2012.01229
    [4] McFarland D J, Wolpaw J R. Brain-computer interface operation of robotic and prosthetic devices. Computer, 2008, 41(10): 52-56 doi: 10.1109/MC.2008.409
    [5] Bell C J, Shenoy P, Chalodhorn R, Rao R P N. Control of a humanoid robot by a noninvasive brain-computer interface in humans. Journal of Neural Engineering, 2008, 5(2): 214-220 doi: 10.1088/1741-2560/5/2/012
    [6] Millan J R, Renkens F, Mourino J, Gerstner W. Noninvasive brain-actuated control of a mobile robot by human EEG. IEEE Transactions on Biomedical Engineering, 2004, 51(6): 1026-1033 doi: 10.1109/TBME.2004.827086
    [7] Comparison of consumer brain-computer interfaces from Wikipedia, the free encyclopedia [Online], available: http://en.wikipedia.org/wiki/Comparison_of_consumer_ brain-computer_interface_devices, December 20, 2015.
    [8] 伏云发, 徐保磊, 李永程, 李洪谊, 王越超, 余正涛. 基于运动相关皮层电位握力运动模式识别研究. 自动化学报, 2014, 40(6): 1045-1057 http://www.aas.net.cn/CN/abstract/abstract18374.shtml

    Fu Yun-Fa, Xu Bao-Lei, Li Yong-Cheng, Li Hong-Yi, Wang Yue-Chao, Yu Zheng-Tao. Recognition of actual grip force movement modes based on movement-related cortical potentials. Acta Automatica Sinica, 2014, 40(6): 1045-1057 http://www.aas.net.cn/CN/abstract/abstract18374.shtml
    [9] SchlÖgl A, Lee F, Bischof H, Pfurtscheller G. Characterization of four-class motor imagery EEG data for the BCI-competition 2005. Journal of Neural Engineering, 2005, 2(4): L14-L22 http://cn.bing.com/academic/profile?id=2057219090&encoded=0&v=paper_preview&mkt=zh-cn
    [10] 孙会文, 伏云发, 熊馨, 杨俊, 刘传伟, 余正涛. 基于HHT运动想象脑电模式识别研究. 自动化学报, 2015, 41(9): 1686-1692 http://www.aas.net.cn/CN/abstract/abstract18742.shtml

    Sun Hui-Wen, Fu Yun-Fa, Xiong Xin, Yang Jun, Liu Chuan-Wei, Yu Zheng-Tao. Identification of EEG induced by motor imagery based on Hilbert-Huang transform. Acta Automatica Sinica, 2015, 41(9): 1686-1692 http://www.aas.net.cn/CN/abstract/abstract18742.shtml
    [11] Fu Y F, Xu B L, Li Y C, Wang Y C, Yu Z T, Li H Y. Single-trial decoding of imagined grip force parameters involving the right or left hand based on movement-related cortical potentials. Chinese Science Bulletin, 2014, 59(16): 1907-1916 doi: 10.1007/s11434-014-0234-5
    [12] Lv J, Li Y Q, Gu Z H. Decoding hand movement velocity from electroencephalogram signals during a drawing task. Biomedical Engineering Online, 2010, 9: 64 doi: 10.1186/1475-925X-9-64
    [13] Yin X X, Xu B L, Jiang C H, Fu Y F, Wang Z D, Li H Y, Shi G. A hybrid BCI based on EEG and fNIRS signals improves the performance of decoding motor imagery of both force and speed of hand clenching. Journal of Neural Engineering, 2015, 12(3): 036004, DOI: 10.1088/1741-2560/12/3/036004
    [14] 尧德中, 刘铁军, 雷旭, 杨平, 徐鹏, 张杨松. 基于脑电的脑—机接口: 关键技术和应用前景. 电子科技大学学报, 2009, 38(5): 550-554 http://www.cnki.com.cn/Article/CJFDTOTAL-DKDX200905010.htm

    Yao De-Zhong, Liu Tie-Jun, Lei Xu, Yang Ping, Xu Peng, Zhang Yang-Song. Electroencephalogram based brain-computer interface: key techniques and application prospect. Journal of University of Electronic Science and Technology of China, 2009, 38(5): 550-554 http://www.cnki.com.cn/Article/CJFDTOTAL-DKDX200905010.htm
    [15] 王行愚, 金晶, 张宇, 王蓓. 脑控: 基于脑—机接口的人机融合控制. 自动化学报, 2013, 39(3): 208-221 doi: 10.1016/S1874-1029(13)60023-3

    Wang Xing-Yu, Jin Jing, Zhang Yu, Wang Bei. Brain control: human-computer integration control based on brain-computer interface. Acta Automatica Sinica, 2013, 39(3): 208-221 doi: 10.1016/S1874-1029(13)60023-3
    [16] Zhang R, Yao D, Valdés-Sosa P A, Li F L, Li P Y, Zhang T, Ma T, Li Y J, Xu P. Efficient resting-state EEG network facilitates motor imagery performance. Journal of Neural Engineering, 2015, 12(6): 066024, DOI: 10.1088/1741-2560/12/6/066024
    [17] Fazel-Rezai R, Allison B Z, Guger C, Sellers E W, Kleih S C, Kübler A. P300 brain computer interface: current challenges and emerging trends. Frontiers in Neuroengineering, 2012, 5: 14 http://cn.bing.com/academic/profile?id=2105438329&encoded=0&v=paper_preview&mkt=zh-cn
    [18] Gao S K, Wang Y J, Gao X R, Hong B. Visual and auditory brain-computer interfaces. IEEE Transactions on Biomedical Engineering, 2014, 61(5): 1436-1447 doi: 10.1109/TBME.2014.2300164
    [19] Chen X G, Wang Y J, Nakanishi M, Gao X R, Jung T P, Gao S K. High-speed spelling with a noninvasive brain-computer interface. Proceedings of the National Academy of Sciences of the United States of America, 2015, 112(44): E6058-E6067 http://cn.bing.com/academic/profile?id=2132876794&encoded=0&v=paper_preview&mkt=zh-cn
    [20] Bin G Y, Gao X R, Yan Z, Hong B, Gao S K. An online multi-channel SSVEP-based brain-computer interface using a canonical correlation analysis method. Journal of Neural Engineering, 2009, 6(4): 1771-1779 http://cn.bing.com/academic/profile?id=2105478324&encoded=0&v=paper_preview&mkt=zh-cn
    [21] The 2th competition of China brain-computer interface [Online], available: http://www.bcicompetition.cn, December 22, 2015.
    [22] Lin Z L, Zhang C S, Wu W, Gao X R. Frequency recognition based on canonical correlation analysis for SSVEP-based BCIs. IEEE Transactions on Biomedical Engineering, 2006, 53(12): 2610-2614 doi: 10.1109/TBME.2006.886577
    [23] Long J Y, Li Y Q, Wang H T, Yu T Y, Pan J H, Li F. A hybrid brain computer interface to control the direction and speed of a simulated or real wheelchair. IEEE Transactions on Neural Systems & Rehabilitation Engineering, 2012, 20(5): 720-729 http://cn.bing.com/academic/profile?id=2001471870&encoded=0&v=paper_preview&mkt=zh-cn
    [24] Middendorf M, McMillan G, Calhoun G, Jones K S. Brain-computer interfaces based on the steady-state visual-evoked response. IEEE Transactions on Rehabilitation Engineering, 2000, 8(2): 211-214 doi: 10.1109/86.847819
    [25] Mak J N, Arbel Y, Minett J W, McCane L M, Yuksel B, Ryan D, Thompson D, Bianchi L, Erdogmus D. Optimizing the P300-based brain-computer interface: current status, limitations and future directions. Journal of Neural Engineering, 2011, 8(2): 025003, DOI: 10.1088/1741-2560/8/2/025003
    [26] Guger C, Edlinger G, Harkam W, Niedermayer I, Pfurtscheller G. How many people are able to operate an EEG-based brain-computer interface (BCI)? IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2003, 11(2): 145-147 doi: 10.1109/TNSRE.2003.814481
    [27] Guger C, Allison B Z, GroÜwindhager B, PrÜckl R, HintermÜller C, Kapeller C, Bruckner M, Krausz G, Edlinger G. How many people could use an SSVEP BCI? Frontiers in Neuroscience, 2012, 6: 169 http://cn.bing.com/academic/profile?id=2023666981&encoded=0&v=paper_preview&mkt=zh-cn
    [28] Jin J, Daly I, Zhang Y, Wang X Y, Cichocki A. An optimized ERP brain-computer interface based on facial expression changes. Journal of Neural Engineering, 2014, 11(3): 1082-1088 http://cn.bing.com/academic/profile?id=2089448644&encoded=0&v=paper_preview&mkt=zh-cn
  • 加载中
图(6) / 表(5)
计量
  • 文章访问数:  2520
  • HTML全文浏览量:  368
  • PDF下载量:  1771
  • 被引次数: 0
出版历程
  • 收稿日期:  2015-12-29
  • 录用日期:  2016-06-22
  • 刊出日期:  2016-11-01

目录

/

返回文章
返回