2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

实值多变量维数约简:综述

单洪明 张军平

单洪明, 张军平. 实值多变量维数约简:综述. 自动化学报, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812
引用本文: 单洪明, 张军平. 实值多变量维数约简:综述. 自动化学报, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812
SHAN Hong-Ming, ZHANG Jun-Ping. Real-valued Multivariate Dimension Reduction: A Survey. ACTA AUTOMATICA SINICA, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812
Citation: SHAN Hong-Ming, ZHANG Jun-Ping. Real-valued Multivariate Dimension Reduction: A Survey. ACTA AUTOMATICA SINICA, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812

实值多变量维数约简:综述

doi: 10.16383/j.aas.2018.c160812
基金项目: 

上海市浦江人才计划 16PJD009

国家自然科学基金 61673118

详细信息
    作者简介:

    单洪明 复旦大学计算机学院博士研究生.主要研究方向为维数约简, 随机特征, 深度学习.E-mail:hmshan@fudan.edu.cn

    通讯作者:

    张军平 复旦大学计算机科学技术学院教授.主要研究方向为机器学习, 智能交通, 生物认证, 图像识别.本文通信作者.E-mail:jpzhang@fudan.edu.cn

Real-valued Multivariate Dimension Reduction: A Survey

Funds: 

Shanghai Pujiang Program 16PJD009

National Natural Science Foundation of China 61673118

More Information
    Author Bio:

    Ph. D. candidate at the School of Computer Science, Fudan University. His research interest covers dimension reduction, random feature, and deep learning

    Corresponding author: ZHANG Jun-Ping Professor at the School of Computer Science, Fudan University. His research interest covers machine learning, intelligent transportation systems, biometric authentication, and image processing. Corresponding author of this paper
  • 摘要: 维数约简作为机器学习的经典问题之一,主要用于处理维数灾问题、帮助加速算法的计算效率和提高可解释性以及数据可视化.传统的维数约简算法如主成分分析(Principal component analysis,PCA)和线性判别分析等只能处理无标签数据或者分类数据.然而,当预测变量为一元或多元连续型实值变量时,这些处理无标签数据或分类数据的维数约简方法则不能形成有效的预测性能.近20年来,有一系列工作从多个角度对这一问题展开了研究,并取得了系统性的研究成果.在此背景下,本文将综述这些面向回归问题的降维算法,即实值多变量维数约简.本文将介绍与实值多变量维数约简密切相关的基本概念、算法、理论,并探讨一些潜在的研究方向.
  • 在当今信息时代, 数据的获取变得越来越容易且经济.由此产生的直接后果是, 数据呈现出高维度、大规模的特点.要有效分析这些数据, 一个主要的途径是约简维数.作为机器学习中的经典问题之一, 维数约简主要用于处理维数灾问题、帮助加速算法的计算效率和提高可解释性以及数据可视化.在这一方向的多数研究侧重于无监督维数约简和有标签的监督维数约简, 试图发现高维数据集的内在低维结构, 而较少关注当存在连续型响应变量时, 高维数据集与响应变量(集)之间的关系.

    当面对回归数据时, 如果直接采用无监督维数约简技术如主成分分析(Principal component analysis, PCA)[1-2]、局部线性嵌入(Locally linear embedding, LLE)[3]、等度规映射(Isometric mapping, ISOMAP)[4]等降维算法时, 则标签信息或响应变量不能得到充分利用, 性能也会随之受损.另一方面, 监督维数约简包括线性判别分析[5-6]以及近年来比较受关注的度量学习[7]虽然其考虑了标签信息, 但将数据成组分到有限的类别中并不一定是合适的.更合适的处理是考虑标签是光滑变化的响应, 即考虑响应变量处在实值多变量域(Real-valued multivariate domain)[8].在这个前提下, 现有的很多监督、无监督维数约简技术都不见得是最优的, 而需要考虑回归意义下或实值多变量的维数约简.该研究方向在许多领域如生物认证中的人群计数[9-10]、人体姿态估计[8, 11]、智能交通[12]、生物信息[13-14]和空间划分树[15]中都有着广泛的应用.

    实值多变量维数约简中的一个关键概念—充分维数约简(Sufficient dimension reduction, SDR)—正是在这一前提下发展起来的.它与机器学习近年来的多个热点问题相互交织, 如流形学习[3-4]、回归预测[16]、多任务/多标记学习[17-18]、稀疏学习[19-20]、概率图模型[21-22]等.具体来讲, 实值多变量维数约简期望寻找一个条件独立的子空间, 其定义如下:

    定义1. 给定投影矩阵${B}$的前提下, 使得响应变量(集) $Y$与自变量$X$条件独立, 表述如下式:

    $ \begin{equation} {Y}╨{X}|{{B}^{\rm T} X} \end{equation} $

    (1)

    其中, 符号“$╨$”表示$Y$独立于$X$. $X$和$Y$均为多元的随机变量.本文中的实值多变量维数约简是指响应变量$Y$为多元实值的情况.当$Y$只有一元时, 对应的降维算法常被称为充分维数约简算法.

    这种维数约简方法有两层含义: 1)去掉$X$中与$Y$独立的一些特征, 也就是说这些特征对$Y$的预测不提供任何信息; 2)从与$Y$相关的因素中寻找一个小的子空间或者子集, 不属于该子空间或者子集的特征虽然对$Y$的预测作出贡献, 但是在给定子空间或者子集后, 这部分信息不足以增加或改进对$Y$的预测性能.

    通过实值多变量维数约简的定义可以看出, 与离散型(分类)维数约简算法最大的不同点就是响应变量为连续的实值.若通过离散函数将连续变量离散化, 继而可使用离散型的维数约简算法如线性判别分析进行降维处理, 然而这种做法势必会导致信息的丢失.相反, 若响应变量为离散型的标签时, 可以视为某个连续变量离散后的结果, 因此使用实值多变量维数约简进行降维处理.由此可见, 实值多变量维数约简在维数约简中有着极其重要的研究价值.简而言之, 当响应变量$Y$是范畴变量或分类变量时, 充分维数约简对应于分类意义下的维数约简; 当$Y$是连续值变量时, 对应于回归意义下的维数约简; 而当$Y$是多维变量时, 则可以对应于多元回归分析以及多任务和多标签学习.由于一些近期研究的算法可以处理多元响应变量的类型, 本文将充分维数约简算法统称为实值多变量维数约简算法(Real-valued multivariate dimension reduction).

    本文将综述实值多变量维数约简的发展历史, 从技术手段和求解手段分析数十种经典的实值多变量维数约简算法, 并分析其优缺点.最后讨论一些未来潜在的研究方向.

    实值多变量维数约简最初是针对回归问题来展开的.回归分析是研究自变量与因变量之间的关系, 这类研究常会假定某个参数模型, 并通过标准的估计方法如最大似然或最小二乘方法来获得最优参数估计.然而, 参数模型通常只是对真实内在结构的一个逼近, 寻找真实的、充分的模型并不容易.当不存在这类参数模型时, 则常利用非参模型作为替代, 如考虑真实回归函数连续性或可微性的局部光滑方法.该方法利用了一个几何直觉, 即在感兴趣点周围的样本点对空间结构的估计提供了足够的信息.然而, 随着维数的增加, 由于维数灾的影响, 这类光滑技术要求的样本数也需要指数的增加.因此, 这一策略在高维时不是很有效.幸运地是, 近年来大量的机器学习相关的文献都表明, 高维数据存在低维结构.因此, 寻找一个简单、有效且合理的低维表达是近10余年主要的努力方向之一.充分维数约简正是希望在回归分析中找到一个线性变换满足式(1)条件独立性, 即研究在对高维数据降维后如何不影响对回归变量的预测性能.以下, 我们将简要综述实值多变量维数约简的发展历史.

    充分维数约简(实值多变量维数约简的关键概念)最早由Li[23]提出, 其采用逆切片回归技术将响应变量分块后, 再对切片后的数据进行主成分分析来获得回归约简子空间.给定该子空间, 响应变量与高维数据集将条件独立, 相应的约简子空间称为有效维数约简子空间. Chiaromonte等将该概念更进一步形式化, 称之为条件独立性, 相应的子空间称为中心子空间[24].

    在近20余年中, 大量相关的工作致力于发现具有不同结构特性的维数约简子空间.基于实值多变量维数约简算法不同的技术手段, 大部分主流算法可以归纳如图 1.

    图 1  实值多变量维数约简算法分类
    Fig. 1  Taxonomy of real-valued multivariate dimension reduction algorithms

    Li等利用Stein引理, 有效地构造了主Hessian方向子空间[25]; Cook等构造了二阶统计矩意义下的切片平均方差子空间[26]; Li等提出了一个基于二阶矩且相对精确的方向回归子空间[27].由于该类算法基于前二阶矩估计量, 我们称为基于前二阶矩的降维算法.

    随后, Cook等又提出了一套基于模型的充分维数约简算法[28-30], 和前面基于统计阶矩不同的是, 该方法可以通过建立不同的统计模型使用最大似然估计子空间, 模型相对灵活.我们称为基于模型的降维算法.其代表算法为主拟合成分算法.

    基于核独立分量分析的研究成果[31], Fukumizu等将条件独立的概念推广至实值多变量的监督学习中[32].其从互信息角度出发, 构造了在重建核希尔伯特空间的交叉协方差算子.考虑到方法的可行性, 他们进一步将其问题的求解转化为半参意义下的优化问题.其优势在于不需要考虑变量的边缘分布和变量间的条件概率分布.文献[33]进一步从理论上对上述成果进行了更完善的证明.随后, Suzuki等采用最小平方互信息来度量条件独立性, 得到更为直观的条件独立性表达, 并且可以通过交叉验证得到最优参数[34]. Suzuki等又进一步将解集从Stiefel流形推广到Grassmann流形[35].除此之外, Faivishevsky等通过使用$k$-近邻密度估计构造了互信息的统计量[36], 其目标函数简单、直观.由于该类方法使用的估计量为互信息准则, 我们统称为基于互信息的降维算法.

    Wang等提出使用Hilbert-Schmidt独立准则进行子空间估计[37], 虽然从严格意义上来讲, 该类方法并不能实现条件独立性, 可是由于其算法方便求解, 也同样受到很多研究者的青睐.此外, Sheng等通过使用距离协方差独立性估计量来估计子空间[38].由于该类方法使用变量间的相依准则, 因此, 我们称之为基于相依准则的降维算法.

    基于回归函数的梯度形式, Fukumizu等提出了一个核维数约简的闭式解算法[39-40]. Sasaki等通过最小平方梯度直接估计条件密度在对数形势下的梯度[41], 同样可以得到子空间估计的闭式解.后者的一个优势在于带有交叉验证选择最优参数.由于这类算法是考虑回归函数的梯度, 我们称之为基于回归梯度的降维算法.

    前面提到的所有降维算法都是基于线性投影的, 虽然便于理解, 但是数据中一些非线性关系并不能很好的捕获.因此, Wu等通过核技巧(Kernel trick)提出了核化的切片逆回归算法[42]. Kim等通过对重建希尔伯特空间下的协方差算子的形式进行分析, 建立了与条件均值子空间的关联, 并利用偏差方差技巧获得了闭式的条件均值子空间求解[8].我们称该类算法为基于非线性的降维算法.

    除上面分类外, 还有一些工作是基于上述工作的推广.譬如, 考虑到可以从特征集中提取稀疏特征, Li等组合充分维数约简的回归技术和稀疏学习中的收缩估计策略, 来获得稀疏且精确的子空间[43]. Chen等结合稀疏学习领域的$\ell_1$范数技术, 实现了坐标独立的稀疏回归维数约简[44].值得指出的是, 这类稀疏技术主要在特征的线性组合意义下实现, 而未考虑非线性数据时如何实现.假设数据集处在低维流形中, Nilsson等将高维数据集首次通过拉普拉斯特征映射至一低维空间, 然后再利用核维数约简技术再次降维至具有条件独立性的更低维子空间[45]. Shyr等通过定义时序核来获得时间序列数据中的中心子空间[46].

    在众多降维算法的发展过程中, 中心子空间的概念一直贯穿其中.其对降维算法的理解起着至关重要的作用.接下来的一节, 我们介绍中心子空间的概念.

    在充分维数约简发展初期, 人们只是致力于研究在回归中的维数约简和图形学.尽管他们使用不同的模型, 但是人们对维数约简子空间(Dimension reduction subspace, DRS)并没有明确的定义.所以, Cook等[24, 47-48]为了让人们更好地理解充分维数约简中的条件独立性, 对DRS进行了详细的研究.

    本文中的常用数学符号定义如下: $X\in{\bf R}^D$表示$D$维的自变量; $Z$表示自变量$X$的标准化; $Y\in{\bf R}^l$表示$l$维的响应变量; ${B}\in{\bf R}^{D\times d}$表示从高维空间到低维空间的投影矩阵; $U={B}^{\rm T} X$表示自变量$X$的低维表示; E$(X)$和var$(X)$分别表示随机变量$X$的期望和协方差矩阵.

    假定$P_\mathcal{S}$是从$X$到维数约简子空间$\mathcal{S}$的正交投影算子,

    $ \begin{equation} {Y}╨{X}|{P_{\mathcal{S}}X} \end{equation} $

    (2)

    从式(2)可知, 原点$\{\bf{0}\}$是$Y$在$X$上回归的DRS, 当且仅当响应与预测向量是独立的.在另一个极端, 任何回归允许至少一个明显的DRS, 即空间自己.所以, 很显然DRS具有不唯一性[24].

    考虑早期实值多变量维数约简主要提供一个对自变量维数约简的框架来进行图形分析, Cook提出了最小DRS的概念[47], 即对任意一个DRS空间都有$\textrm{dim}(\mathcal{S}_m)\leq \textrm{dim} (\mathcal{S}_{\rm DRS})$.其中, $\rm{dim}$表示DRS的维数.最小DRS $\mathcal{S}_m$在回归图(Regression plots)中扮演很重要的角色, 然而, 要求最小维数并不一直足以选择唯一的子空间.

    因为最小DRS可以提供最大的对自变量维数的约简, 因此, Cook进一步提出中心子空间(Central subspace, CS)的概念[48]. Cook认为如果全体维数约简子空间的交形成的子空间是维数约简子空间, 则该子空间为中心子空间, 简写为$\mathcal{S}_{Y|X}=\cap\mathcal{S}_{\rm DRS}$.显然中心子空间具有最小维数.中心子空间与要求最小维数的条件$\textrm{dim}(\mathcal{S}_m)\leq \textrm{dim}(\mathcal{S}_{\rm DRS})$相比, 唯一性的实现用了一个更强的包含关系: $\mathcal{S}_{Y|X} \subseteq \mathcal{S}_{{DRS}}$.注意, 尽管它是一个子空间, 但它不一定是一个维数约简子空间, 仅当其满足某些条件时才成立.

    通过区分这三类子空间:任意的DRS、最小DRS和中心子空间, 可以更好地理解充分维数约简中的条件独立性.在早期文献[23]中, 称之为有效DRS.有效DRS类似于其他三类子空间, 但没有进行显式地定义.除此以外, 该“模型”表达在响应变量只有两类时会相对复杂, 一些引入的概念较难处理.但文献[23]可以看成是统计维数约简研究的一个标志点.对中心子空间的研究, 便于我们理解实值多变量维数约简算法.

    在接下来一节中, 我们将介绍中心子空间的主要性质, 这会进一步加深对中心空间的理解.

    在假定中心子空间存在的情况下, Chiaromonte等研究了中心子空间的一些性质[24].通过这些性质, 我们可以对变量做适当的变换而不影响对中心子空间的估计.

    性质1. 如果${\pmb a}\in{\bf R}^D$和是一个满秩线性算子, 那么自变量的满秩仿射变换:

    $ \begin{equation} \mathcal{S}_{Y|{\pmb a}+AX}=(A^{{\rm T}})^{-1}\mathcal{S}_{Y|X} \end{equation} $

    (3)

    对自变量的满秩仿射变换不会影响中心子空间, 也不改变其结构维.即中心子空间$\mathcal{S}_{Y|X}$可以通过$\mathcal{S}_{Y|{\pmb a}+AX}$和线性变换得到.最常见的应用就是对自变量$X$的标准化:如果协方差矩阵${\Sigma}_{xx}={\rm var}(X)$是正定的, 那么我们可以使用$Z={\Sigma}_{xx}^{-1/2}(X-{\rm E}(X))$来估计中心子空间, 并有$\mathcal{S}_{Y|Z}={\Sigma}_{xx}^{1/2}\mathcal{S}_{Y|X}$.

    性质2. 对任意的变换函数$\pmb \phi$, 响应变量的变换:

    $ \begin{equation} \mathcal{S}_{\pmb \phi(Y)|X}\subseteq \mathcal{S}_{Y|X}, \quad \pmb \phi \mbox{双射} \Rightarrow \mathcal{S}_{\pmb \phi(Y)|X}= \mathcal{S}_{Y|X} \end{equation} $

    (4)

    对响应变量的任意变换, 不会导致对于中心子空间的过估计, 并在在双射变换的时候, 可以保证对中心子空间没影响.在回归图形中, 一个很重要的推论就是使用严格单调的变换来改善绘图并不影响中心子空间.其次, 对响应变量进行切片, 仍然可以保证子空间是包含在中心子空间中的.因而, 可以通过多个侧面来了解中心子空间.

    响应变量变换的另一个有效的应用是可以用于分析类别数据.考虑下面一个二值变换, 给定某常数$c$, 当$Y>c$时, 有$\widetilde{Y}=1$; 否则, $\widetilde{Y}=0$.那么这个性质告诉我们, 可以通过研究$\mathcal{S}_{\widetilde{Y}|X}$来重构$\mathcal{S}_{Y|X}$的一部分.这样做的好处就是当维度是$3$的时候, 可以通过3D二值响应画图(3D binary response plots).这个想法的扩展也非常直接, 我们把响应变量$Y$切成$h$片, 记为$I_1, \cdots, I_h$, 并且当$Y\in I_s$时, 定义其切片响应值$\widetilde{Y}=s$.那么我们依然有$\mathcal{S}_{\widetilde{Y}|X}\subseteq \mathcal{S}_{Y|X}$.值得注意的是, 基于切片响应值的方法经常被用到非图形方法中用来推断中心子空间.

    性质3. 把自变量投影到任意${\rm DRS}$上并不会影响中心子空间, 也就是说

    $ \begin{equation} {Y}╨{X}|{P_{\mathcal{S}} X}\Rightarrow \mathcal{S}_{Y|P_{\mathcal{S}} X}=\mathcal{S}_{Y|X} \end{equation} $

    (5)

    这个概念就是条件独立性意义下的充分维数约简.在这个条件下, 我们可以使用$P_{\mathcal{S}}X$来取代$X$并保证不丢失信息.这个性质还有一个深远的意义, 它为任何序列维数约简程序(Sequential dimension reduction procedures)提供了理论基础.

    下面我们将介绍列在图 1中的实值多变量维数约简算法.

    本节介绍的降维算法主要基于统计前二阶矩.该类方法具有较高的统计可解释性, 但也需要一定的统计假设才会成立.下面将依次介绍5种经典的降维算法.

    充分维数约简的研究始于Li提出的切片逆回归(Sliced inverse regression, SIR)[23]. Li认为, 当自变量的维数较高时, 在自变量$X$上对响应变量$Y$做回归会产生维数灾问题.一种解决办法是在响应变量$Y$上对$X$做回归, 即逆回归(Inverse regression, IR).由于逆回归可以在$Y$上对$X$的每个维度做回归, 因而将高维问题转换成一维到一维的回归问题, 从而避免了维数灾问题.其模型不需要进行参数的模型拟合, 具体形式如下:

    $ \begin{equation} y = f({\pmb b}_1^{\rm T} {\pmb x}, {\pmb b}_2^{\rm T} {\pmb x}, \cdots, {\pmb b}_d^{\rm T} {\pmb x}, \epsilon) \end{equation} $

    (6)

    其中, ${\pmb b}_i$, $1\leq i \leq d$, 是未知变量, $\epsilon$为与$X$无关的变量, 常表示测量误差.其与非线性回归的最大区别是函数$f(\cdot)$的形式完全未知.要实现有效的降维, 则仅需要估计由${\pmb b}_i$生成的有效维数约简(Effective dimension reduction, EDR), 而通常的回归问题则需要估计全部的回归系数.

    切片逆回归考虑当$y$变化时的逆回归曲线${\rm E}({{\pmb x}}|{y})$.逆回归曲线的中心在${\rm E}({\rm E}({{\pmb x}}|{y}))={\rm E}({\pmb x})$处.所以, 中心化的逆回归曲线${\rm E}({{\pmb x}}|{y})-{\rm E}({\pmb x})$是空间${\bf R}^D$中的一条$D$维曲线.切片逆回归算法通过条件1说明中心化的逆回归曲线是在一个$d$维子空间内.

    条件1. 给定任意${\pmb b}\in {\bf R}^D$, 条件期望${\rm E}$ $({\pmb b}^{\rm T}{\pmb x}|{\pmb b}_1^{\rm T}{\pmb x}, \cdots, {\pmb b}_d^{\rm T}{\pmb x})$关于${\pmb b}_1^{\rm T}{\pmb x}, \cdots, {\pmb b}_d^{\rm T}{\pmb x}$是线性的.也就是说, 存在一些常数$c_0, c_1, \cdots, c_d$, 使得${\rm E}({\pmb b}^{\rm T} {\pmb x}|{\pmb b}_1^{\rm T} {\pmb x}, \cdots, {\pmb b}_d^{\rm T}{\pmb x})=c_0+c_1{\pmb b}_1^{\rm T} {\pmb x}+\cdots+c_d{\pmb b}_d^{\rm T}{\pmb x}$.

    这个条件成立的条件是自变量$X$服从椭圆对称分布, 例如, 高斯分布.自变量$X$标准化至零均值和单位协方差, Li将响应变量$Y$划分成若干个区间, 然而计算$X$的切片均值或逆回归曲线估计${\rm E}({{\pmb x}}|{y})$[23].基于这些均值, 运用主成分分析来寻找最重要的$d$维子空间, 以获得了对有效维数约简方向的估计. SIR的估计量可以写成${\rm var}({\rm E}({\pmb x}|y))$.

    这一方法的不足在于要保证逆回归曲线处于有效维数约简空间, 数据变量$X$需要满足椭圆对称分布(例如高斯分布).因而, 对于强非线性数据的非线性结构或主方向的捕捉是无效的.另外, 尽管如何切片比多数回归方向中选择光滑参数的条件要弱, 但仍然具有一定的启发性, 对随后的性能有一定影响.且逆切片技术则比较依赖于对目标空间的切片或聚类的过程, 为了能够形成对逆回归方差的估计, 结果使得这一类方法对目标的维数相对敏感.其提出的维数估计准则仅能真实方向已知的情况下, 才可以进行有效评估. SIR方法容易受到函数$f$关于${\pmb x}$的对称性的影响.举例来说, 如果$y=x_1^2$, 这里$x_1$是${\pmb x}$中的第一个坐标变量, 是关于均值对称的, 则逆回归曲线${\rm E}({{\pmb x}}|{y})$会退化1.

    1因为$y=x_1^2$, 所以有${\rm E}({x_1}|{y})=0$, 这说明$y$变量本身显然没考虑到对称性这个问题, 因此会对估计逆回归曲线产生错误的导向.

    SIR工作发表之后, 受到了许多学者的质疑.譬如, 与经典的线性判别分析的关系、对数据椭圆对称分布的假设是否合理、在真实数据上效果如何等问题.文献[49]对这些置疑进行了回复, 从直观上来看, 线性判别分析期望类内尽可能小, 类间尽可能大, 而没有考虑是否约简的子空间与原空间保留了相同的信息.

    其中指出SIR最大的问题在于数据分布的椭圆对称分布的假设, 然而, 文献[49]也指出没有这个假设时, 仍然可以有合理的线性条件期望表示.文章也指出这一算法在某些应用上取得了一定的成果, 如波士顿住房问题等[50].

    为了解决SIR方法容易受到函数对称性的影响, 考虑函数对称的时候, 随着$y$的变化, ${\rm E}({{\pmb x}}|{y})$恒等于${\bf 0}$, 但逆方差${\rm var}({\pmb x}|y)$在每个切片内都是不同.所以, 文献[26]提出使用二阶的逆方差函数去估计子空间的切片平均方差估计(Sliced average variance estimation, SAVE).假设数据${\pmb x}$已经标准化, $P_{{B}}$是到有效维数约子空间的投影算子.那么, 对于二阶的逆方差存在如下等式[26]:

    $ \begin{equation} w_y{I}-{\rm var}({\pmb x}|y)=P_{{B}}\Big[w_y{I}-{\rm var}({\pmb x}|y)\Big]P_{{B}} \end{equation} $

    (7)

    这里$w_y$是依赖于$X$特定椭圆对称分布的关于$Y$的函数, 例如$X$服从正态分布时, 对于所有的$Y$, 有$w_y=1$.所以, 文献[26]在每个切片内用${I}-{\rm var}({\pmb x}|y)$来作为二阶的逆方差计算, 并且从实验可以看出会带来一些更好的结果.为了保证矩阵分解出来的特征值非负, 实际中SAVE使用的是估计量是${\rm E}[{I}-{\rm var}({\pmb x}|y)]^2$.

    相比SIR, 虽然SAVE可以对子空间提供更充分的估计, 可是它并没有SIR那么有效的检测线性趋势的能力[30].

    回顾一下在SIR中, 逆回归曲线的中心点${\rm E}({\rm E}({\pmb x}|y))={\rm E}({\pmb x})$对有效子空间的估计并不提供任何信息, 因此, 把变量${\pmb x}$作标准化处理, 逆回归曲线的中心点随之变成零.因此, 文献[49]中除了回复质疑和肯定Cook等的工作外[26], Li提出了另一种基于二阶矩的方法, 称为SIRII. SIRII考虑去掉二阶矩逆回归曲线的中心点${\rm E}({\rm var}({\pmb x}|y))$, 利用了方差分解公式来获得每个切片的二阶逆方差矩${\rm E}[{\rm var}({\pmb x}|y)-{\rm E}({\rm var}({\pmb x}|y))]^2$.

    虽然文献[26, 49]分别从不同角度使用二阶逆方差来解决SIR受函数对称的影响, 但是它们仍然需要$X$符合椭圆对称分布.

    观察到回归函数的Hessian矩阵特征值可以帮助研究回归曲面的形状, Li提出了主Hessian方向(Principal Hessian direction, pHd)来实现数据可视化和维数约简[25].并且发现当主Hessian方向在集成意义上, 可以用来定位沿回归曲面上具有最大曲率的方向, 因而可以有助于寻找DRS方向.

    Li观察到回归函数$f({\pmb x})={\rm E}(y|{\pmb x})$在任意点${\pmb x}$处的Hessian矩阵${H}_{{x}}$, $[\frac{\partial^2}{\partial {\pmb x}^{(i)}\partial {\pmb x}^{(j)}}f({\pmb x})]$, 会沿与${B}$正交的任意方向退化.基于这一观察, Li提出了辨识EDR空间的主Hessian方向的概念[25].由于Hessian矩阵${H}_{{x}}$会随着${\pmb x}$的变化而变化, 除非$f({\pmb x})$曲面是二次的.所以, 作者提出使用平均的Hessian矩阵, $\overline{H}={\rm E}{H}_{{x}}$, 来表示数据整体的结构.

    pHd形成了一个可以用来可视化$y$与${\pmb x}$关系的新坐标系统, 其特点是回归函数沿坐标轴的曲率是依次最大.并且利用著名的Stein引理[51]避免对随机变量函数的求导.因此, Hessian矩阵$\overline{H}$可以通过$\overline{H}={\Sigma}_{xx}^{-1} {\Sigma}_{yxx}{\Sigma}_{xx}^{-1}$关联到加权协方差矩阵${\Sigma}_{yxx}={\rm E}(y-{\rm E}{y})({\pmb x}-{\rm E}{{\pmb x}})({\pmb x}-{\rm E}{{\pmb x}})^{\rm T}$来获得. EDR的方向${\pmb b}_1, \cdots, {\pmb b}_d$可以通过$\overline{H}{\Sigma}_{xx}$的最大主成分构成, 或者通过下面广义特征值的形式

    $ \begin{equation} {\Sigma}_{yxx}{\pmb b}_i=\lambda_i{\Sigma}_{xx}{\pmb b}_i, \ \! |\lambda_1|\!\geq\cdots\geq\!|\lambda_d|, \!\ 1\leq\!i\!\leq\!d \end{equation} $

    (8)

    同时观察到对响应变量$y$加上或者减去一个关于${\pmb x}$的线性函数, 并不影响Hessian矩阵2所以, 相对于上述基于$y$的pHd, 文献[25]又提出使用$y$对$\pmb{x}$的最小平方拟合后的残差$r$来替代$y$的基于残差的pHd, 即使用${\Sigma}_{rxx}= {\rm E}r({\pmb x}- {\rm E}{{\pmb x}})({\pmb x}- {\rm E}{{\pmb x}})^{\rm T}$.和前者相比, 基于残差$r$的pHd算法可以更有效地发现真实的成分, 因为残差$r$的方差要比$y$的方差小很多.此外, 作者进一步将pHd推广到多项式的情况:如果${\pmb x}$符合正态分布, 且在$y$对${\pmb x}$的最小平方拟合多项式次数大于$1$时, 拟合多项式的平均Hessian矩阵和$y$的平均Hessian矩阵是相同的.

    2因为关于${\pmb x}$的任意线性组合, 其二阶偏导恒为$0$.

    因为pHd具有发现回归曲面曲率的能力, Li等进一步提出了树形pHd算法来挖掘数据中的几何信息[52].但因为Stein引理成立的前提是要求数据符合正态分布, 所以, pHd没有摆脱对数据分布的假设.如果我们使用一个足够大的泛函空间(例如重建核希尔伯特空间), 对于任意分布的数据, 都可以近似满足Stein定理, 那么pHd方法就可以得到更广的应用.同时, 如果响应变量$y$的取值过于离散化, 那么pHd将不能获得有效的维数约简子空间.而鉴于pHd可以有效获得回归曲面的几何信息, 如果我们可以找到一个很好打分函数(Score function), 将离散变量转换成回归变量, 那么pHd也可以对离散变量进行有效处理.文献[25]还指出, pHd可作为一阶矩算法SIR的互补算法, 一方面, SIR比pHd更倾向于稳定, 因为后者使用了二阶矩; 另一方面, pHd可以解决SIR无法解决的对称函数问题.

    基于前两阶矩的统计量SIR和SAVE是被经常使用的维数约简估计量.然而, 按照我们前面讨论的, 它们分别有自己的局限. SIR不能处理响应变量关于原点对称的问题, SAVE不能有效地估计单调趋势.像上面提到的pHd和SIRII也有类似的困难.因此, 一些作者提出通过凸组合这些前两阶矩估计量来克服这些困难, 例如SIR和SIRII的凸组合[49, 53], SIR和pHd的凸组合[54], SIR和SAVE的凸组合[54].此外, 文献[54]还提出一种挑选凸组合方法系数的自助法.值得关注的是文献[27]介绍了一种简单自然的维数约简准则—方向回归算法(Directional regression, DR), 它通过前两阶矩估计量合成的降维方法可以在准确率上实现本质的提升.

    方向回归算法的想法主要来源于经验方向(Empirical directions).如果我们有来自联合分布$(X, Y)$的观测样本$\{({\pmb x}_i, y_i)\}_{i=1}^n$, 那么文献[55]把经验方向定义为一组向量的集合: $\{{\pmb x}_i-{\pmb x}_j : 1\leq i < j\leq n\}$, 并且认为经验方向包含了样本中$X$的所有的方向信息. DR可以非常有效地使用经验方向, 并且是直接用经验方向对响应变量作回归.这种方法不仅可以实现$\sqrt{n}$的收敛率, 还可以对中心子空间实现更为充分的估计. DR的优势在于准确率高, 计算代价低, 而且只是前两阶矩估计量的组合.下面介绍一下DR方法的实现过程.

    给定随机变量$X$, 我们使用和前面一样标准化的随机变量$Z$, 即$Z={\Sigma}_{xx}^{-1/2}(X-{\rm E} X)$.假设$(Z', Y')$是$(Z, Y)$的独立副本, 那么定义下式

    $ \begin{equation} A(Y, Y') = {\rm E}[(Z-Z')(Z-Z')^{\rm T}| Y, Y'] \end{equation} $

    (9)

    式(9)是将$Z-Z'$的方向, $(Z-Z')(Z-Z')^{\rm T}$, 和$(Y, Y')$的函数作回归.直观上来说, 那些和中心子空间$\mathcal{S}_{Y|Z}$对齐的$Z-Z'$方向明显受到$Y$的影响, 而那些和子空间$\mathcal{S}_{Y|Z}^{\perp}$对齐的$Z-Z'$方向将不受$Y$影响.因此可以通过那些和中心子空间$\mathcal{S}_{Y|X}$相一致的$Z-Z'$方向来估计$\mathcal{S}_{Y|Z}$.下面定理给出在适当条件下, 对任意给定的$(Y, Y')=(y, y')$, $2{I}-A(Y, Y')$的列空间是包含于$\mathcal{S}_{Y|Z}$内的.

    定理1[27]. 假定任意的向量${\pmb v}\in{\bf R}^D$且${\pmb v}╨\mathcal{S}_{Y|Z}$, 如果

    1) ${\rm E}({\pmb v}^{\rm T} Z | P_{{B}} X)$是关于$Z$的线性函数;

    2) ${\rm var}({\pmb v}^{\rm T} Z | P_{{B}} X)$是非随机数.

    那么, 对任意$(Y, Y')$, $2{I}-A(Y, Y')$的列空间是包含于$\mathcal{S}_{Y|Z}$内的.

    上述定理表明我们可以通过目标${\rm E}[2{I}-A(Y, Y')]^2$来估计中心子空间$\mathcal{S}_{Y|Z}$.文献[27]将DR的估计量中的$(Z, Y)$和$(Z', Y')$合并后重写得到下式的估计量

    $ \begin{align} &2{\rm E}\big[{\rm E}^2(ZZ^{\rm T}|Y)\big]+2{\rm E}^2\big[{\rm E}(Z|Y){\rm E}(Z^{\rm T}|Y)\big]+\notag\\ &2{\rm E}\big[{\rm E}(Z^{\rm T}|Y){\rm E}(Z|Y)\big]{\rm E}\big[{\rm E}(Z|Y){\rm E}(Z^{\rm T}|Y)\big]-2{I} \end{align} $

    (10)

    上式中的估计量是关于给定$Y$, $Z$的条件矩的非线性函数.并且, 相对之前的凸组合方法, 该估计量只有${\rm O}(n)$的计算复杂度.

    上面我们介绍的所有方法都是基于前二阶矩的方法, 我们统称为基于前二阶矩(Frist two moment, F2M)的充分维数约简降维算法[30].在同等温和的条件下, DR可以比前面介绍的维数约简方法(SIR、SAVE、SIRII、pHd等)更充分地估计中心子空间$S_{Y |Z}$.并且文献[27]总结了在实际应用上, 除了回归曲面非常震动被迫使用更高阶矩的统计量外, 该类方法可以实现较优异的性能.

    相比之前基于原始空间统计阶矩的维数约简方法, Cook等将主成分(Principal component, PC)的概念引入到回归问题中, 并提出了一个基于最大似然估计的充分维数约简方法[28-30].和SIR、SAVE、DR、pHd等方法同等温和条件下相比, 基于最大似然的方法可以实现对子空间$\mathcal{S}_{Y|X}$更详尽的估计.基于最大似然的维数约简方法是通过基于模型的逆回归中获得对正回归$X$对$Y$的约简信息.

    假设我们有$n$对从联合概率$(X, Y)$中独立同分布采样的观测样本$\{({\pmb x}_i, y_i)\}_{i=1}^n$, 以及假设$X|Y\sim {\rm N}({\pmb \mu}_y, {\Delta}_y)$, 那么我们有:

    $ \begin{equation} {\pmb x} = {\pmb \mu}_y+{\pmb \epsilon} \end{equation} $

    (11)

    这里的${\pmb \epsilon}\sim {\rm N}({\bf 0}, {\Delta}_y)$且满足${\Delta}_y>0$.那么, 我们的目标就是找到中心子空间$\mathcal{S}_{Y|X}$的最大似然估计量.如果$d=\textrm{dim}(\mathcal{S}_{Y|X})$, 以及${B}$在Stiefel流形上3, 即满足${B}^{\rm T}{B}={I}_d$, 并且${B}$的列向量是组成中心子空间的一组基, 显然我们有$Y|X\sim Y|{B}^{\rm T} X$.基于最大似然的方法就是在${\pmb \mu}_y$和${\Delta}_y$不同的结构下来估计中心子空间$\mathcal{S}_{Y|X}=\textrm{span}({B})$.

    3注:原文中设定为Grassmann流形.当假定矩阵${B}$满足${B}^{\rm T}{B}={I}_d$时, ${B}$展成的子空间和Grassmann流形上定义的子空间等价.由于后文中的算法都是基于Stiefel流形讨论, 所以, 在不影响问题描述的情况下, 本文统一成Stiefel流形.

    在介绍基于最大似然的充分维数约简前, 我们先介绍文献[28]是如何将主成分引入到回归问题中的.首先, 考虑下面逆回归模型

    $ \begin{equation} {\pmb x}_y = {\pmb \mu}+{B}{\pmb v}_y+\delta{\pmb \epsilon} \end{equation} $

    (12)

    这里使用下标$y$是为了表示其是条件模型.坐标向量${\pmb v}_y\in{\bf R}^d$是一个关于$y$函数, 并且假设${\pmb v}_y$有正定协方差矩阵, 和满足均值为${\bf 0}$, 即$\sum_y{\pmb v}_y={\bf 0}$.对${\pmb v}_y$的中心化只是为了后面描述方便, 并不是必须满足的约束.误差向量满足${\pmb \epsilon}\sim{\rm N}({\bf 0}, {I})$.模型(12)描述的是通过截距${\pmb \mu}$变换后, 条件均值会落在由${B}$列向量展开的$d$维子空间内.坐标向量${\pmb v}_y$则是变换后的条件均值${\rm E}({\pmb x}_y)-{\pmb \mu}$在${B}$下的坐标.即便$d$非常小, 哪怕只有3或者4, 这里的均值函数相当灵活[28].在模型(12)的右端, 除了下标$y$外, 其他都是未知的.

    下面的命题将逆回归模型(12)和$X$对$Y$的正回归联系起来:

    命题[28]. 在逆回归模型(12)下, 对$X$的所有取值, $Y|X$和$Y|{B}^{\rm T} X$的分布一样.

    所以, 按照上述命题, 我们可以使用$X$的充分约简变量${B}^{\rm T} X$来取代$X$本身, 并且不会对$Y$的回归预测造成信息损失.对模型(12)中的中心子空间估计需要借助最大似然.

    在进行最大似然估计前, 我们先研究一下这个子空间的性质: 1)半正交矩阵${B}$是在Stiefel流形上, 即满足约束${B}^{\rm T} {B}={I}_d$; 2)对任意的正交变换${O}\in{\bf R}^{d\times d}$, 子空间保持不变.即$({B}{O})^{\rm T}( {BO})={O}^{\rm T}{O}={I}_d$.

    虽然性质$2$表明子空间不变, 但是坐标向量会改变, 即${B}{\pmb v}_y=({BO})({O}^{\rm T}{\pmb v}_y)$.因此, 我们不可以同时对${B}$和${\pmb v}_y$进行估计.所以, 模型(12)的最大似然估计第一步是固定${B}$和$\delta^2$, 对${\pmb v}_y$和${\pmb \mu}$估计; 第二步是把估计得到的${\pmb v}_y$和${\pmb \mu}$代入, 估计${B}$和$\delta^2$.

    首先, 我们把$({B}, \delta^2)$固定在$({G}, s^2)$处时, 模型(12)变成

    $ \begin{equation} {\pmb x}_y={\pmb \mu}\!+\!{G}{\pmb v}_y\!+ \!s{\pmb \epsilon}\sim{\rm N}\Big({\pmb \mu}, {G}{\pmb v}_y{\pmb v}_y^{\rm T}{G}^{\rm T}\!+\!s^2{I}\Big) \end{equation} $

    (13)

    对上述概率分布进行最大似然估计后, 可以得到$\widehat{{\pmb \mu}}=\bar{{\pmb x}}$和在$y$缺失的情况下, ${{\pmb v}}_y({G}, s^2)={G}^{\rm T}({\pmb x}_y-\bar{{\pmb x}})$是一个关于$({G}, s^2)$的函数.其次, 把估计得到的$\widehat{{\pmb \mu}}$和${\pmb v}_y({G}, s^2)$代入模型(12), 得到下式

    $ \begin{equation} {\pmb x}_y=\bar{{\pmb x}}+{G}{G}^{\rm T}({\pmb x}_y-\bar{{\pmb x}})+s{\pmb \epsilon} \end{equation} $

    (14)

    整理可得

    $ \begin{equation} {\pmb x}_y = \bar{{\pmb x}}+s({I}-{G}{G}^{\rm T})^{-1}{\pmb \epsilon} \sim {\rm N}\Big(\bar{{\pmb x}}, s^2({I}-{G}{G}^{\rm T})^{-1}\Big) \end{equation} $

    (15)

    对上式的对数最大似然估计可得:

    $ \begin{align} \mathcal{L}({G}, s^2)=-&\frac{1}{2}nD\log(s^2)-\notag \\ &\frac{n}{2s^2}\textrm{tr}({\Sigma}_{xx}Q_{{G}})+ \textrm{const} \end{align} $

    (16)

    其中, $P_{{G}}={G}{G}^{\rm T}$, $Q_{{G}}={I}-P_{{G}}$.虽然这里我们用${G}$作为参数, 但是函数本身只依赖于$\textrm{span}({G})$, 并且其最大值是在Stiefel流形上面.假设$(\lambda_i, {\pmb \gamma}_i)$分别是${\Sigma}_{xx}$的特征值和特征向量, 并且满足$\lambda_1\geq\lambda_2\geq\cdots\geq\lambda_D$.因此, 最大似然估计得到的中心子空间$\mathcal{S}_{Y|X}=\textrm{span}({\pmb \gamma}_1, \cdots, {\pmb \gamma}_d)$, 并且对$\sigma^2$的估计是$\sigma^2=\frac{1}{D}\sum_{j=d+1}^D\lambda_j$.模型(12)被称为主成分回归模型.在响应变量$Y$缺失的情况下, 模型中的$Y$是扮演一个非显示条件参数的形式.而一旦我们有响应变量的, 我们就可以为响应变量“定制”主成分.

    模型(12)的不足之处在于没有充分考虑响应变量信息, 而且最求解和主成分分析等价.模型(12)和概率主成分分析模型[56]本质上是一样, 只是模型(12)的出发点是考虑的回归问题, 而不是无监督的维数约简.

    当我们观测到响应变量$Y$后, 可以通过对${\pmb v}_y$的构建不同的模型来将主成分适配响应变量, 这就是我们接下来介绍的主拟合成分模型.假设${\pmb v}_y={\pmb \beta}\{{\pmb f}_y-{\rm E}{\pmb f}_y\}$, 其中的${\pmb f}_y\in{\bf R}^r$为已知的关于$Y$的向量, ${\beta}\in{\bf R}^{d\times r}$, 显然坐标向量${\pmb v}_y$是由${\pmb f}_y$的多元线性回归得到.因此, 主成分拟合模型可以写成

    $ \begin{equation} {\pmb x}_y = {\pmb \mu}+{B}{\beta}\{{\pmb f}_y-{\rm E}{\pmb f}_y\}+\delta{\pmb \epsilon} \end{equation} $

    (17)

    Cook等提到了三种构造${\pmb f}_y$的方法[28-29]:

    1) 多项式法

    $ {\pmb f}_y=[y, y^2, \cdots, y^r]^{\rm T}\in{\bf R}^r $

    2) 傅里叶变换法

    $ \begin{align} {\pmb f}_y=[&\cos(2\pi y), \sin(2\pi y), \cdots, \notag\\ &\cos(2\pi ky), \sin(2\pi ky)]^{\rm T}\in{\bf R}^{2k} \end{align} $

    (18)

    3) 切片法

    按照$y$的数值切成$r$块, 分别为$I_1, \cdots, I_r$, 那么${\pmb f}_y$中的第$k$个元素值为

    $ f_{yk} = \delta_k(y) - \frac{n_k}{n} $

    其中, $\delta_h(y)$为指示$y$是否在$I_k$里面.如果$y\in I_k$, 那么$\delta_k(y)=1$; 否则, $\delta_k(y)=0$. $n_k$表示切片$I_k$里面的元素个数.显然${\rm E}{\pmb f}_y={\bf 0}$.

    下面介绍如何使用最大似然估计模型(17)中的中心子空间$\mathcal{S}_{Y|X}=\textrm{span}({B})$.为了方便讨论, 我们定义${X}$为$n\times D$的矩阵, 每行为$({\pmb x}_y-\bar{{\pmb x}})^{\rm T}$.定义${F}$为$n\times r$的矩阵, 每行为$({\pmb f}_y-{\rm E}{\pmb f}_y)^{\rm T}$.那么, 当我们固定$({B}, \sigma)$在$({G}, s^2)$处时, 对${\pmb \mu}$和${\beta}$最大似然估计得到$\widehat{{\pmb \mu}}=\bar{{\pmb x}}$, $\widehat{{\beta}}={G}^{\rm T}{X}^{\rm T}{F}({F}^{\rm T}{F})^{-1}$.把估计得到的$\widehat{{\pmb \mu}}$和$\widehat{{\beta}}$代入模型(17), 可以得到如下对数最大似然估计

    $ \begin{align} \mathcal{L}({G}, s^2)=-&\frac{nD}{2}\log(s^2)-\frac{n}{2s^2} \{{\rm tr}[{\Sigma}_{xx}]-\notag\\ &{\rm tr}[P_{{G}}{\Sigma}_{fit}]\}+\textrm{const} \end{align} $

    (19)

    定义矩阵$\widehat{{X}}$是从${\pmb f}_y$到$X$的中心化的多元拟和值, $\widehat{{X}}=P_{{F}}{X}$, 那么${\Sigma}_{fit}$是多元拟和值的协方差矩阵, 即${\Sigma}_{fit}=\frac{1}{n}\widehat{{X}}^{\rm T}\widehat{{X}}$.同样的, 最大似然函数(19)只依赖于子空间$\textrm{span}({G})$.这里的$\textrm{rank}({\Sigma}_{fit})\leq r$, 通常等号是成立的.并且假设$\textrm{rank}({\Sigma}_{fit})\geq d$. ${ \pmb \phi}_1, \cdots, { \pmb \phi}_d$是矩阵${\Sigma}_{fit}$的最大的$d$的特征值$\lambda_i$对应的特征向量, 那么最大似然函数(19)的最大值是在$\textrm{span}({G})= \{{ \pmb \phi}_1, \cdots, { \pmb \phi}_d\}$处取得.

    文章把${ \pmb \phi}_1^{\rm T} X, \cdots, { \pmb \phi}_D^{\rm T} X$称为主拟合成分.和模型(12)不同的是, 模型(17)中估计子空间的协方差矩阵是通过${\pmb f}_y$对$X$拟合出来的向量构成的, 因此, 该模型通过主拟合成分充分考虑和响应变量之间的关系.除此之外, 文献[28-29]还分析了和SIR、PLS、OLS之间的关系.通过对噪音协方差矩阵强加不同的结构, 可以使PFC模型更灵活.文献[57]提供了一个基于最大似然估计的充分维数约简软件包, 可以供读者进行实验.

    虽然该类方法可以用不同的方式建模, 灵活多变, 可如果建立的模型与数据真实分布差异较大, 那么会导致对中心子空间的错误估计.

    条件独立性的假设(1)是建立在空间的概率分布上, 即有下式[32]:

    $ \begin{equation} p(Y|X)=p(Y | P_{{B}}X) \end{equation} $

    (20)

    其中, $P_{{B}}$是从${\bf R}^D$到中心子空间$\mathcal{S}_{Y|X}$的正交投影.

    若令$({B}, {C})$是$D$-维正交矩阵使得${B}$的列向量张成子空间$\mathcal{S}_{Y|X}$, 即$\mathcal{S}_{Y|X}=\textrm{span}({B})$, 定义$U={B}^{\rm T} X$和$V={C}^{\rm T} X$.因为$({B}, {C})$是正交矩阵, 所以有以下概率密度函数[32]:

    $ \begin{equation} p(X)=p(U, V), \quad p(X, Y)=p(U, V, Y) \end{equation} $

    (21)

    同时, 条件独立性可等价地表示为[32]

    $ \begin{equation} p(Y|U, V)=p(Y|U) \end{equation} $

    (22)

    其式表示中心子空间$\mathcal{S}_{Y|X}$是一个给定$U$后, 随机变量$Y$和$V$条件独立的空间.

    互信息提供了关于条件独立性和中心子空间存在性之间等价性的另一种视角[32]:

    $ \begin{align} \mathbb{I}({Y};{X}) & = \mathbb{I(}{Y};{U, V}); = {{\rm E}}_{X, Y} \left[\log\frac{p(U, V, Y)}{p(U, V)p(Y)} \right] =\notag\\ & \mathbb{I}({Y};{U}) + {{\rm E}}_{Y, V} \left[\log\frac{p(Y, V|U)}{p(Y|U)p(V|U)}\right] = \notag \\ & \mathbb{I}({Y};{U}) + {{\rm E}}_U \left[\mathbb{I}({Y|U};{V|U}) \right] \end{align} $

    (23)

    其中, 互信息$\mathbb{I}({X};{Y})$定义为[32]

    $ \begin{equation} \mathbb{I}({X};{Y})\!=\!\iint\!p(X, Y)\!\log\!\frac{p(X, Y)}{p(X)p(Y)}) {\rm{d}}X{\rm{d}}Y \end{equation} $

    (24)

    如果满足条件独立性, 那么就有$\mathbb{I}({Y};{X})=\mathbb{I}({Y};{U})$或者${\rm E}_U \left[\mathbb{I}({Y|U};{V|U}) \right]=0$.因此, 条件独立性的问题可以转化为最优化的问题, 也就说最大化公式(23)右端的第一项或者最小化右端的第二项.本节介绍三种基于互信息的充分维数约简算法, 方法总结见表 1.

    表 1  基于互信息的降维算法对比
    Table 1  Comparison of mutual information-based dimension reduction algorithms
    目标函数 条件独立性 代表方法 解释
    ${Y}╨{V}|{U}$ KDR[32-33] 去掉$X$中与$Y$独立的一些特征, 也就是说这些特征对$Y$的预测不提供任何信息
    $\max_{{B}} \mathbb{I}({Y};{U})$ ${Y}╨{X}|{U}$ LSDR[34-35]、MIDR[36] 从与$Y$相关的因素中寻找一个小的子空间或者子集, 不属于该子空间或者子集的特征, 虽然对$Y$的预测作出贡献, 但是在给定子空间或者子集后, 这部分信息不足以增加或改进对$Y$的预测能力
    下载: 导出CSV 
    | 显示表格

    基于在核独立分量分析的研究成果[31], Fukumizu等将条件独立的概念推广到监督学习中, 并通过构造在重建核希尔伯特空间上的协方差算子, 以形成条件独立性的非参形式化描述, 从而将该问题转化为优化问题, 称为核维数约简(Kernel dimension reduction, KDR)[32].与其他监督学习的维数约简方法不同, 提出的方法既不要求$X$的边缘分布假设, 也没有$Y$的条件分布的参数模型假设.

    Fukumizu等[32]使用重建核希尔伯特空间(Reproducing kernel Hilbert spaces, RKHSs)的交叉协方差算子(Corss-covariance operator)来获得维数约简的目标函数. Fukumizu首先将定义在文献[58]中的交叉协方差算子从希尔伯特空间推广到重建核希尔伯特空间.如果我们用$(\mathcal{H}_x, \kappa_x)$和$(\mathcal{H}_y, \kappa_y)$分别表示在测度空间$(\Omega_x, \mathcal{B}_x)$和$(\Omega_y, \mathcal{B}_y)$上由核函数$\kappa_x$和$\kappa_y$诱导出的重建核希尔伯特空间.重建性质的意思是对于任意函数$f \in \mathcal{H}_x$, 我们有$\langle f, \kappa(\cdot, {\pmb x})\rangle_{\mathcal{H}_x}=f({\pmb x})$.那么对于在$\Omega_x \times \Omega_y$上的随机向量$(X, Y)$, 从RKHS $\mathcal{H}_x$到$\mathcal{H}_y$的交叉协方差算子定义如下[32]:

    $ \begin{align} \big\langle g, \Sigma_{YX} f \big\rangle_{\mathcal{H}_y}=&{{\rm E}}_{XY}\big[f(X)g(Y)\big]- \notag\\ &{{\rm E}}_{X}\big[f(X)\big]{{\rm E}}_Y\big[g(Y)\big] \end{align} $

    (25)

    其中, 所有的$f\in \mathcal{H}_x$, $g\in \mathcal{H}_y$.式(25)表明$f(X)$和$g(Y)$的协方差是可以通过线性算子$\Sigma_{YX}$的内积得到.并且该协方差算子提供了一个讨论概率分布和条件独立性的有效框架.如果$\Sigma_{XX}$可逆, 那么条件期望和交叉协方差算子之间的关系可以写成下式[32]:

    $ \begin{equation} {\rm {\rm E}}\big[g(Y)|X=\cdot\big] = \Sigma_{XX}^{-1}\Sigma_{XY}g, \quad \ g\in \mathcal{H}_y \end{equation} $

    (26)

    对于变量$Y\in {\bf R}^\ell$, $U\in{\bf R}^d$和$V\in {\bf R}^{D-d}$, 分别对应着重建核希尔伯特空间$(\mathcal{H}_y, \kappa_y)$, $(\mathcal{H}_u, \kappa_u)$和$(\mathcal{H}_v, \kappa_v)$, 每个空间都是由高斯径向基核函数$\kappa({\pmb x}_1, {\pmb x}_2)=\exp(-\|{\pmb x}_1-{\pmb x}_2\|^2/2\sigma^2)$诱导生成.那么, 条件协方差算子$\Sigma_{YY|U}$就可以由交叉协方差算子$\Sigma_{YY}$, $\Sigma_{YU}$和$\Sigma_{UU}$由下式得到[32]:

    $ \begin{equation} \Sigma_{YY|U}=\Sigma_{YY}-\Sigma_{YU}\Sigma_{UU}^{-1}\Sigma_{UY} \end{equation} $

    (27)

    并且, Fukuzimu等[32]给出定理说明: 1)对于任意的$U$, $\Sigma_{YY|U}\geq \Sigma_{YY|X}$4; 2) $\Sigma_{YY|U}-\Sigma_{YY|X}=0 \Leftrightarrow {Y}╨{V}|{U}$.

    4这里的不等式为自伴算子的偏序.

    因此, 维数约简子空间$\mathcal{Q}$可以通过下式最小化问题得到[32]:

    $ \begin{equation} \min\limits_{\mathcal{Q}}\Sigma_{YY|U}, \quad {\rm{s.t.}} \quad U={B}^{\rm T} X \end{equation} $

    (28)

    为了得到基于样本的目标函数, 我们需要从数据中估计条件协方差算子, 并选择特定的方式来估计自伴算子.首先, 文献[32]介绍了协方差算子可以通过中心化的Gram矩阵得到, 即

    $ \begin{align} \widehat{\Sigma}_{YU} = \overline{K}_Y\overline{K}_U \end{align} $

    (29)

    其中, 中心化的Gram矩阵的定义为$\overline{K}_Y={H}{K}_Y{H}$, ${H}$被称为中心化矩阵, 其定义为$[{I}_n-\frac{1}{n}{\bf 1}_n{\bf 1}_n^{\rm T}]$, ${\bf 1}_n$为全是$1$长度为$n$的列向量. Gram矩阵${K}_Y$定义为$[{K}_Y]_{ij}=\kappa_y({\pmb y}_i, {\pmb y}_j)$, $1\leq i, j\leq n$. $\overline{K}_U$的定义类似.

    可以按照同样的方式定义协方差矩阵$\widehat{\Sigma}_{YY}$和$\widehat{\Sigma}_{UU}$.结合文献[31]的正则化技术, 经验条件协方差算子$\widehat{\Sigma}_{YY|U}$可以定义为

    $ \begin{align} &\widehat{\Sigma}_{YY|U}= \widehat{\Sigma}_{YY}-\widehat{\Sigma}_{YU}\widehat{\Sigma}_{UU}^{-1}\widehat{\Sigma}_{UY}=\notag\\ &\qquad (\overline{K}_Y+\epsilon I_n)^2-\overline{K}_Y\overline{K}_U(\overline{K}_U+\epsilon I_n)^{-2}\overline{K}_U\overline{K}_Y \end{align} $

    (30)

    其中, $\epsilon>0$是正则项常数.

    文献[33]中考虑将${B}$放在Stiefel流形上${\rm{St}}(d, D)=\{{B}\in {\bf R}^{D\times d}|{B}^{\rm T}{B}={I}_d\}$[59], 并且采用矩阵迹来重新刻画了目标函数, 得到如下目标函数

    $ \begin{equation} \min\limits_{{B}}{\rm tr}\Big[\overline{K}_Y ( \overline{K}_U\!+\!n \epsilon {I}_n)^{-1}\Big], \! \quad\! {\rm{s.t.}} \ U\!=\!{B}^{\rm T} X \end{equation} $

    (31)

    因为目标函数是非凸, 可以通过非线性优化技术如基于线性查找的梯度下降法来获得最小值.迭代求解可能求得的是局部极小值, 为缓和这问题, 可以在迭代优化过程中用逐步减小高斯核带宽的连续方法[33].

    他们将这一问题看成是半参数问题, 即估计一个有限维的参数(一个由列张成有效子空间的矩阵), 同时对$X$的分布和给定$X$、$Y$的条件分布不作假设.由于通过使用核函数, 我们是在更大的空间中搜索到的最优解, 实验结果也比之前介绍的方法要好很多.并且可作为任何监督学习器的预处理器.这种方法与某类神经网络有些类似, 如两层神经网络.它假设第一层是一个线性变换, 第二层是非线性变换, 从而可以看成是基于某个特定假设对回归子$p(Y|P_{{B}}X)$的有效子空间估计.

    但是对于一些由复杂分布或流形产生的数据, 使用线性维数约简, 并不能很好地获得数据的内部结构.对于大样本, 核矩阵就会变得非常大, 不利于迭代求解.虽然可以使用不完全Cholesky分解[31]或Nyström方法[60]来近似核矩阵, 但是KDR的性能还会受到核函数的选择和规则化参数的选取的影响.

    国外一些学者在核维数约简基础上进行了改进和推广.假设高维数据在于一个低维流形上面, Nilsson等首先使用拉普拉斯特征映射(Laplacian eigenmap)来求得一个中间子空间[45], 然后再应用核维数约简来获得最后的一个线性子空间, 但是这个过程可能不适合预测新样本. Wang等通过考虑将响应变量$Y$替换为$X$, 从而将KDR推广到无监督情况[37].进一步将响应变量$Y$通过非线性变换, 然后再与解释变量$X$用KDR来实现非线性维数约简, 但这种方法缺少一定的可解释性.

    从式(23)可以看出, 充分维数约简的另外一种求解方式是寻求变量$X$的子空间, 使得其与响应变量之间的互信息量保持最高.这里介绍两种通过最大化互信息的方式来获得最优中心子空间的充分维数约简方法[34, 36].

    Sugiyama等一直从事密度比率(Density ratio)的相关研究[61].他们采用一个互信息的平方损失互信息(Squared-loss mutual information, SMI)来进行独立性度量, 然后应用近似SMI (Least-squares mutual information, LSMI)进行求解, 并且称这一方法为最小平方维数约简(Least-squared dimension reduction, LSDR)[34].

    文章以平方损失互信息(SMI)作为度量的标准, 其定义如下[34]:

    $ \begin{align} &\mathbb{I}({Y};{X})= \notag\\ & \frac{1}{2} \iint \left( \frac{p(Y, X)}{p(Y)p(X)}-1 \right)^2\ p(Y)p(X){\rm{d}}Y{\rm{d}}X \end{align} $

    (32)

    这里需要说明的是SMI可以来估计两个随机变量之间的独立性是因为$\mathbb{I}({Y};{X})$等于$0$当且仅当$p(Y, X)=p(Y)p(X)$.而且满足数据预处理不等式$\mathbb{I}({Y};{X})-\mathbb{I}({Y};{U})\geq 0$, 等号成立的条件是满足条件独立性, 即$p(X, Y|U)=p(X|U)p(Y|U)$.

    但是由于$p(Y, U)$, $p(Y)$和$p(U)$均是未知的, 我们不能直接使用SMI来估计条件独立性.为了避免密度估计, 文章采用密度率估计来近似SMI.通过凸对偶, SMI可以表示成如下[34]:

    $ \begin{equation} \mathbb{I}({Y};{U})= - \inf\limits_g J(g) -\frac{1}{2} \end{equation} $

    (33)

    其中

    $ \begin{align} J(g)=&\frac{1}{2}\iint g(Y, U)^2p(Y)p(U){\rm{d}}Y{\rm{d}}U- \notag \\ &\int g(Y, U)p(Y, U){\rm{d}}Y{\rm{d}}U \end{align} $

    (34)

    这样, 计算$\mathbb{I}({Y};{U})$就变成寻找$J(g)$的最小值$g^*$, 而且$g^*(Y, U)=\frac{p(Y, U)}{p(Y)p(U)}$[62], 这样对于$\mathbb{I}({Y};{U})$的估计就变成对于$g^*(Y, U)$的估计.

    Suzuki等指出直接计算$J(g)$会遇到两个困难, 一个是搜索空间太大, 二是密度率中真实分布未知[34].针对第一个问题, 我们将空间限制在一个$b$维子空间上$\mathcal{G}:=\{{\pmb \alpha}^{\rm T}{\pmb \varphi}({\pmb y}, {\pmb u})|{\pmb \alpha}^{\rm T}\in {\bf R}^b\}$, ${\pmb \alpha}$是从样本中学习得到, $b$维子空间基函数${\pmb \varphi}({\pmb y}, {\pmb u}):=[\varphi_1({\pmb y}, {\pmb u}), \cdots, \varphi_b({\pmb y}, {\pmb u})]^{\rm T}\geq {\bf 0}_b$, ${\pmb \varphi}({\pmb y}, {\pmb u})$表示样本到核空间的映射函数.对于第二个问题, 可以使用经验分布来近似, 因此有[34]:

    $ \begin{align} \widehat{{\pmb \alpha}} = \arg \min\limits_{{\pmb \alpha}\in {\bf R}^b} \left[\frac{1}{2} {\pmb \alpha}^{\rm T}\widehat{{H}}{\pmb \alpha}\!-\! \widehat{{\pmb h}}^{\rm T}{\pmb \alpha}\!+\!\frac{\lambda}{2}{\pmb \alpha}^{\rm T}{R}{\pmb \alpha} \right] \end{align} $

    (35)

    这里的$\frac{\lambda}{2}{\pmb \alpha}^{\rm T}{R}{\pmb \alpha}$表示正则化项, ${R}$为某些正定矩阵, $\widehat{{H}}=\frac{1}{n^2} \sum_{i, j=1}^n{\pmb \varphi}({\pmb y}_i, {\pmb u}_j){\pmb \varphi}({\pmb y}_i, {\pmb u}_j)^{\rm T}$和$\widehat{{\pmb h}}=\frac{1}{n} \sum_{i=1}^n {\pmb \varphi}({\pmb y}_i, {\pmb u}_i)$.

    对式(35)求导很容易得到其解析解为$\widehat{{\pmb \alpha}}=(\widehat{{H}}+\lambda {R})^{-1}\widehat{{\pmb h}}$.这样我们就得到最小平方互信息LSMI的估计量[34]

    $ \begin{equation} \mathbb{I}({Y};{U}) := \widehat{{\pmb h}}^{\rm T}\widehat{{\pmb \alpha}}- \frac{1}{2}\widehat{{\pmb \alpha}}^{\rm T}\widehat{{H}}\widehat{{\pmb \alpha}}-\frac{1}{2} \end{equation} $

    (36)

    因为这里${B}$也是位于Stiefel流形上${\rm{St}}(d, D)=\{{B}\in {\bf R}^{D\times d}|{B}^{\rm T}{B}={I}_d\}$, 所以, 可以通过梯度下降算法来寻找让LSMI估计量最大的变换矩阵${B}$.文章中从理论上分析了最小平方维数约简的渐近收敛性, 而且对于径向基函数${\pmb \varphi}({\pmb y}, {\pmb u})$中的参数和规则化参数$\lambda$可以使用交叉验证进行选择.

    Suzuki等进一步将LSDR推广, 得到在Grassmann流形上的最小平方维数约简[35]. Grassmann流形为所有在$D$维空间的$d$维子空间的集合, 记${\rm Gr}(d, D)=\{{B}\in {\bf R}^{D\times d}|{B}^{\rm T}{B}={I}_d\}/\sim$, 其中$\sim$表示两个矩阵展开相同的子空间的等价关系.文献[63]指出KDR和LSDR的两大限制, 一是因为使用梯度下降, 所以不适用于大样本, 二是初始值的选取, 可能导致的是局部最优值.为了加速算法的效率, Yamada等通过在LSDR每次迭代的时候, 加入基于Epanechnikov核的平方损失互信息估计的依赖最大化过程, 可以有效地改善算法的效率[63].

    另外一种基于$k$-近邻的非参互信息估计量是由Faivishevsky等提出, 并且已经被成功应用到独立成分分析, 聚类和降维[36, 64-65].原文从概率密度微分的角度来描述基于$k$-近邻的互信息, 这里我们提供一种更简便的理解.首先, Loftsgaarden等在1965年就提出了基于$k$-近邻的密度估计量[66].给定样本集合$\{{\pmb x}_i\}_{i=1}^n$, 那么$X$的概率密度估计量定义如下:

    $ \begin{equation} {p}_k({\pmb x}_i) = \frac{k}{(n-1)\ c\ [\rho_k(i)]^D} \end{equation} $

    (37)

    其中, 常数$c$为$D$维空间里面单位超立方体体积, $\rho_k(i)$表示样本${\pmb x}_i$与其第$k$个近邻之间的欧氏距离.很显然, 如果$\rho_k(i)$越大, 那么说明样本${\pmb x}_i$附近越稀疏, 进而密度会越小.反之亦然.

    那么, 基于$k$-近邻密度估计的信息熵可以写成

    $ \begin{align} \mathbb{H}_k(X) =& \frac{1}{n} \sum\limits_{i=1}^n-\log {p}_k({\pmb x}_i)=\notag\\ &\frac{1}{n}\sum\limits_{i=1}^n\Big[D\log\rho_k(i) + \log\frac{(n-1)c}{k}\Big]= \notag\\ &\frac{D}{n}\sum\limits_{i=1}^n \log\rho_k(i) + \textrm{const} \end{align} $

    (38)

    给定$k$的取值, 那么式(38)会给出样本的信息熵.然而, 对于基于$k$-近邻的非参估计量, 在一些应用中它的梯度是很难得到5.同时, 由于使用$k$-近邻, 该估计量缺乏一定的平滑性.

    5每次投影都可能会导致近邻的变化, 因此, 不适合利用梯度下降来求解降维问题.

    因此, Faivishevsky等提出使用平均的基于$k$-近邻的估计量(忽略常数项)

    $ \begin{align} \mathbb{H}(X) = & \frac{1}{n-1}\sum\limits_{k=1}^{n-1}\mathbb{H}_k(X) =\notag\\ %= \frac{D}{n(n-1)}\sum\limits_{k=1}^{n-1}\log\rho_k(i) & \frac{D}{n(n-1)} \sum\limits_{i\neq j} \log\left\| {{\pmb x}_i-{\pmb x}_j}\right\|^2 \end{align} $

    (39)

    显然, 式(39)是一个没有任何参数且平滑的信息熵估计量.当我们同时也有响应变量$Y$的时候, 那么可以把随机变量$X$和$Y$间的互信息通过联合和边际熵表示出来, 如果使用上式的估计量, 那么有:

    $ \begin{align} \mathbb{I}({X};{Y}) = &\mathbb{H}({X} )+ \mathbb{H}({Y}) - \mathbb{H}({X},{Y})= \notag\\ &\frac{D}{n(n-1)}\sum\limits_{i\neq j}\log\left\| {{\pmb x}_i-{\pmb x}_j}\right\|^2+ \notag \\ & \frac{1}{n(n-1)}\sum\limits_{i\neq j}\log\left\| {y_i-y_j}\right\|^2- \notag\\ & \frac{D+1}{n(n-1)}\sum\limits_{i\neq j}\log(\left\| {{\pmb x}_i-{\pmb x}_j}\right\|^2+\notag\\ & \left\| {y_i-y_j}\right\|^2) \end{align} $

    (40)

    这里假设$y$是一维的响应变量.当给定观测样本时, 可以用上式估计中心子空间, 相应的目标函数就写成下式

    $ \begin{align} &\max\limits_{{B}}\left( \frac{d}{n(n-1)}\sum\limits_{i\neq j}\log\left\| {{B}^{\rm T}({\pmb x}_i-{\pmb x}_j)}\right\|^2-\right. \notag\\ & \left.\frac{d+1}{n(n-1)}\sum\limits_{i\neq j}\log(\left\| {{B}^{\rm T}({\pmb x}_i-{\pmb x}_j)}\right\|^2 +\left\| {y_i-y_j}\right\|^2)\right) \end{align} $

    (41)

    该方法称为基于非参互信息的维数约简(Mutual information-based dimension reduction, MIDR).这里的投影矩阵${B}$是在Stiefel流形上.虽然估计量(41)比前面提到的KDR、LSDR等简单, 而且没有参数, 可是在实际使用时, 问题相对比较多.因为一个前提假设是样本中不能有重复样本, 其次, 使用梯度下降求解的时候, 不同样本可能在投影后变得一样, 即会导致梯度消失.此外, 近邻的平均并不能带来很好的性能提升, 因为Loftsgaarden早在1965年就指出基于$k$-近邻的密度收敛率随着样本$n$增加, 需要满足$\lim_{n\to\infty}k=\infty$和$\lim_{n\to\infty}n/k=\infty$[66].显然, 当$k=1$或者$k=n-1$时, 密度估计的收敛率是无法保证的.

    独立性准则几乎与条件独立性是平行发展的, Gretton等在重建核希尔伯特空间中提出了受约束的协方差标准去描述独立性[67], 随后他们通过用希尔伯特-施密特范数来取代原来的$\ell_2$范数, 得到了希尔伯特-施密特独立性准则(Hilbert-Schmidt independence criterion, HSIC)[68].与此同时, Sz$\acute{\rm e}$kely等提出一种基于样本距离而且非常简单的独立性准则估计量, 称为距离协方差(Distance covariance, DCOV)[69].这两种独立性准则的估计量分别被先后引入实值多变量维数约简算法[37-38].下面我们先介绍随机变量的独立性, 两个随机变量的独立性可以直接写成

    $ \begin{align} Y╨ X \end{align} $

    (42)

    表示随机变量$X$和$Y$互相独立. HSIC和DCOV均为估计两个随机变量的独立性准则.独立的对立面是相依性(Dependence)6.因此, 本节介绍的两个算法分别基于HSIC和DCOV最大化随机变量${B}^{\rm T} X$和$Y$之间的相依性来获得中心子空间.值得注意的是, 相依性(独立性)和条件独立性之间存在着本质的区别, 所以, 从严格意义上来讲, 基于相依准则的降维算法不属于充分维数约简范畴.但是, 由于其目标函数有时候比一些标准的实值多变量维数约简算法更为简单, 方便优化, 同样也吸引了一些研究人的关注.本章不作严格区分, 把基于相依准则的降维算法也列为充分维数约简算法中.下面将着重介绍这两个独立性准则.

    6统计中对单词“Dependence”没有很明确的翻译, 有的地方翻译成“相关”, 有的地方直译成“依赖”, 本文中, 我们采取第三种翻译“相依”, 表示两个随机变量相互依赖.

    式(25)中定义的交叉协方差算子可以看成是相关系数的非线性推广, 即对任意的非线性函数$f$和$g$, 如果交叉协方差仍然为$0$, 那么可以说明这两个随机变量是独立的.因此, Gretton等提出使用希尔伯特-施密特范数来度量交叉协方差算子[68].

    希尔伯特-施密特范数是对矩阵的Frobenius范数的推广.因此, HSIC的估计量其实就是算子$\Sigma_{XY}\Sigma_{XY} ^{\rm T}$的迹7.因此, 我们用平方的希尔伯特-施密特范数来作为独立性的准则. Gretton等证明了HSIC可以通过核函数表示如下[68]:

    7对于任意矩阵${A}\in{\bf R}^{n\times m}$, 其Frobenius范数$\|{A}\|_{F}^2=\sum_{i=1}^n\sum_{j=1}^m [{A}]_{ij}^2=\textrm{tr}\big[{A}{A}^{\rm T}\big]$.

    $ \begin{align} &\textrm{HSIC}(X, Y) = \|\Sigma_{XY}\|_{HS}^2 =\notag\\ &\qquad {\rm E}_{XX'YY'}\big[\kappa_x(X, X')\kappa_y(Y, Y')\big]+\notag \\ &\qquad {\rm E}_{XX'}\big[\kappa_x(X, X')\big]{\rm E}_{YY'}\big[\kappa_y(Y, Y')\big]-\notag\\ &\qquad 2{\rm E}_{XY}\big[{\rm E}_{X'}[\kappa_x(X, X')]{\rm E}_{Y'}[\kappa_y(Y, Y')]\big] \end{align} $

    (43)

    其中, $(X', Y')$是$(X, Y)$的独立拷贝.上述HSIC为零当且仅当变量$X$和$Y$互相独立.因此, 最大化HSIC即为最大化两个随机变量之间的相依关系.

    给定观测样本$\{({\pmb x}_i, {\pmb y}_i)\}_{i=1}^n$, HSIC的样本估计量可以写成

    $ \begin{align} \textrm{HSIC}(X, Y) =& \frac{1}{(n-1)^2}{\rm tr}\Big[{K}_X{H}{K}_Y{H}\Big]= \notag \\ &\frac{1}{(n-1)^2}{\rm tr}\Big[\overline{K}_X \overline{K}_Y\Big] \end{align} $

    (44)

    其中, ${K}_X$和${K}_Y$分别是$X$和$Y$对应的Gram矩阵, ${H}$为上一节定义的中心化矩阵.

    Wang等通过最大化HSIC估计量来让和$Y$之间的相依关系最大, 即寻找一个低维空间, 使得$U$和$Y$之间的信息保留的最多[37].其对应的优化目标函数为

    $ \begin{align} \max\limits_{{B}} \textrm{HSIC}(U, Y)=\tfrac{1}{(n-1)^2} \textrm{tr}\Big[{K}_U{H}{K}_Y{H}\Big] \end{align} $

    (45)

    相对于KDR的目标函数(31), HSIC目标函数的优势在于避免了矩阵求逆.虽然, Wang等证明了HISC和KDR的渐近等价性[37], 但Suzuki等强调了HISC是估计两个随机变量之间的独立性, 而并非条件独立性[34].

    值得一提的是, 最大化HSIC来度量变量之间的相依关系这个策略不止被用在充分维数约简降维算法中, 还被广泛用在其他应用中, 譬如, 多标签降维[70]、聚类分析[71-72]、特征选择[73]、目标匹配[74-75]、因果推演[76]等.

    另外一种独立性估计量是由Szekely等[69]在2007年提出的基于样本距离而且非常简单的估计量, 称为距离协方差(Distance covariance, DCOV).由于其不包含参数, 易计算, 而被应用到特征抽取[77], 特征提取[38, 78]等应用.

    依据文献[69], 距离协方差的定义如下:

    定义2. 对于给定有限一阶矩的两个随机变量$X\in{\bf R}^D$和$Y \in{\bf R}^l$, 那么距离协方差的定义如下:

    $ \begin{align} &{\rm{DCOV}}(X, Y)= \notag\\ & \int_{{\bf R}^{D+l}} |f_{X, Y}(t, s) -f_{X}(t)f_{Y}(s)|^2w(t, s){\rm{d}}t{\rm{d}}s \end{align} $

    (46)

    其中, $f_{X}$和$f_{Y}$分别是$X$和$Y$的特征函数, $f_{X, Y}$是联合特征函数, $w(t, s)$是一个权重函数, 定义为

    $ \begin{equation} w(t, s) = \Big(C(D, \alpha)C(l, \alpha)\|t\|_{D}^{\alpha+D}\|s\|_l^{\alpha+l}\Big)^{-1} \end{equation} $

    (47)

    这里的$C(D, \alpha) = \frac{2\pi^{D/2}\Gamma(1-\alpha/2)}{\alpha2^{\alpha}\Gamma((\alpha+D)/2)}$.

    这里的权重函数$w(t, s)$需要保证式(46)的积分存在.在文献[69, 79]中给出了DCOV的另一种等价形式:

    $ \begin{align} &\textrm{DCOV}(X, Y)= \notag \\ & \qquad {\rm E}_{XX'YY'}\|X-X'\| \|Y-Y'\|+\notag \\ &\qquad {\rm E}_{XX'}\|X-X'\|{\rm E}_{YY'}\|Y-Y'\|-\notag\\ &\qquad 2{\rm E}_{XY} \big[{\rm E}_{X'}\|X-X'\|{\rm E}_{Y'}\|Y-Y'\|\big] \end{align} $

    (48)

    其中, $(X', Y')$是$(X, Y)$的独立拷贝.上述距离协方差为零当且仅当随机变量$X$和$Y$相互独立.同样的, 最大化DCOV对应的就是相依关系.显然地, 如果用欧氏距离替换HSIC (43)中的核函数, 那么HSIC和DCOV是等价的.此外, Sejdinovic等已经证明DCOV只是HSIC的一个特例[80].

    给定样本集合$\{({\pmb x}_i, {\pmb y}_i)\}_{i=1}^n$, 距离协方差可以通过计算两两样本间的欧氏距离得到, 即其估计量为

    $ \begin{align} {\rm{DCOV}}(X, Y) =& \frac{1}{n^2}\sum\limits_{i=1}^n\sum\limits_{j=1}^n [\overline{D}_X]_{ij}[\overline{D}_Y]_{ij}=\notag\\ & \frac{1}{n^2}\textrm{tr}\Big[\overline{D}_X \overline{D}_Y\Big] \end{align} $

    (49)

    其中, $\overline{D}_X$为变量$X$中心化的距离矩阵, 也就是说, $\overline{D}_X={H}{D}_X{H}$, $[{D}_X]_{ij}=\|{\pmb x}_i-{\pmb x}_j\|$.类似的可以定义中心化的距离矩阵$\overline{D}_Y$.

    因此, Sheng等考虑通过最大化上述DCOV估计量来估计中心子空间[38], 构造目标函数为

    $ \begin{align} \max\limits_{{B}} {\rm{DCOV}}(U, Y)=\frac{1}{n^2}{\rm{tr}} \Big[\overline{D}_U \overline{D}_Y\Big] \end{align} $

    (50)

    相对于HSIC, DCOV的优势在于它的估计量中没有任何参数, 弱势在于, 估计量中采用的欧氏距离无法处理复杂的非线性相依关系.

    除了这两项经典工作外, 还有一些其他变体的推广.像Fukumizu等提出了一个规范化的协方差算子$V_{XY} : \Sigma_{XY}=\Sigma_{XY}^{1/2}V_{XY}\Sigma_{YY}^{1/2}$在极限情况下是核函数无关的, 因此具有更好的刻画独立性关系的能力[81].此外, Fukumizu等还证明了在一定假设下, 规范化的协方差算子的希尔伯特-施密特范数和式(32)等价[81].然而该估计量在基于样本情况下, 依然需要选择核函数. Poczos等考虑使用最大均值差异(Maximum mean discrepancy, MMD)来衡量Copula的联合分布[82], 从而实现独立性的估计, 而且这种方法满足所有依赖性公理[83], 但是因为使用了序关系, 无法用于对中心子空间的估计.

    前面提到的方法虽然可以统计高阶信息, 可是非凸的目标函数导致优化代价昂贵.因此, 即可以包含高阶信息, 又可以快速求解, 这就使得算法更实用.文献[39-41]从回归模型中条件期望的梯度入手, 提出了既可以包含高阶统计信息, 又有闭式解的两种降维方法.我们首先介绍一下如何通过梯度来估计中心子空间.

    考虑响应变量$Y\in{\bf R}$, 那么我们有:

    $ \begin{align} \frac{\partial {\rm E}[Y|X={\pmb x}]}{\partial{\pmb x}} &= \frac{\partial}{\partial {\pmb x}}\int yp(y|{\pmb x}){\rm{d}}y =\notag\\ & \int y\frac{\partial}{\partial {\pmb x}}p(y|{B}^{\rm T}{\pmb x}){\rm{d}}y=\notag\\ &{B}\int y\frac{\partial}{\partial{\pmb u}}p(y|{\pmb u})|_{{\pmb u}={B}^{\rm T}{\pmb x}}{\rm{d}}y \end{align} $

    (51)

    其中第二步到第三步, 使用了条件独立性$p(Y|X) = p(Y|{B}^{\rm T} X)$.从式(51)可以看出, 对任意的${\pmb x}$, 梯度$\frac{\partial {\rm E}[Y|X={\pmb x}]}{\partial{\pmb x}}$是包含在中心子空间里面的.因此, Fukumizu等使用条件协方差算子的梯度形式进而估计中心子空间, 该方法称为基于梯度的核维数约简(Gradient-based kernel dimension reduction, gKDR)[39-40]. Sasaki等使用最小平方对数密度的梯度来直接估计回归函数的梯度, 进而估计中心子空间, 该方法称为最小平方梯度维数约简(Least-squares gradients for dimension reduction, LSGDR)[41].

    首先, Steinwart等已经证明, 如果在欧氏空间给定一个定义在开集上的正定核$\kappa({\pmb x}, {\pmb y})$对${\pmb x}$和${\pmb y}$是连续可微的, 那么在对应RKHS空间的任意函数$f$也是连续可微的[84].更进一步, 如果$\frac{\partial}{\partial {\pmb x}}\kappa(\cdot, {\pmb x}) \in \mathcal{H}_x$, 我们有:

    $ \begin{equation} \frac{\partial f}{\partial {\pmb x}} = \Big\langle f, \frac{\partial}{\partial {\pmb x}} \kappa(\cdot, {\pmb x}) \Big\rangle_{\mathcal{H}_x} \end{equation} $

    (52)

    其次, 式(26)已经给出了用交叉协方差算子表示条件期望.假设$\Sigma_{XX}$是双射, $\kappa_x({\pmb x}, \tilde{{\pmb x}})$是连续可微的, 对任意$g\in \mathcal{H}_y$, ${\rm E}[g(Y)|X=\cdot]\in \mathcal{H}_x$, 结合式(52)和式(26), 我们有:

    $ \begin{align} &\frac{\partial}{\partial {\pmb x}}{\rm E}[g(Y)|X = {\pmb x}] =\notag \\ &\qquad \big\langle\Sigma_{XX}^{-1}\Sigma_{XY}g, \! \frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\big\rangle_{\mathcal{H}_x} =\notag \\ & \qquad \big\langle g, \Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\big\rangle_{\mathcal{H}_y} \end{align} $

    (53)

    此时, 令函数$g=\kappa_y(\cdot, y)$, 那么我们得到如下核空间回归函数的梯度形式

    $ \begin{equation} \frac{\partial}{\partial {\pmb x}}{\rm E}[\kappa_y(\cdot, y)|X\!= \!{\pmb x}] = \Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}} \end{equation} $

    (54)

    定义矩阵${M}({\pmb x})$如下:

    $ \begin{align} &{M}({\pmb x}) :=\notag\\ &\quad \Big\langle \Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}, \Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\Big\rangle_{\mathcal{H}_y} =\notag \\ &\quad \Big\langle \frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}, \Sigma_{XX}^{-1}\Sigma_{XY}\Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\Big\rangle_{\mathcal{H}_x} \end{align} $

    (55)

    按照式(51), 显然可知$D\times D$矩阵${M}({\pmb x})$的非零特征值对应的特征向量是包含在中心子空间内的.和传统方法不一定的地方是, 这个方法包含的是高维(或者无穷维)的回归函数${\rm E}[\kappa_y(\cdot, y)| X={\pmb x}]$.

    当给定观测样本$\{({\pmb x}_i, {\pmb y}_i)\}_{i=1}^n$, 基于经验协方差算子和正则化, 矩阵${M}({\pmb x})$可以用下式估计

    $ \begin{align} &\widehat{{M}}({\pmb x}) =\notag\\ &\nabla{{\pmb k}}_X^{\rm T}({\pmb x})\big({K}_X + n\epsilon{I}\big)^{-1} {K}_Y\big({\pmb k}_X + n\epsilon{I}\big)^{-1}\nabla{{\pmb k}}_X({\pmb x}) \end{align} $

    (56)

    其中

    $ \begin{equation} \nabla{\pmb {\pmb k}}_X({\pmb x}) \!=\! \Big[\frac{\partial \kappa_x({\pmb x}_1, {\pmb x})} {\partial {\pmb x}}, \cdots, \frac{\partial \kappa_x({\pmb x}_n, {\pmb x})} {\partial {\pmb x}}\Big]^{\rm T}\!\!\in{\bf R}^{n\times D} \end{equation} $

    (57)

    因为对任意的${\pmb x}$, 矩阵${M}({\pmb x})$的特征向量都包含在中心子空间内, 因此文献[39-40]提出使用矩阵${M}({\pmb x})$的平均来构造gKDR的目标矩阵, 即

    $ \begin{equation} \widehat{M}:=\frac{1}{n}\sum\limits_{i=1}^n\widehat{M}({\pmb x}_i) \end{equation} $

    (58)

    和之前基于二阶矩的方法相比, gKDR中包含更高阶的统计信息, 可以处理任意类型的$Y$, 包括多模态或结构变量, 并且对$X$的分布不作假设.同时, 如果选择某些分类或者回归的方法, 核函数的参数可以通过交叉验证的方式选取. gKDR的时间复杂度是O$(n^3)$, 主要耗时的地方是矩阵求逆和特征值分解.为了适应大数据的处理, 文章还提供了两种变体: 1)通过使用不完全Cholesky分解; 2)通过采样的方法, 把数据切成$h$份, 然后在每一份数据上求一个投影方向, 再用$h$个投影方向求得最终平均的投影方向.

    gKDR的性能取决于正则化参数$\epsilon$和核函数$\kappa_x$, $\kappa_y$中的带宽参数.并且没有系统的模型选取方法用来挑选这些参数.因此, Sasaki等提出了一个带有交叉验证的基于梯度的降维方法[41].

    和gKDR出发点不一样的是, LSGDR旨在估计条件密度的梯度, 即下式:

    $ \begin{align} \frac{\partial}{\partial {\pmb x}} p(y|{\pmb x}) = {B}\frac{\partial}{\partial {\pmb u}} p(y|{\pmb u}) \end{align} $

    (59)

    因此, 只要估计出条件密度的梯度, 我们就可以用外积构造矩阵, 进而估计中心子空间.

    因此, Sasaki等提出了一个对数条件密度梯度的估计量[41]:

    $ \begin{align} \partial_j \log p(y|{\pmb x}) = \frac{\partial_j p(y|{\pmb x})}{p(y|{\pmb x})} \frac{\partial_jp(y, {\pmb x})}{p(y, {\pmb x})}\!-\!\frac{\partial_jp({\pmb x})}{p({\pmb x})} \end{align} $

    (60)

    其中, $\partial_j=\frac{\partial}{\partial {\pmb x}^{(j)}}$.文章的核心思想是直接用梯度模型, ${\pmb g}(y, {\pmb x})=[g^{(1)}(y, {\pmb x}), \cdots, g^{(D)}(y, {\pmb x})]$去拟合其真实的对数条件密度梯度.具体过程和LSDR方法类似, 此处不作展开.

    经过一些操作变换, $g^{(j)}$的经验近似损失可以写成

    $ \begin{align} \tilde{J}(g^{(j)}) =& \frac{1}{n}\sum\limits_{i=1}^n \Big\{g^{(j)}(y_i, {\pmb x}_i)\Big\}^2+\notag\\ &2\Big\{\partial_j g^{(j)}(y_i, {\pmb x}_i) + g^{(j)}(y_i, {\pmb x}_i){\widehat{\gamma}}^{(j)}({\pmb x}_i)\Big\} \end{align} $

    (61)

    为了估计$\partial_j \log p(y|{\pmb x})$, 我们使用如下线性参数模型:

    $ \begin{align} &g^{(j)}(y, {\pmb x}) = \notag\\ &\qquad \sum\limits_{i=1}^n \theta_{ij}\underbrace{\exp\Big(-\frac{\|{\pmb x}-{\pmb x}_i\|^2}{2(\sigma_x^{(j)})^2}-\frac{(y-y_i)^2}{2\sigma_y^2}\Big)}_{\psi_i^{(j)}(y, {\pmb x})} =\notag \\ &\qquad {\pmb \theta}_j^{\rm T} {\pmb \psi}_j(y, {\pmb x})\end{align} $

    (62)

    $ \begin{align} \partial_jg^{(j)}(y, {\pmb x}) = \sum\limits_{i=1}^n \theta_{ij}\underbrace{\partial_j \psi_j^{(i)}(y, {\pmb x})}_{\pmb \phi_i^{(j)}(y, {\pmb x})} = {\pmb \theta}_j^{\rm T} { \pmb \phi}_j(y, {\pmb x}) \end{align} $

    (63)

    其中, $\psi_i^{(j)}(y, {\pmb x})$为基函数.通过代入模型, 并且加入$\ell_2$正则项, 我们可以得到闭式解

    $ \begin{align} \widehat{{\pmb \theta}}_j = {\rm arg\;min}_{{\pmb \theta}_j} &\Big[{\pmb \theta}_j^{\rm T}{G}_j{\pmb \theta}_j+2{\pmb \theta}_j^{\rm T}{\pmb h}_j+\lambda^{(j)}{\pmb \theta}_j^{\rm T}{\pmb \theta}_j\Big]= \notag\\ & -({G}_j + \lambda^{(j)}{I})^{-1}{h}_j \end{align} $

    (64)

    其中, $\lambda^{(j)}$为正则项系数,

    $ \begin{align} {G}_j &= \frac{1}{n}\sum\limits_{i=1}^n {\pmb \psi}_j(y_i, {\pmb x}_i){\pmb \psi}_j^{\rm T}(y_i, {\pmb x}_i) \end{align} $

    (65)

    $ \begin{align} {\pmb h}_j&=\frac{1}{n} \sum\limits_{i=1}^n{ \pmb \phi}_j(y_i, {\pmb x}_i) + {\widehat{\gamma}}^{(j)}({\pmb x}_i){\pmb \psi}_j(y_i, {\pmb x}_i)\end{align} $

    (66)

    最后, 我们可以得到一个最小平方对数条件密度梯度(Least-squares logarithmic conditional density gradient, LSLCG)估计量, 即

    $ \begin{align} \widehat{g}^{(j)}(y, {\pmb x}) = {\widehat{{\pmb \theta}}}_j^{\rm T} {\pmb \psi}_j(y, {\pmb x}) \end{align} $

    (67)

    为了估计中心子空间, 和gKDR类似的定义外积矩阵

    $ \begin{align} \widehat{{\Sigma}} = \frac{1}{n}\sum\limits_{i=1}^n \widehat{{\pmb g}}(y_i, {\pmb x}_i)\widehat{{\pmb g}}^{\rm T}(y_i, {\pmb x}_i) \end{align} $

    (68)

    其最大特征值对应的特征向量构成我们的中心子空间, 该方法称为最小平方梯度维数约简.相对于gKDR, 该方法具有交叉验证, 便于模型选取.

    前面提到的所有方法都是线性维数约简算法.而对于数据中的非线性结构, 线性往往不能满足需求.因此, 一些研究人员开始研究非线性的实值多变量维数约简算法.非线性降维算法主要考虑由核函数$\kappa_x$诱导得到的重建核希尔伯特空间$\mathcal{H}_x$, 那么任意样本${\pmb x}$都可以通过隐式的非线性特征变换映射到重建核希尔伯特空间, 即${ \pmb \phi}({\pmb x}) = \kappa_x(\cdot, {\pmb x}) \in \mathcal{H}_x$, 本节将介绍两种非线性方法, 希望寻找一组非线性的投影向量${\pmb b}_l(\cdot) \in \mathcal{H}_x$, $l=1, \cdots, d$, 组成非线性的中心子空间, 方法分别为核切片逆回归(Kernel sliced inverse regression, KSIR)[42]和协方差算子逆回归(Covariance operator inverse regression, COIR)[8, 11, 85].

    KSIR是SIR的核化算法.在第3.1节中, 我们已经介绍了SIR通过逆回归曲线${\rm E}[{\pmb x}|y]$来估计中心子空间, 并且其估计量可以写成var$({\rm E}[{\pmb x}|y])$.而在KSIR中, 作者直接将${\pmb x}$换成${ \pmb \phi}({\pmb x})$实现非线性.即KSIR的估计量为${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$.

    和SIR类似, KSIR首先将数据按照$Y$的数值切成$h$份, 分别为$I_1, \cdots, I_h$.令$\Phi_x = [{ \pmb \phi}({\pmb x}_1), \cdots, { \pmb \phi}({\pmb x}_n)]$, ${C}$表示$n\times h$的$0/1$指示矩阵, 每一行只有一个元素是$1$ (表示该样本属于某一切片), 其余为$0$.此外, 矩阵${P}$为一个$h\times h$的对角矩阵, 其对角线元素表示该切片内样本占全部样本的比例, 即$[{P}]_{jj}=|I_j|/n$.那么, KSIR按照以下步骤估计中心子空间

    1) 把$\{y_i\}_{i=1}^n$切成$h$份, 计算切片内均值

    $ \begin{equation} {M} = [{\pmb m}_1, \cdots, {\pmb m}_h] = \frac{1}{n}\Phi_x{C}{P}^{-1} \end{equation} $

    (69)

    2) 估计切片内样本的协方差矩阵, 即

    $ \begin{equation} {V} = {M}{P}{M}^{\rm T} \end{equation} $

    (70)

    我们把矩阵${V}$的前$d$个特征向量记成$\{{\pmb v}_l\}_{l=1}^d$.

    3) 中心子空间的方向可以通过${\pmb b}_l=\Sigma_{XX}^{-1}{\pmb v}_l$, $l=1, \cdots, d$获得.

    虽然上面的步骤不能显示的计算, 但是我们可以通过核技巧实现.更具体点, 在步骤2), 为了求解特征值分解${V}{\pmb v} = \lambda{\pmb v}$, 我们把${\pmb v}$表示成$\{{ \pmb \phi}({\pmb x})_i\}_{i=1}^n$的线性组合, 也就是说, ${\pmb v} = \sum_{i=1}^n\alpha_i{ \pmb \phi}({\pmb x}_i) = \Phi_x{\pmb \alpha}$, 其中${\pmb \alpha}=[\alpha_1, \cdots, \alpha_n]^{\rm T}$.在${V}{\pmb v} = \lambda{\pmb v}$的两侧同乘$\Phi_x^{\rm T}$后, 可以得到下面对偶方程:

    $ \begin{equation} \frac{1}{n^2}{K}_X{C}{P}^{-1}{C}^{\rm T}{K}_X{\pmb \alpha} = \lambda {K}_X{\pmb \alpha} \end{equation} $

    (71)

    步骤3)中的投影向量${\pmb b}$可以用类似的方式从${\pmb v}$得到.为了求解$\Sigma_{XX}{\pmb b}={\pmb v}$, 我们把样本估计量$\frac{1}{n}\Phi_x\Phi_x^{\rm T}$来替换协方差算子$\Sigma_{XX}$.令${\pmb b}=\sum_{i=1}^n\beta_i{ \pmb \phi}({\pmb x}_i)=\Phi_x{\pmb \beta}$, 其中${\pmb \beta}=[\beta_1, \cdots, \beta_n]^{\rm T}$, 并且两侧同乘以$\Phi_x^{\rm T}$, 即可以得到${\pmb \beta}$的闭式解:

    $ \begin{equation} {\pmb \beta} = n{K}_X^{-1}{\pmb \alpha} \end{equation} $

    (72)

    非线性中心子空间就可以通过$d$个从$\{{\pmb \beta}_l\}_{l=1}^d$构成的基函数$\{{\pmb b}_l\}_{l=1}^d$表示.如果给定一个新的样本${\pmb x}^*$, 它的低维表示${\pmb z}^*\in{\bf R}^d$可以通过将${ \pmb \phi}({\pmb x}^*)$投影中心子空间得到, 也就是说, ${\pmb z}^*$的第$l$个元素是: ${\pmb b}_l^{\rm T}{ \pmb \phi}({\pmb x}^*)={{\pmb k}}_{*}^{\rm T}{\pmb \beta}^l$, $l=1, \cdots, d$, 其中${{\pmb k}}_*=[\kappa_x({\pmb x}_1, {\pmb x}^*), \cdots, \kappa_x({\pmb x}_n, {\pmb x}^*)]^{\rm T}$.

    核化的切片逆回归方法解决了SIR的一些问题.它允许一个对边际分布有较少约束的非线性子空间.然后, KSIR基于切片的估计量var$({\rm E}[{ \pmb \phi}({\pmb x})|y])$并不适用于高维的变量$Y$.这样使得KSIR只能用于一元变量回归或者分类.为了避免因为切片带来的问题, Kim等提出了一个新的协方差算子逆回归[8, 11, 85].

    前面已经提到交叉协方差算子可以通过协方差算子定义, 即

    $ \begin{equation} \Sigma_{XX|Y} = \Sigma_{XX}-\Sigma_{XY}\Sigma_{YY}^{-1}\Sigma_{YX} \end{equation} $

    (73)

    并且在一些温和条件下, 条件协方差算子$\Sigma_{XX|Y}$和给定${\pmb y}$, ${ \pmb \phi}({\pmb x})$的期望条件方差等价.具体描述如下面定理.

    定理2. 对任意的函数$f \in \mathcal{H}_x$, 如果存在一个函数$g \in \mathcal{H}_y$, 使得对几乎所有的${\pmb y}$, 有${\rm E}[f({\pmb x})|{\pmb y}]=g({\pmb y})$.那么$\Sigma_{XX|Y}={\rm E}[{\rm var}[{ \pmb \phi}({\pmb x})|{\pmb y}]]$.

    使用方差公式, 我们有:

    $ \begin{equation} {\rm var}[{\rm E}[{ \pmb \phi}({\pmb x})\!|\!{\pmb y}]] \!=\! {\rm var}({ \pmb \phi}({\pmb x})) \!-\! {\rm E}[{\rm var}[{ \pmb \phi}({\pmb x})\!|\!{\pmb y}]] \end{equation} $

    (74)

    通过定理2和式(73), 式(74)可以写成

    $ \begin{equation} {\rm var}[{\rm E}[{ \pmb \phi}({\pmb x})|{\pmb y}]] = \Sigma_{XY}\Sigma_{YY}^{-1}\Sigma_{YX} \end{equation} $

    (75)

    注意${\rm var}({ \pmb \phi}({\pmb x}))=\Sigma_{XX}$.

    COIR需要对上式进行特征值分解, 给定观测样本$\{({\pmb x}_i, {\pmb y}_i)\}_{i=1}^n$, 再令$\Phi_y=[{ \pmb \phi}({\pmb y}_1), \cdots, { \pmb \phi}({\pmb y}_n)]$, 那么式(75)的估计量可以写成

    $ \begin{align} &{{\rm var}}({\rm E}[{ \pmb \phi}({\pmb x})|{\pmb y}])= \notag\\ &\quad \Big(\frac{1}{n}\Phi_x\Phi_y^{\rm T}\Big)\Big(\frac{1}{n}(\Phi_y\Phi_y^{\rm T}+n\epsilon {I})\Big)^{-1} \Big(\frac{1}{n}\Phi_y\Phi_x^{\rm T}\Big) =\notag\\ &\quad \frac{1}{n} \Phi_x^{\rm T}\Phi_y(\Phi_y\Phi_y^{\rm T}+n\epsilon{I})^{-1}\Phi_y\Phi_x^{\rm T} =\notag\\ &\quad \frac{1}{n}\Phi_x{K}_Y({K}_Y+n\epsilon{I})^{-1}\Phi_x^{\rm T} \end{align} $

    (76)

    同样的核技巧, 特征值分解${{\rm var}}({\rm E}[{ \pmb \phi}({\pmb x})|{\pmb y}]){\pmb v}=\lambda{\pmb v}$可以写成下式,

    $ \begin{equation} \frac{1}{n}{K}_Y({K}_Y+n\epsilon{I})^{-1}{K}_X{\pmb \alpha} = \lambda{\pmb \alpha} \end{equation} $

    (77)

    因此, 和KSIR类似的, 通过式(72)得到最终的非线性子空间.和KSIR相比, COIR中不需要对响应变量$Y$切片, 可以处理多元变量的$Y$, 并且该方法可以轻易推广到半监督情况[85].

    首先, 本节给出对本文介绍的所有实值多变量维数约简算法的全面对比.对比主要从响应变量类型、算法求解类型、分布假设、算法中使用的统计矩、是否带有交叉验证、算法中的回归方式、算法中的参数个数以及参数列表, 详见表 2.需要指出的是, 表 2中的统计矩表示模型中使用变量$X$的阶矩; 无穷表示使用高斯核或者$\log$操作可以把变量映射到一个无穷维的空间.模型选取中的“-”表示模型无参数, 不需要模型选取; “无”表示该模型无系统的选取方法, 需结合其他回归算法作交叉验证; “交叉验证”表示该方法可直接进行交叉验证.

    表 2  实值多变量维数约简算法总结
    Table 2  Summary of real-valued multivariate dimension reduction algorithms
    算法 响应变量 求解类型 分布假设 统计矩 模型选取 回归方式 #参数 参数列表
    SIR[23] 一元 解析解 椭圆对称 一阶 逆回归 1 切片数$h$
    SAVE[26] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    SIRII[49] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    pHd[25] 一元 解析解 正态分布 二阶 - 正回归 0 -
    DR[27] 一元 解析解 渐进正态 二阶 逆回归 1 $h$
    PFC[28] 一元 解析解 模型假设 模型相关 逆回归 1 次数$r$
    KDR[33] 多元 非凸优化 无穷 正回归 3 带宽$\sigma_x, \sigma_y$, $\epsilon$
    LSDR[35] 多元 非凸优化 无穷 交叉验证 正回归 4 $\sigma_x, \sigma_y$, $\lambda$, $b$
    MIDR[36] 多元 非凸优化 无穷 - 正回归 0 -
    HSIC[37] 多元 非凸优化 无穷 正回归 2 $\sigma_x, \sigma_y$
    DCOV[38] 多元 非凸优化 二阶 - 正回归 0 -
    gKDR[40] 多元 解析解 无穷 正回归 3 $\sigma_x, \sigma_y, \epsilon$
    LSGDR[41] 多元 解析解 无穷 交叉验证 正回归 $2D+1$ $\{\sigma_x^{(j)}, \lambda^{(j)}\}_{j=1}^D, \sigma_y$
    KSIR[42] 一元 解析解 无穷 逆回归 2 $\sigma_x$, $h$
    COIR[8] 多元 解析解 无穷 逆回归 3 $\sigma_x, \sigma_y, \epsilon$
    下载: 导出CSV 
    | 显示表格

    至此, 我们已经对降维算法有一定的了解, 剩下的就是如何求解这些算法.本章所介绍的降维算法可以分为两种求解类型:基于广义特征值分解的降维算法和基于矩阵流形优化求解的降维算法.本节最后会介绍一种内在维度的估计算法.

    表 3中列出算法可以转换给广义特征值求解.需要特别指出的是, 除了KSIR和COIR为非线性降维外, 其余均为线性降维.

    表 3  基于广义特征值求解的实值多变量维约简算法估计量
    Table 3  Estimation of generalized eigen-decomposition-based multivariate dimension reduction algorithms
    方法 (样本)估计量${M}$
    SIR[23] ${\rm E}\Big[{\rm E}(Z|Y){\rm E}(Z|Y)^{\rm T}\Big] $
    SAVE[26] ${\rm E}\Big[{I}-{\rm var}(Z|Y)\Big]^2$
    SIRII[49] ${\rm E}\Big[{\rm var}(Z|Y)-{\rm E}({\rm var}(Z|Y))\Big]^2$
    pHd[25] ${\rm E}\Big[(Y-E Y)ZZ^{\rm T}\Big]^2$
    DR[27]
    PFC[28] $\frac{1}{n}\widehat{{X}}^{\rm T}\widehat{{X}}$
    gKDR[40] $ \big\langle \frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}, \Sigma_{XX}^{-1}\Sigma_{XY}\Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\big\rangle_{\mathcal{H}_x}$
    LSGDR[41] $ {\rm E}({{\pmb g}}(y, {\pmb x}){{\pmb g}}(y, {\pmb x})^{\rm T})$
    KSIR[42] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    COIR[8] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    下载: 导出CSV 
    | 显示表格

    在线性降维基础上, 维数约简成分都是原来预测量的线性组合得到.这样就会很难对约简后的成分进行解释.例如, 我们有一个回归模型$Y = \exp(-0.5{\pmb b}^{\rm T} X) + 0.5{\epsilon}$, 其中$X$是$6$维向量, 并且噪音变量${\epsilon}$是独立的标准正态分布.那么中心子空间$\mathcal{S}_{Y|X}=\textrm{span}({\pmb b})$, 并且这里的${\pmb b}$设为$(1, -1, 0, 0, 0, 0)^{\rm T}/\sqrt{2}$.拿SIR为例, 通过100个仿真样本, 得到的估计量为$\widehat{{\pmb b}}=(0.651, -0.745, -0.063, 0.134, 0.014, 0.003)^{\rm T}$.虽然最后4个系数相对比较小, 但是$6$个维度的信息都被包含在里面了, 这样会导致对真实中心子空间的估计出现偏差.所以, 文献[43-44]组合了充分维数约简中的回归技术和稀疏学习中的收缩估计策略, 对子空间进行了稀疏化表示.

    稀疏维数约简是对现有算法的推广, 本节简要介绍两种稀疏策略. 1)文献[43]借助稀疏主成分分析的思想[86], 将广义特征值问题转换为优化问题, 并使用LASSO (Least absolute shrinkage and select operator)算法求解.期望使得投影矩阵${B}$中的一些元素收缩至$0$, 这样可以有更好的解释性. 2)考虑到上面方法中的惩罚项是坐标依赖的, 即对于基的正交变换, $\ell_1$的惩罚项不是保持不变的.因此, 文献[44]提出一个坐标独立的惩罚项, 并且考虑对投影矩阵${B}$的行向量进行惩罚, 这样在实现稀疏学习的同时还可以进行变量选取.

    由于实值多变量维数约简算法中基于矩阵流形优化的投影矩阵${B}$都是在Stiefel流形${\rm{St}}(D, d)=\{{B}\in{\bf R}^{D\times d}\ :\ {B}^{\rm T}{B}={I}_d \}$, 其中${I}_d$是$d\times d$的单位矩阵.为了方便, 我们简记成$\mathcal{O}^{D\times d}$.那么$\mathcal{O}^{D\times d}$是一个嵌入在${\bf R}^{D\times d}$的子流形.

    这里我们提供矩阵流行优化最基本的介绍, 主要是基于流形的一阶投影梯度优化[59, 87].直觉上, 流形投影梯度方法是迭代优化路线, 首先需要理解在约束集上的搜索方向, 我们称为切空间(Tangent space).给定一个目标函数$f$, 梯度$-\nabla_{{B}} f$是在全空间上计算得到的, 即空间${\bf R}^{D\times d}$.这些梯度都被投影到切空间上.在线性切空间的任意非零步长都会导致离开非线性约束集.所以, 最后我们都需要使用回缩(Retraction)把步长投影到约束集合上.使用上面三步, 一个标准的一阶迭代求解方法就可以用来求解矩阵流行优化问题了.详见图 2.

    图 2  矩阵流形优化示意图
    Fig. 2  Illustration of matrix manifold optimization

    切空间$T_{{B}}\mathcal{O}^{D\times d}$:切空间对于理解任意流形的几何结构是至关重要的, 它是在某一个点对流形的线性近似.为了定义该空间, 我们首先定义流形$\mathcal{O}^{D\times d}$上的一条平滑曲线$\gamma(\cdot) : {\bf R}\rightarrow \mathcal{O}^{D\times d}$.那么切空间定义如下:

    $ \begin{align} T_{{B}} \mathcal{O}^{D\times d} = \big\{ &\gamma'(0) : \gamma(\cdot) \mbox{是流形} \mathcal{O}^{D\times d} \mbox{上的曲线, } \notag\\ &\mbox{并且满足} \gamma(0)={B} \big\} \end{align} $

    (78)

    这里的$\gamma'$表示微分$\frac{\rm d}{{\rm d}t}\gamma(t)$.简单而言, 切空间$T_{{B}}\mathcal{O}^{D\times d}$是在点${B}$处所有沿着流形方向的空间.然而上式是非常一般的表达形式, 而且非常抽象.为了方便, 下面给出Stiefel流形的简洁等价形式:

    命题2. 下面三个集合是互相等价的

    $ \begin{align} T_{{B}} \mathcal{O}^{D\times d} = \big\{ &\gamma'(0) : \gamma(\cdot) \mbox{是流形} \mathcal{O}^{D\times d} \mbox{上的曲线, } \notag\\ &\mbox{并且满足} \gamma(0)={B} \big\} \end{align} $

    (79)

    $ \begin{align} T_1 &= \big\{ {X}\in{\bf R}^{D\times d} : {B}^{\rm T}{X} + {X}^{\rm T}{B} = 0\big\} \end{align} $

    (80)

    $ \begin{align} T_2 &= \big\{ {B}{A} + ({I}-{B}{B}^{\rm T}){C} \!:\! {A} \!=\! -{A}^{\rm T}, {C}\in{\bf R}^{D\times d}\big\} \end{align} $

    (81)

    式(81)的定义是非常有用的, 因为它是构造性的, 对于优化而言是非常必须的.

    投影$\pi_{{B}} : {\bf R}^{D\times d}\rightarrow T_{{B}}\mathcal{O}^{D\times d}$因为$\mathcal{O}^{D\times d}$是嵌入在欧氏空间的${\bf R}^{D\times d}$的一个子流形, 所以自然想到使用欧氏空间的度量:标准的内积运算$\langle{P}, {N}\rangle={\rm{tr}}({P}^{\rm T}{N})$以及诱导的Frobenius范数$\|\cdot\|_{F}$.通过这种度量, Stiefel流形是欧氏空间的一个黎曼子流形(Riemannian submanifold).这可以直接使我们考虑一个可以把任意矩阵${Z}\in{\bf R}^{D\times d}$投影到切空间$T_{{B}}\mathcal{O}^{D\times d}$上的投影, 换句话说,

    $ \begin{align} &\pi({Z}) = \arg \min\limits_{{X}\in T_{{B}}\mathcal{O}^{D\times d}} \|{Z} - {X}\|_{F}=\notag \\ & {\rm arg\;min} \|{Z} - ({B}{A} + ({I}-{B}{B}^{\rm T}){C})\|_{F}= \notag\\ & {\rm arg\;min} \| ({B}{B}^{\rm T} {Z} \!-\! {B}{A}) \!+\! ({I}\!-\!{B}{B}^{\rm T})({Z}\!-\!{C})\|_{F}= \notag\\ & {\rm arg\;min} \|{B}({B}^{\rm T}{Z} \!-\! {A})\|_{F} \!+\! \|({I}\!-\!{B}{B}^{\rm T})({Z}\!-\!{C})\|_{F}=\notag\\ & {\rm arg\;min} \|({B}^{\rm T}{Z} \!-\! {A})\|_{F} \!+\! \|({I}\!-\!{B}{B}^{\rm T})({Z}\!-\!{C})\|_{F} \end{align} $

    (82)

    最后一个等式是由于Frobenious范数的酉不变性.上述的最小值可以通过设置${C}={Z}$和${A}$为${B}^{\rm T}{Z}$的斜对称部分, 即${A} = {\rm{skew}}({B}^{\rm T}{Z}) = \frac{1}{2}({B}^{\rm T}{Z}-{Z}^{\rm T}{B})$[88].所以, 投影为

    $ \begin{align} \pi_{{B}}({Z}) = {B}{\rm{skew}}({B}^{\rm T}{Z}) + ({I}-{B}{B}^{\rm T}){Z} \end{align} $

    (83)

    回缩$r_{{B}} : T_{{B}}\mathcal{O}^{D\times d} \rightarrow \mathcal{O}^{D\times d}$投影梯度方法需要沿着流形最陡梯度方向迭代步长, 也就是说${B}+\beta \pi_{{B}}(-\nabla_{{B}}f)$.任意非零步长$\beta$, 这个迭代都会离开Stiefel流形.所以, 回缩是需要把它再投影到流形上来.现在有很多不同的投影回缩方法[89], 这里我们定义一个在点${B}$处步长${Z}$回缩到流形的方法:

    $ \begin{align} r_{{B}}({Z}) = \arg \min\limits_{{N}\mathcal{O}^{D\times d}} \|{N} - ({B}+{Z})\|_{F} \end{align} $

    (84)

    即在流形上离迭代${B}+{Z}$最近的点.由于是酉不变范数, 一个经典的结果就是$r_{{B}}({Z}) = {UV}^{\rm T}$, 其中$({B}+{Z}) = {USV}^{\rm T}$是奇异特征值分解[88].或者等价的$r_{{B}}({Z})={W}$, 其中$({B}+{Z})={WP}$是极分解(Polar decomposition).更方便地, 当${Z}\in T_{{B}}\mathcal{O}^{D\times d}$, 那么回缩是有闭式解的$r_{{B}}({Z}) = ({B}+{Z})({I}+{Z}^{\rm T}{Z})^{-1/2}$[89].

    算法1.在Stiefel流形上的梯度下降(包含线性查找和回缩)

    1:初始化${B}$

    2: while $f({B})$未收敛do

    3:  计算$\nabla_{{B}}f\in{\bf R}^{D\times d}$

    4:  计算$\pi_{{B}}(-\nabla_{{B}}f)\in T_{{B}}\mathcal{O}^{D\times d}$

    5:  while $f(r_{{B}}(\beta \pi_{{B}}(-\nabla_{{B}}f)))$没有充分小于$f({B})$ do

    6:   调整步长$\beta$

    7:  end while

    8:  ${B}\leftarrow r_{{B}}(\beta \pi_{{B}}(-\nabla_{{B}}f))$

    9: end while

    10: return $f$的(局部)最小值${B}^*$

    介绍完矩阵流形优化里面的三个重要概念后, 就可以利用传统的非凸优化方法进行优化.

    算法1给出通过线性查找的进行梯度下降优化的伪代码.

    因此, 只需要知道非凸目标函数在欧氏空间的梯度, 即可通过算法1进行优化求解.基于矩阵流形优化的实值多变量维数约简算法及其欧氏空间梯度见表 4.注意表 4中的优化目标函数均已转化成求最小值.其中, ${L} = {D}-{W}$, ${D}$为对角矩阵, 对角线元素为${W}$每行元素和; LSDR方法虽然没有解析形式的, 但是其梯度可逐元素计算: $[\nabla_{{B}} f]_{ij}= \widehat{{\pmb \alpha}}^{\rm T}\frac{\partial \widehat{{H}}}{\partial {B}_{ij}}(\frac{3}{2}\widehat{{\pmb \alpha}}-\widehat{{\pmb \beta}})-\frac{\partial \widehat{{\pmb h}}^{\rm T}}{\partial {B}_{ij}}(2\widehat{{\pmb \alpha}}-\widehat{{\pmb \beta}})+\lambda \widehat{{\pmb \alpha}}^{\rm T}\frac{\partial {R}}{{B}_{ij}}(\widehat{{\pmb \alpha}}-\widehat{{\pmb \beta}}), \widehat{{\pmb \beta}}=(\widehat{{H}}+\lambda{R})^{-1}\widehat{{H}}\widehat{{\pmb \alpha}}$; MIDR在计算权值矩阵${W}$时的除法为矩阵除法, 即逐元素相除, 实际计算中对角线元素强行置为零.此外, 符号$\odot$表示矩阵Hadamard乘积.

    表 4  通过矩阵流形优化的降维算法的总结
    Table 4  Summary of matrix manifold optimization-based dimension reduction algorithms
    算法 目标函数$f({B})$ 欧式空间梯度$\nabla_{{B}} f$ 对应的权值矩阵${W}$
    KDR[33] $\frac{2}{\sigma^2}{X}{L}_{{\rm{KDR}}}{X}^{\rm T}{B}$
    LSDR[35] 不存在解析形式梯度 无拉普拉斯形式
    MIDR[36] $-\frac{4}{n(n-1)} {X}{L}_{{\rm{MIDR}}}{X}^{\rm T}{B}$
    HSIC[37] $\frac{2}{\sigma^2(n-1)^2}{X}{L}_{{\rm{HSIC}}}{X}^{\rm T}{B}$ ${W}_{{\rm{HSIC}}} = {H}{K}_Y{H}\odot{K}_U$
    DCOV[38] $-\frac{1}{n^2}{\rm{tr}}\big[{\overline{D}}_U{\overline{D}}_Y\big]$ $-\frac{2}{n^2}{X}{L}_{{\rm{DCOV}}}{X}^{\rm T}{B}$ ${W}_{{\rm{DCOV}}} = \frac{{H}{D}_Y{H}}{{D}_U}$
    下载: 导出CSV 
    | 显示表格

    前面我们在讨论中心子空间的时候, 都是假设子空间维度$d$已知.然而, 实际情况下, 我们无法知道其真实的子空间维度.文献[23, 25]提出基于卡方统计量的序列检验.文献[90]提出了使用排列检验来估计子空间的维度.使用自助法来估计子空间维度被广泛使用[38, 54, 91].因此, 本节主要介绍使用自助法进行子空间维度估计.

    首先, 我们介绍一个距离度量[55]:

    $ \begin{align} \Delta(\mathcal{S}_1, \mathcal{S}_2) = \|{P}_{\mathcal{S}_1} - {P}_{\mathcal{S}_2}\|_2 \end{align} $

    (85)

    这里的, $\mathcal{S}_1$和$\mathcal{S}_2$表示$D$维空间的两个$d$维子空间, $P_{\mathcal{S}_1}$和$P_{\mathcal{S}_2}$为到这两个子空间的正交投影, 这里的$\|\cdot\|_2$为矩阵2-范数, 即矩阵的最大特征值.因此$\Delta$越小, 两个子空间越近.

    自助法的基本想法如下:对所有可能的维度$1\leq k \leq D-1$, 我们可以获得一个估计的子空间$\widehat{\mathcal{S}}_k$, 然后我们可放回的采样和原数据等大小的数据$T$次, 我们通过自助样本, 我们可以得到$T$个估计的子空间$\widehat{\mathcal{S}}_k^t, t=1, \cdots, T$.因此, 对于每一个$k$, 我们可以计算出$\widehat{\mathcal{S}}_k$和$\widehat{\mathcal{S}}_k^t$, 记为$\Delta(\widehat{\mathcal{S}}_k, \widehat{\mathcal{S}}_k^t)$, $t=1, \cdots, T$.最后我们使用$\Delta(\widehat{\mathcal{S}}_k, \widehat{\mathcal{S}}_k^t)$, $t=1, \cdots, T$的均值来表示每一个$k$的变异性的度量, 那么最小变异度对应的$k$就是我们需要估计的$d$.

    下面分类讨论一下该方法的合理性:

    1) 当$k<d$时, 那么我们估计的$k$维子空间是中心子空间的子空间.理论上来说, 该中心子空间的$k$维子空间可以是任意的.因此在自助法的情况下, 变异度会增加.

    2) 当$k=d$时, 中心子空间总是可以被估计出来.

    3) 当$k>d$时, 有$k-d$个方向是会和中心子空间垂直, 而且是随机得到.因此, 变异度会显著增加.

    本文探讨的实值多变量维数约简算法适用于一般意义上的回归问题中的维数约简, 涵盖一维和多维响应变量的情况.为了便于读者了解文本核心内容所针对的研究方向, 本节将介绍行人计数[10]、人体姿态估计[8]和空间划分树[15]这三个经典应用.

    1) 行人计数, 是指通过计算机技术对视频中正在行走的行人进行数量的估计.在当今社会对行人计数的需要越来越突出, 尤其在公共安全和智能交通等领域中, 行人计数扮演着重要的角色, 如卖场的人流管理、地铁人流引导、火车站人流管控、集会临时通行口设置等[92-94].随着众多学者的深入研究, 越来越多的学者对行人计数问题提出了有效的行人数量、密度特征来对行人进行预估, 例如, 文献[9-10]中应用的行人特征达$129$维.因此, 通过维数约简算法对数据预处理、消除冗余、挖掘特征间的相关性就显得很有必要. Zhang等使用核维数约简算法进行行人特征提取, 与未降维特征和主成分分析降维后特征相比, 核维数约简算法可以实现更好的特征提取[10].此应用中的响应变量为一维的情况, 即每张图像中的行人数量.

    2) 人体姿态估计, 是指通过人体的轮廓图来估计人体三维空间的姿态. Kim等在实验中, 使用一个$160\times100$的轮廓图, 来对人体$59$个三维关节角的进行预测[8, 11].应用中的自变量$X$为$16000$维, 而响应变量为$177$维的向量, 即本文所介绍的多元响应变量的情况. Kim等使用提出的协方差算子逆回归算法对输入空间进行降维, 并进行可视化和模型预测.可视化结果表明, 协方差算子逆回归算法可以有效挖掘人体姿态的内在规律.预测结果表明, 协方差算子逆回归算法可以提高预测精度.

    3) 空间划分树是指迭代使用切平面对数据空间进行划分, 在向量量化和最近邻查找过程中起重要的作用[15, 95].其中, 切平面的表达学习对空间划分树的构建起到决定性的作用. Shan等通过使用无监督的核维数约简算法来学习数据空间的一维投影方向[15], 即切平面.较之前的空间划分树算法, Shan等提出的空间划分树在向量量化和最近邻查找中实现更好的性能, 并且具有发现数据内在维度的潜力.在该应用中, 虽然是无监督的设置, 实质上是把自变量$X$的拷贝视为响应变量$Y$[37], 即为响应变量为多元的情况.

    本文对实值多变量维数约简维数约简算法作了综述, 并介绍了实值多变量维数约简发展历史.按照不同的研究技术, 把现有算法划分成基于前两阶矩、模型、互信息、相依准则、回归梯度和非线性的实值多变量维数约简, 并分析其代表算法的优缺点.其次, 通过求解手段的不同, 算法可以划分成基于特征值求解和矩阵流形优化求解.

    从第1节介绍的关于实值多变量维数约简的研究现状看, 存在以下值得进一步研究的问题和潜在的方向:

    1) 实值多变量维数约简方法侧重于考虑响应变量集与自变量集之间的条件独立性等统计特性, 而较少考虑数据集中的拓扑结构保持.多数研究工作集中考虑了获得的统计子空间是否仍属于中央子空间的问题, 如中央均值子空间、二阶方差子空间等.这些工作强调了不同统计性质的线性组合不会改变其属于中央子空间的性质.但这些统计性质不能有效地反映数据集中的拓扑结构.从近年来的研究趋势来看, 对数据的分析不仅要求预测性能好, 也需要有好的可解释性.因此, 在低维约简时保持好相应的拓扑结构就十分重要了.

    2) 实值多变量维数约简方法多数假定数据集具有线性和对称分布, 如椭圆分布.当数据是由低维流形嵌套在高维空间的表达时, 这类方法可能在约简过程中, 不能正确的恢复低维流形, 因而导致预测性能降低.在生物认证中的某些数据集, 如姿态等, 在降维时可能呈现光滑的沿流形的变化, 如果在降维时失去低维流形的正确或近似表达, 则会降低对姿态的预测.尽管在文献[45]中涉及了流形学习与实值多变量维数约简的融合, 但其处理方法(先利用拉普拉斯降维, 再采用核维数约简做进一步降维)未能很好的同时保持这两者共有的优势.

    3) 实值多变量维数约简通常假定了数据与时间序列无关, 而时序数据集的特点是数据之间具有时间的依赖性, 或上下文关系.如智能交通领域中对行人的计数, 在进入采集区域的人群数量显然具有时间序列的关联性; 在生物认证中, 步态序列里帧与帧之间也具有时间的依赖性.如果忽视这层关系, 则在降维过程中会导致预测响应变量时产生错误的时序表达, 从而影响对数据分析的全局判断.因此, 时序数据的实值多变量维数约简方法研究有待于研究.

    4) 实值多变量维数约简主要考虑了单组自变量集和响应变量集之间的关系, 并试图构造按条件独立性来简化高维自变量集和响应变量集的结构.当待分析的数据呈现为复杂关系时, 如常见的贝叶斯网络结构时, 现有的实值多变量维数约简方法则不能很好地获取相应的结构.而研究这类复杂网络关系或概率图模型在机器学习领域是比较重要的一个分支, 包括对其的建模、推断和学习.

    5) 面对大数据时代的到来, 更对维数约简提出了很大的挑战, 同样也显示出降维的必要性.然而, 如何将实值多变量维数约简应用到规模庞大的数据中并且可以对数据进行高效的处理就成为一大难题.核矩阵在大数据中就会变得异常大, 因此基于核函数的那些方法就更显得束手无策.但是大数据或许会有些统计特性来放松对线性条件的约束.

    6) 虽然文献[43-44]中提出了对充分维数约简的稀疏化学习, 但是局限于特征值分解的情况.因此, 有必要对基于矩阵流形优化的实值多变量维数约简方法进行稀疏化学习, 并且可以考虑为实值多变量维数约简建立统一的稀疏化学习框架, 这样更有利于加强实值多变量维数约简的应用前景.


  • 本文责任编委 朱军
  • 图  1  实值多变量维数约简算法分类

    Fig.  1  Taxonomy of real-valued multivariate dimension reduction algorithms

    图  2  矩阵流形优化示意图

    Fig.  2  Illustration of matrix manifold optimization

    表  1  基于互信息的降维算法对比

    Table  1  Comparison of mutual information-based dimension reduction algorithms

    目标函数 条件独立性 代表方法 解释
    $\min_{{B}} {\rm E}_U \left[\mathbb{I}({Y|U};{V|U}) \right]$ ${Y}╨{V}|{U}$ KDR[32-33] 去掉$X$中与$Y$独立的一些特征, 也就是说这些特征对$Y$的预测不提供任何信息
    $\max_{{B}} \mathbb{I}({Y};{U})$ ${Y}╨{X}|{U}$ LSDR[34-35]、MIDR[36] 从与$Y$相关的因素中寻找一个小的子空间或者子集, 不属于该子空间或者子集的特征, 虽然对$Y$的预测作出贡献, 但是在给定子空间或者子集后, 这部分信息不足以增加或改进对$Y$的预测能力
    下载: 导出CSV

    表  2  实值多变量维数约简算法总结

    Table  2  Summary of real-valued multivariate dimension reduction algorithms

    算法 响应变量 求解类型 分布假设 统计矩 模型选取 回归方式 #参数 参数列表
    SIR[23] 一元 解析解 椭圆对称 一阶 逆回归 1 切片数$h$
    SAVE[26] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    SIRII[49] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    pHd[25] 一元 解析解 正态分布 二阶 - 正回归 0 -
    DR[27] 一元 解析解 渐进正态 二阶 逆回归 1 $h$
    PFC[28] 一元 解析解 模型假设 模型相关 逆回归 1 次数$r$
    KDR[33] 多元 非凸优化 无穷 正回归 3 带宽$\sigma_x, \sigma_y$, $\epsilon$
    LSDR[35] 多元 非凸优化 无穷 交叉验证 正回归 4 $\sigma_x, \sigma_y$, $\lambda$, $b$
    MIDR[36] 多元 非凸优化 无穷 - 正回归 0 -
    HSIC[37] 多元 非凸优化 无穷 正回归 2 $\sigma_x, \sigma_y$
    DCOV[38] 多元 非凸优化 二阶 - 正回归 0 -
    gKDR[40] 多元 解析解 无穷 正回归 3 $\sigma_x, \sigma_y, \epsilon$
    LSGDR[41] 多元 解析解 无穷 交叉验证 正回归 $2D+1$ $\{\sigma_x^{(j)}, \lambda^{(j)}\}_{j=1}^D, \sigma_y$
    KSIR[42] 一元 解析解 无穷 逆回归 2 $\sigma_x$, $h$
    COIR[8] 多元 解析解 无穷 逆回归 3 $\sigma_x, \sigma_y, \epsilon$
    下载: 导出CSV

    表  3  基于广义特征值求解的实值多变量维约简算法估计量

    Table  3  Estimation of generalized eigen-decomposition-based multivariate dimension reduction algorithms

    方法 (样本)估计量${M}$
    SIR[23] ${\rm E}\Big[{\rm E}(Z|Y){\rm E}(Z|Y)^{\rm T}\Big] $
    SAVE[26] ${\rm E}\Big[{I}-{\rm var}(Z|Y)\Big]^2$
    SIRII[49] ${\rm E}\Big[{\rm var}(Z|Y)-{\rm E}({\rm var}(Z|Y))\Big]^2$
    pHd[25] ${\rm E}\Big[(Y-E Y)ZZ^{\rm T}\Big]^2$
    DR[27] $2{\rm E}\Big[E^2(ZZ^{\rm T}|Y)\Big]+ 2E^2\Big[{\rm E}(Z|Y){\rm E}(Z^{\rm T}|Y)\Big]+$
    $ 2{\rm E}\Big[{\rm E}(Z^{\rm T}|Y){\rm E}(Z|Y)\Big]{\rm E}\Big[{\rm E}(Z|Y) {\rm E}(Z^{\rm T}|Y)\Big]\!-\!2{I}$
    PFC[28] $\frac{1}{n}\widehat{{X}}^{\rm T}\widehat{{X}}$
    gKDR[40] $ \big\langle \frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}, \Sigma_{XX}^{-1}\Sigma_{XY}\Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\big\rangle_{\mathcal{H}_x}$
    LSGDR[41] $ {\rm E}({{\pmb g}}(y, {\pmb x}){{\pmb g}}(y, {\pmb x})^{\rm T})$
    KSIR[42] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    COIR[8] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    下载: 导出CSV

    表  4  通过矩阵流形优化的降维算法的总结

    Table  4  Summary of matrix manifold optimization-based dimension reduction algorithms

    算法 目标函数$f({B})$ 欧式空间梯度$\nabla_{{B}} f$ 对应的权值矩阵${W}$
    KDR[33] ${\rm{tr}}[{\overline{K}}_Y({\overline{K}}_U+n\epsilon {I}_n)^{-1}]$ $\frac{2}{\sigma^2}{X}{L}_{{\rm{KDR}}}{X}^{\rm T}{B}$ $\begin{array}{rl} {W}_{hrm{KDR}} &\!\!\!\!\!\!\!={H}{\Omega}{H}\odot{K}_U\\ {\Omega} &\!\!\!\!\!\!\!= {M}^{-1}{H}{K}_Y{H}{M}^{-1} \\ {M} &\!\!\!\!\!\!\!= {H}{K}_U{H}+n \epsilon {I} \end{array}$
    LSDR[35] $\frac{1}{2}{\hat{\pmb{\alpha}}}^{\rm T}{\widehat{H}}{\hat{\pmb{\alpha}}}- \widehat{\pmb{h}}^{\rm T}\widehat{\pmb{\alpha}}$ 不存在解析形式梯度 无拉普拉斯形式
    MIDR[36] $\begin{array}{ll}&\frac{d+1}{n(n-1)}\sum_{i\neq j}\log(\left\| {({\pmb x}_i- {\pmb x}_j){B}} \right\|^2+\left\| {y_i-y_j} \right\|^2)-\\ &\frac{d}{n(n-1)}\sum_{i\neq j}\log\left\| {({\pmb x}_i-{\pmb x}_j){B}} \right\| ^2\end{array}$ $-\frac{4}{n(n-1)} {X}{L}_{{\rm{MIDR}}}{X}^{\rm T}{B}$ $\begin{array}{rl}&{W}_{hrm{MIDR}}=\frac{d}{{D}_X\!\odot\!{D}_X}- \\ &\frac{d+1}{({D}_X\!\odot\!{D}_X\!+\!{D}_Y\!\odot\!{D}_Y)}\end{array}$
    HSIC[37] $-\frac{1}{(n-1)^2}\textrm{tr}\big[{K}_U{H}{K}_Y {H}\big]$ $\frac{2}{\sigma^2(n-1)^2}{X}{L}_{{\rm{HSIC}}}{X}^{\rm T}{B}$ ${W}_{{\rm{HSIC}}} = {H}{K}_Y{H}\odot{K}_U$
    DCOV[38] $-\frac{1}{n^2}{\rm{tr}}\big[{\overline{D}}_U{\overline{D}}_Y\big]$ $-\frac{2}{n^2}{X}{L}_{{\rm{DCOV}}}{X}^{\rm T}{B}$ ${W}_{{\rm{DCOV}}} = \frac{{H}{D}_Y{H}}{{D}_U}$
    下载: 导出CSV
  • [1] Jolliffe I. Principal Component Analysis. New York:Wiley Online Library, 2002.
    [2] Hotelling H. Analysis of a complex of statistical variables into principal components. Journal of Educational Psychology, 1993, 24 (6):417-441 http://www.docin.com/p-238815088.html
    [3] Roweis S T, Saul L K. Nonlinear dimensionality reduction by locally linear embedding. Science, 2000, 290 (5500):2323-2326 doi: 10.1126/science.290.5500.2323
    [4] Tenenbaum J B, Silva V D, Langford J C. A global geometric framework for nonlinear dimensionality reduction. Science, 2000, 290 (5500):2319-2323 doi: 10.1126/science.290.5500.2319
    [5] Fisher R A. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 1936, 7 (2):179-188 https://www.bibsonomy.org/bibtex/2c9d8d78a8e1bb5adecc7602490f4323f/gromgull
    [6] Mika S, Ratsch G, Weston J, Schölkopft B, Mullert K R. Fisher discriminant analysis with kernels. In: Proceeding of the 1999 IEEE Signal Processing Society on Neural Networks for Signal Processing Ⅸ. Madison, WI, USA, USA: IEEE, 1999. 41-48 http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=788121
    [7] Kulis B. Metric learning:a survey. Foundations and Trends in Machine Learning, 2012, 5 (4):287-364 https://www.cs.cmu.edu/~liuy/frame_survey_v2.pdf
    [8] Kim M, Pavlovic V. Central subspace dimensionality reduction using covariance operators. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33 (4):657-670 doi: 10.1109/TPAMI.2010.111
    [9] Tan B, Zhang J P, Wang L. Semi-supervised elastic net for pedestrian counting. Pattern Recognition, 2011, 44 (10-11):2297-2304 doi: 10.1016/j.patcog.2010.10.002
    [10] Zhang J P, Tan B, Sha F, He L. Predicting pedestrian counts in crowded scenes with rich and high-dimensional features. IEEE Transactions on Intelligent Transportation Systems, 2011, 12 (4):1037-1046 https://www.researchgate.net/profile/Junping_Zhang/publication/220109419_Predicting_Pedestrian_Counts_in_Crowded_Scenes_With_Rich_and_High-Dimensional_Features/links/0deec53b629366a5b6000000.pdf?inViewer=true&pdfJsDownload=true&disableCoverPage=true&origin=publication_detail
    [11] Kim M Y, Pavlovic V. Dimensionality reduction using covariance operator inverse regression. In: Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, AK, USA: IEEE, 2008. 1-8 http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4587404
    [12] Zhang J P, Wang F Y, Wang K F, Lin W H, Xu X, Chen C. Data-driven intelligent transportation systems:a survey. IEEE Transactions on Intelligent Transportation Systems, 2011, 12 (4):1037-1046 doi: 10.1109/TITS.2011.2132759
    [13] Zhu H J, Li L X. Biological pathway selection through nonlinear dimension reduction. Biostatistics, 2011, 12 (3):429-444 doi: 10.1093/biostatistics/kxq081
    [14] Zhu H J, Li L X, Zhou H. Nonlinear dimension reduction with Wright-Fisher kernel for genotype aggregation and association mapping. Bioinformatics, 2012, 28 (18):i375-i381 doi: 10.1093/bioinformatics/bts406
    [15] Shan H M, Zhang J P, Kruger U. Learning linear representation of space partitioning trees based on unsupervised kernel dimension reduction. IEEE Transactions on Cybernetics, 2016, 46 (12):3427-3438 doi: 10.1109/TCYB.2015.2507362
    [16] Bishop C M. Pattern Recognition and Machine Learning. New York:Springer, 2006.
    [17] Caruana R. Multitask learning. Machine Learning, 1997, 28 (1):41-75 doi: 10.1023/A:1007379606734
    [18] Tsoumakas G, Katakis I. Multi-label classification:an overview. International Journal of Data Warehousing and Mining, 2007, 3 (3):1-13 doi: 10.4018/IJDWM
    [19] Tipping M E. Sparse Bayesian learning and the relevance vector machine. Journal of Machine Learning Research, 2001, 1:211-244 https://dl.acm.org/citation.cfm?id=944741
    [20] 王卫卫, 李小平, 冯象初, 王斯琪.稀疏子空间聚类综述.自动化学报, 2015, 41 (8):1373-1384 http://www.aas.net.cn/CN/abstract/abstract18712.shtml

    Wang Wei-Wei, Li Xiao-Ping, Feng Xiang-Chu, Wang Si-Qi. A survey on sparse subspace clustering. Acta Automatica Sinica, 2015, 41 (8):1373-1384 http://www.aas.net.cn/CN/abstract/abstract18712.shtml
    [21] Koller D, Friedman N. Probabilistic Graphical Models:Principles and Techniques. Massachusetts:MIT Press, 2009.
    [22] 刘建伟, 黎海恩, 罗雄麟.概率图模型学习技术研究进展.自动化学报, 2014, 40 (6):1025-1044 http://www.aas.net.cn/CN/abstract/abstract18373.shtml

    Liu Jian-Wei, Li Hai-En, Luo Xiong-Lin. Learning technique of probabilistic graphical models:a review. Acta Automatica Sinica, 2014, 40 (6):1025-1044 http://www.aas.net.cn/CN/abstract/abstract18373.shtml
    [23] Li K C. Sliced inverse regression for dimension reduction. Journal of the American Statistical Association, 1991, 86 (414):316-327 doi: 10.1080/01621459.1991.10475035
    [24] Chiaromonte F, Cook R D. Sufficient dimension reduction and graphics in regression. Annals of the Institute of Statistical Mathematics, 2002, 54 (4):768-795 doi: 10.1023/A:1022411301790
    [25] Li K C. On principal Hessian directions for data visualization and dimension reduction:another application of Stein's lemma. Journal of the American Statistical Association, 1992, 87 (420):1025-1039 doi: 10.1080/01621459.1992.10476258
    [26] Cook R D, Weisberg S. Sliced inverse regression for dimension reduction:comment. Journal of the American Statistical Association, 1991, 86 (414):328-332 http://citeseerx.ist.psu.edu/showciting?cid=2673643
    [27] Li B, Wang S L. On directional regression for dimension reduction. Journal of the American Statistical Association, 2007, 102 (479):997-1008 doi: 10.1198/016214507000000536
    [28] Cook R D. Fisher lecture:dimension reduction in regression. Statistical Science, 2007, 22 (1):1-26 doi: 10.1214/088342306000000682
    [29] Cook R D, Forzani L. Principal fitted components for dimension reduction in regression. Statistical Science, 2008, 23 (4):485-501 doi: 10.1214/08-STS275
    [30] Cook R D, Forzani L. Likelihood-based sufficient dimension reduction. Journal of the American Statistical Association, 2009, 104 (485):197-208 doi: 10.1198/jasa.2009.0106
    [31] Bach F R, Jordan M I. Kernel independent component analysis. Journal of Machine Learning Research, 2002, 3:1-48
    [32] Fukumizu K, Bach F R, Jordan M I. Dimensionality reduction for supervised learning with reproducing kernel Hilbert spaces. Journal of Machine Learning Research, 2004, 5:73-99 http://www.ams.org/mathscinet-getitem?mr=2247974
    [33] Fukumizu K, Bach F R, Jordan M I. Kernel dimension reduction in regression. The Annals of Statistics, 2009, 37 (4):1871-1905 doi: 10.1214/08-AOS637
    [34] Suzuki T, Sugiyama M. Sufficient dimension reduction via squared-loss mutual information estimation. In Proceedings of International Conference on Artificial Intelligence and Statistics, Chia Laguna Resort, Sardinia, Italy, 2010, 9:804-811 https://www.researchgate.net/profile/Masashi_Sugiyama/publication/220320963_Sufficient_Dimension_Reduction_via_Squared-loss_Mutual_Information_Estimation/links/0fcfd51196d6b08046000000.pdf?origin=publication_detail
    [35] Suzuki T, Sugiyama M. Sufficient dimension reduction via squared-loss mutual information estimation. Neural Computation, 2013, 25 (3):725-758 doi: 10.1162/NECO_a_00407
    [36] Faivishevsky L, Goldberger J. Dimensionality reduction based on non-parametric mutual information. Neurocomputing, 2012, 80:31-37 doi: 10.1016/j.neucom.2011.07.028
    [37] Wang M H, Sha F, Jordan M I. Unsupervised kernel dimension reduction. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada, 2010. 2379-2387
    [38] Sheng W H, Yin X R. Sufficient dimension reduction via distance covariance. Journal of Computational and Graphical Statistics, 2016, 25 (1):91-104 doi: 10.1080/10618600.2015.1026601
    [39] Fukumizu K, Leng C L. Gradient-based kernel method for feature extraction and variable selection. In: Proceedings of the Advances in Neural Information Processing Systems. Lake Tahoe, Nevada, 2012. 2114-2122 https://www.researchgate.net/publication/287550602_Gradient-based_kernel_method_for_feature_extraction_and_variable_selection
    [40] Fukumizu K, Leng C L. Gradient-based kernel dimension reduction for regression. Journal of the American Statistical Association, 2014, 109 (505):359-370 doi: 10.1080/01621459.2013.838167
    [41] Sasaki H, Tangkaratt V, Sugiyama M. Sufficient dimension reduction via direct estimation of the gradients of logarithmic conditional densities. In: Proceedings of the 7th Asian Conference on Machine Learning. Hong Kong, China: PMLR, 2015. 33-48 http://europepmc.org/abstract/MED/29162006
    [42] Wu H M. Kernel sliced inverse regression with applications to classification. Journal of Computational and Graphical Statistics, 2012, 17 (3):590-610 doi: 10.1198/106186008X345161
    [43] Li L X. Sparse sufficient dimension reduction. Biometrika, 2007, 94 (3):603-613 doi: 10.1093/biomet/asm044
    [44] Chen X, Zou C L, Cook R D. Coordinate-independent sparse sufficient dimension reduction and variable selection. The Annals of Statistics, 2010, 38 (6):3696-723 doi: 10.1214/10-AOS826
    [45] Nilsson J, Sha F, Jordan M I. Regression on manifolds using kernel dimension reduction. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 697-704 http://dl.acm.org/citation.cfm?id=1273584
    [46] Shyr A, Urtasun R, Jordan M I. Sufficient dimension reduction for visual sequence classification. In: Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, California, USA: IEEE, 2010. 3610-3617 http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=5539922
    [47] Cook R D. On the interpretation of regression plots. Journal of the American Statistical Association, 1994, 89 (425):177-189 doi: 10.1080/01621459.1994.10476459
    [48] Cook R D. Using dimension-reduction subspaces to identify important inputs in models of physical systems. In: Proceedings of the Section on Physical and Engineering Sciences. 1994. 18-25 https://www.researchgate.net/publication/313634045_Using_dimension-reduction_subspaces_to_identify_important_inputs_in_models_of_physical_systems
    [49] Li K C. Sliced inverse regression for dimension reduction:rejoinde. Journal of the American Statistical Association, 1991, 86 (414):337-342
    [50] Harrison D, Rubinfeld D L. Hedonic housing prices and the demand for clean air. Journal of Environmental Economics and Management, 1978, 5 (1):81-102 https://ideas.repec.org/r/eee/jeeman/v5y1978i1p81-102.html
    [51] Stein C M. Estimation of the mean of a multivariate normal distribution. The Annals of Statistics, 1981, 9 (6):1135-1151 doi: 10.1214/aos/1176345632
    [52] Li K C, Lue H H, Chen C H. Interactive tree-structured regression via principal Hessian directions. Journal of the American Statistical Association, 2000, 95 (450):547-560 doi: 10.1080/01621459.2000.10474231
    [53] Gannoun A, Saracco J. An asymptotic theory for SIR α method. Statistica Sinica, 2003, 13:297-310 https://www.researchgate.net/publication/265359288_An_asymptotic_theory_for_SIR_a_method
    [54] Ye Z S, Weiss R E. Using the bootstrap to select one of a new class of dimension reduction methods. Journal of the American Statistical Association, 2003, 98 (464):968-979 doi: 10.1198/016214503000000927
    [55] Li B, Zha H Y, Chiaromonte F. Contour regression:a general approach to dimension reduction. The Annals of Statistics, 2005, 33 (4):1580-1616 doi: 10.1214/009053605000000192
    [56] Tipping M E, Bishop C M. Probabilistic principal component analysis. Journal of the Royal Statistical Society:Series B (Statistical Methodology), 1999, 61 (3):611-622 doi: 10.1111/rssb.1999.61.issue-3
    [57] Cook R D, Forzani L M, Tomassi D R. LDR:a package for likelihood-based sufficient dimension reduction. Journal of Statistical Software, 2011, 39 (3):1-20 https://www.researchgate.net/profile/Kofi_Adragni/publication/279335077_ldr_An_R_Software_Package_for_Likelihood-Based_Sufficient_Dimension_Reduction/links/578c764208ae59aa667c5320/ldr-An-R-Software-Package-for-Likelihood-Based-Sufficient-Dimension-Reduction.pdf
    [58] Baker C R. Joint measures and cross-covariance operators. Transactions of the American Mathematical Society, 1973, 186:273-289 doi: 10.1090/S0002-9947-1973-0336795-3
    [59] Absil P A, Mahony R, Sepulchre R. Optimization Algorithms on Matrix Manifolds. Princeton:Princeton University Press, 2009.
    [60] Zhang K, Tsang I W, Kwok J T. Improved Nystr öm low-rank approximation and error analysis. In: Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland: ACM, 2008. 1232-1239 http://dl.acm.org/citation.cfm?id=1390311
    [61] Sugiyama M, Suzuki T, Kanamori T. Density Ratio Estimation in Machine Learning. Cambridge:Cambridge University Press, 2012.
    [62] Nguyen X, Wainwright M J, Jordan M I. Estimating divergence functionals and the likelihood ratio by penalized convex risk minimization. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada: ACM, 2008. 1089-1096
    [63] Yamada M, Niu G, Takagi G, Sugiyama M. Computationally efficient sufficient dimension reduction via squared-loss mutual information. In: Proceedings of the 3rd Asian Conference on Machine Learning. Canberra, Australia: ACML, 2011. 247-262 https://www.researchgate.net/publication/215705073_Computationally_Efficient_Sufficient_Dimension_Reduction_via_Squared-Loss_Mutual_Information?ev=auth_pub
    [64] Faivishevsky L, Goldberger J. ICA based on a smooth estimation of the differential entropy. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, British Columbia, Canada: ACM, 2009. 433-440 https://www.researchgate.net/publication/221618225_ICA_based_on_a_Smooth_Estimation_of_the_Differential_Entropy
    [65] Faivishevsky L, Goldberger J. Nonparametric information theoretic clustering algorithm. In: Proceedings of the 27th International Conference on Machine Learning. Haifa, Israel: ICML, 2010. 351-358
    [66] Loftsgaarden D O, Quesenberry C P. A nonparametric estimate of a multivariate density function. The Annals of Mathematical Statistics, 1965, 36 (3):1049-1051 doi: 10.1214/aoms/1177700079
    [67] Gretton A, Smola A J, Bousquet O, Herbrich R, Belitski A, Augath M, Murayama Y, Pauls J, Sch ölkopf B, Logothetis N K. Kernel constrained covariance for dependence measurement. In: Proceedings of the 10th International Workshop on Artificial Intelligence and Statistics. Barbados, 2005. 1-8 https://www.researchgate.net/publication/41781419_Kernel_Constrained_Covariance_for_Dependence_Measurement
    [68] Gretton A, Bousquet O, Smola A, Sch ölkopf B. Measuring statistical dependence with Hilbert-Schmidt norms. In: Proceedings of the 16th International Conference on Algorithmic Learning Theory. Berlin, Heidelberg: Springer-Verlag, 2005. 63-77 doi: 10.1007/11564089_7
    [69] Sz ékely G J, Rizzo M L, Bakirov N K. Measuring and testing dependence by correlation of distances. The Annals of Statistics, 2007, 35 (6):2769-2794 doi: 10.1214/009053607000000505
    [70] Zhang Y, Zhou Z H. Multi-label dimensionality reduction via dependence maximization. ACM Transactions on Knowledge Discovery from Data, 2010, 4 (3):Article No.14 https://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/tkdd10mddm.pdf
    [71] Song L, Smola A, Gretton A, Borgwardt K M. A dependence maximization view of clustering. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 815-822 http://dl.acm.org/citation.cfm?id=1273599
    [72] Blaschko M, Gretton A. Learning taxonomies by dependence maximization. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, B. C., Canada, 2009. 153-160 https://www.researchgate.net/publication/41782196_Learning_Taxonomies_by_Dependence_Maximization
    [73] Song L, Smola A, Gretton A, Bedo J, Borgwardt K. Feature selection via dependence maximization. The Journal of Machine Learning Research, 2012, 13 (1):1393-1434 https://dl.acm.org/citation.cfm?id=2343691
    [74] Quadrianto N, Song L, Smola A J. Kernelized sorting. In: Proceedings of the Advances in neural information processing systems. Vancouver, B. C., Canada, 2009. 1289-1296
    [75] Quadrianto N, Smola A J, Song L, Tuytelaars T. Kernelized sorting. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32 (10):1809-1821 doi: 10.1109/TPAMI.2009.184
    [76] Sun X H, Janzing D, Sch ölkopf B, Fukumizu K. A kernel-based causal learning algorithm. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 855-862
    [77] Li R Z, Zhong W, Zhu L P. Feature screening via distance correlation learning. Journal of the American Statistical Association, 2012, 107 (499):1129-1139 doi: 10.1080/01621459.2012.695654
    [78] Vepakomma P, Tonde C, Elgammal A. Supervised dimensionality reduction via distance correlation maximization. arXiv: 1601. 00236, 2016. http://arxiv.org/abs/1601.00236
    [79] Sz ékely G J, Rizzo M L. Brownian distance covariance. The Annals of Applied Statistics, 2009, 3 (4):1236-1265 doi: 10.1214/09-AOAS312
    [80] Sejdinovic D, Sriperumbudur B, Gretton A, Fukumizu K. Equivalence of distance-based and RKHS-based statistics in hypothesis testing. The Annals of Statistics, 2013, 41 (5):2263-2291 doi: 10.1214/13-AOS1140
    [81] Fukumizu K, Gretton A, Sun X H, Sch ölkopf B. Kernel measures of conditional dependence. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, British Columbia, Canada: Curran Associates Inc., 2007. 489-496
    [82] P óczos B, Ghahramani Z, Schneider J G. Copula-based kernel dependencymeasures. In: Proceedings of the 29th International Conference on Machine Learning. Edinburgh, Scotland: ICML, 2012. 1635-1642 http://www.oalib.com/paper/4033144
    [83] Schweizer B, Wolff E F. On nonparametric measures of dependence for random variables. The Annals of Statistics, 1981, 9 (4):879-885 doi: 10.1214/aos/1176345528
    [84] Steinwart I, Christmann A. Support Vector Machines. Berlin, Heidelberg:Springer Science & Business Media, 2008.
    [85] Kim M Y, Pavlovic V. Covariance operator based dimensionality reduction with extension to semi-supervised settings. In: Proceedings of the 12th International Conference on Artificial Intelligence and Statistics. Varna, Bulgaria: Springe, 2009. 280-287 https://www.researchgate.net/publication/220319841_Covariance_Operator_Based_Dimensionality_Reduction_with_Extension_to_Semi-Supervised_Settings
    [86] Zou H, Hastie T, Tibshirani R. Sparse principal component analysis. Journal of Computational and Graphical Statistics, 2006, 15 (2):265-286 doi: 10.1198/106186006X113430
    [87] Cunningham J P, Ghahramani Z. Linear dimensionality reduction:Survey, insights, and generalizations. Journal of Machine Learning Research, 2015, 16:2859-2900 https://arxiv.org/abs/1406.0873
    [88] Fan K, Hoffman A J. Some metric inequalities in the space of matrices. Proceedings of the American Mathematical Society, 1995, 6 (1):111-116 doi: 10.1142/9789812796936_0012
    [89] Kaneko T, Fiori S, Tanaka T. Empirical arithmetic averaging over the compactStiefel manifold. IEEE Transactions on Signal Processing, 2013, 61 (4):883-894 doi: 10.1109/TSP.2012.2226167
    [90] Cook R D, Yin X R. Theory & methods:special invited paper:dimension reduction and visualization in discriminant analysis (with discussion). Australian & New Zealand Journal of Statistics, 2001, 43 (2):147-199 doi: 10.1146/annurev.psych.52.1.1
    [91] Zhu Y, Zeng P. Fourier methods for estimating the central subspace and the central mean subspace in regression. Journal of the American Statistical Association, 2006, 101 (476):1638-1651 doi: 10.1198/016214506000000140
    [92] Davies A C, Yin J H, Velastin S A. Crowd monitoring using image processing. Electronics & Communication Engineering Journal, 1995, 7 (1):37-47 https://www.researchgate.net/publication/3364407_Crowd_monitoring_using_image_processing
    [93] Cho S Y, Chow T W, Leung C T. A neural-based crowd estimation by hybrid global learning algorithm. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1999, 29 (4):535-541 doi: 10.1109/3477.775269
    [94] 时增林, 叶阳东, 吴云鹏, 娄铮铮.基于序的空间金字塔池化网络的人群计数方法.自动化学报, 2016, 42(6):866-874 http://www.aas.net.cn/CN/abstract/abstract18877.shtml

    Shi Zeng-Lin, Ye Yang-Dong, Wu Yun-Peng, Lou Zheng-Zheng. Crowd counting using rank-based spatial pyramid pooling network. Acta Automatica Sinica, 2016, 42 (6):866-874 http://www.aas.net.cn/CN/abstract/abstract18877.shtml
    [95] Dasgupta S, Freund Y. Random projection trees and low dimensional manifolds. In: Proceedings of the 40th Annual ACM Symposium on Theory of Computing. Victoria, British Columbia, Canada: ACM, 2008. 537-546 http://dl.acm.org/citation.cfm?id=1374452
  • 期刊类型引用(4)

    1. 刘钊瑞,高云鹏,郭建波,李云峰,顾德喜,文一章. 基于深度自编码器高斯混合模型的窃电行为检测. 电力系统保护与控制. 2022(18): 92-102 . 百度学术
    2. 韩嵩,韩秋弘. 半监督学习研究的述评. 计算机工程与应用. 2020(06): 19-27 . 百度学术
    3. 李刚,张博,赵文清,刘云鹏,高树国. 电力设备状态评估中的数据科学问题:挑战与展望. 电力系统自动化. 2018(21): 10-20+177 . 百度学术
    4. 廖瑞金,王有元,刘航,刘宏波,马志鹏. 输变电设备状态评估方法的研究现状. 高电压技术. 2018(11): 3454-3464 . 百度学术

    其他类型引用(9)

  • 加载中
  • 图(2) / 表(4)
    计量
    • 文章访问数:  3311
    • HTML全文浏览量:  394
    • PDF下载量:  1481
    • 被引次数: 13
    出版历程
    • 收稿日期:  2016-12-08
    • 录用日期:  2017-06-12
    • 刊出日期:  2018-02-20

    目录

    /

    返回文章
    返回