2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

实值多变量维数约简:综述

单洪明 张军平

肖进胜, 庞观林, 唐路敏, 钱超, 邹白昱. 基于轮廓模板和自学习的图像纹理增强超采样算法. 自动化学报, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458
引用本文: 单洪明, 张军平. 实值多变量维数约简:综述. 自动化学报, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812
XIAO Jin-Sheng, PANG Guan-Lin, TANG Lu-Min, QIAN Chao, ZOU Bai-Yu. Image Texture Enhancement via Upscaling Algorithm Based on Contour Stencils and Self-learning. ACTA AUTOMATICA SINICA, 2016, 42(8): 1248-1258. doi: 10.16383/j.aas.2016.c150458
Citation: SHAN Hong-Ming, ZHANG Jun-Ping. Real-valued Multivariate Dimension Reduction: A Survey. ACTA AUTOMATICA SINICA, 2018, 44(2): 193-215. doi: 10.16383/j.aas.2018.c160812

实值多变量维数约简:综述

doi: 10.16383/j.aas.2018.c160812
基金项目: 

上海市浦江人才计划 16PJD009

国家自然科学基金 61673118

详细信息
    作者简介:

    单洪明 复旦大学计算机学院博士研究生.主要研究方向为维数约简, 随机特征, 深度学习.E-mail:hmshan@fudan.edu.cn

    通讯作者:

    张军平 复旦大学计算机科学技术学院教授.主要研究方向为机器学习, 智能交通, 生物认证, 图像识别.本文通信作者.E-mail:jpzhang@fudan.edu.cn

Real-valued Multivariate Dimension Reduction: A Survey

Funds: 

Shanghai Pujiang Program 16PJD009

National Natural Science Foundation of China 61673118

More Information
    Author Bio:

    Ph. D. candidate at the School of Computer Science, Fudan University. His research interest covers dimension reduction, random feature, and deep learning

    Corresponding author: ZHANG Jun-Ping Professor at the School of Computer Science, Fudan University. His research interest covers machine learning, intelligent transportation systems, biometric authentication, and image processing. Corresponding author of this paper
  • 摘要: 维数约简作为机器学习的经典问题之一,主要用于处理维数灾问题、帮助加速算法的计算效率和提高可解释性以及数据可视化.传统的维数约简算法如主成分分析(Principal component analysis,PCA)和线性判别分析等只能处理无标签数据或者分类数据.然而,当预测变量为一元或多元连续型实值变量时,这些处理无标签数据或分类数据的维数约简方法则不能形成有效的预测性能.近20年来,有一系列工作从多个角度对这一问题展开了研究,并取得了系统性的研究成果.在此背景下,本文将综述这些面向回归问题的降维算法,即实值多变量维数约简.本文将介绍与实值多变量维数约简密切相关的基本概念、算法、理论,并探讨一些潜在的研究方向.
  • 人脸作为重要的视觉信息在人与人交互中传递大量信息.很多系统已经能够准确的识别人脸的年龄、表情和性别等信息[1-5], 人脸的人种、民族在人类学和计算视觉具有重要的实用价值.随着日益频繁的国际和地区往来, 在安保、公共安全、犯罪识别、海关签证、边境口岸都具有广泛的应用价值[6-8].同时, 相关研究会促进各种人脸分析识别系统对于不同人种和民族的技术公平性, 使得系统具有更好的适用性, 避免出现一些系统只适于部分族群而产生的技术"歧视"[8].如何利用计算机技术深入分析和挖掘人脸的群体特征及其规律, 对推进和深化人脸识别技术和人类学研究也同样具有重要意义.

    人种是指人类学用肤色、头发、身体结构等差异加以区分的人群.民族是指在特定地理区域和遗传因素形成的具有特定文化和语言的人群共同体.人脸的这些群体特征是人脸视觉认知中先于年龄、性别和表情识别的最重要的人脸信息之一.神经科学研究表明, 人脸的人种特征是人脸最先识别的特征.如图 1所示, 在80 ~ 120 ms首先识别人脸的人种属性, 接下来在150 ms识别人脸年龄和性别等特征进行认知[9].体质人类学也对人脸的人种和民族特征进行了大量研究, 采集大量不同人种和民族数据通过人体测量学对人脸几何特征进行统计分析[10-11].体质人类学对人脸长度、角度等进行测量构建相应的指标体系, 这些指标体系支撑了体质人类学的发展.随着机器视觉和人脸分析技术不断发展, 进一步完善体质人类学对提高民族特征指标体系具有有效性, 通过结合数据构建科学的指标体系对体质人类学研究具有重要科学意义. Bledsoe[12]最早利用面部几何特征之间的距离和比率, 分析了白种人的面部特征; Kanade[13]对眼角、嘴巴和下巴等面部特征之间几何关系, 在一个自建的20个白种人数据库上进行了分析; Brunelli等[14]通过47个样本的白人数据库, 研究了人脸部件几何结构(例如鼻子长度、嘴巴宽度和下巴形状等)之间的匹配关系, 研究表明, 通过人脸的几何特征可以有效地判别和分析人脸的民族特征.此外, 人脸的族群特征由于相互融合, 同一人脸可以包含多个人种或民族的特征, 这也给人脸的族群特征分析带来了一定的困难.同一人种的不同民族人脸面部特征研究与不同人种的面部特征研究不同, 不同人种人脸肤色和体貌特征之间差异较大, 同一人种包含多个民族, 同一民族人脸差异要小于人种之间的差异[15]. 1991年Lindsay等发现对同人种面孔的记忆力比对不同人种的要好[16], 这主要由于日常接触同族人群较多, 因此人们对本民族人脸认知要快于异族人群.但目前机器视觉领域中, 人脸民族特征相关研究主要集中于不同人种的人脸特征差异研究, 而对于同人种内的不同民族研究较少.中国属于亚裔黄种人, 人口占全世界20 %, 是一个统一的多民族国家, 由于受地域、生活方式和遗传等因素的影响形成了56个民族, 并分布于我国横跨的5个时区之中[17], 如何更好地利用计算机技术科学揭示和研究中国不同民族面部具有重要的科学意义.

    图 1  人脸识别过程中的属性识别顺序[6]
    Fig. 1  The cognitive order of face recognition[6]

    流形学习(Manifold learning)可从高维采样的数据空间中恢复低维的流形结构, 找到高维空间中的低维流形, 并求出相关映射.流形分析不仅可以实现高维数据降维, 还可以可视化分析数据本质和内在规律[18]. 2010年Seung和Lee在Science发表的"认知的流形模式"探讨了人类视觉感知机制, 证实了人类视觉神经系统可以捕获这种非线性流形结构的能力, 提出视觉感知的流形假说[19].当识别人脸图像由于光照变化, 表情、年龄、姿态和视觉方向产生变化, 人类视觉的高维空间中会产生一个由光照、表情、年龄和姿态等变量控制的低维流形; 但对于人脸民族特征是否在不同个体存在由族群特征控制的低维流形还有待进行研究. 2015年文献[20]指出, 人脸族群或民族特征的流形相关工作还未展开.而对于中国不同民族的人脸特征, 本文作者[21-24]早期建立了中国多民族人脸数据库, 并利用人脸图像特征对部分民族的人脸特征进行了前期研究, 研究表明中国的不同民族面部特征间也存在多样性.人脸民族特征的流形结构研究需要建立多民族数据库.本文将通过构建多民族人脸数据对中国人脸面部民族特征的内在规律进行研究, 对比体质人类学人脸面部特征的测量指标, 进而研究人脸民族特征.

    流形学习分析人脸数据在高维空间中的低维流形是人脸识别和分析研究的热点之一.流形学习对数据进行结构学习, 产生可靠的嵌入投影, 将数据投射到低维的子空间表示, 去除冗余信息, 找到更为紧凑的本质特征表示方法.传统的流形线性子空间算法有主成分分析(Principal component analysis, PCA)[25]、线性判别分析(Linear discriminant analysis, LDA)[26]、独立成分分析(Independent component correlation algorithm, ICA)[27]、二维主成分分析(Two-dimensional principal component analysis, 2DPCA)[28]、二维线性判别分析(Two-dimensional linear discriminant analysis, 2DLDA)[29]等. Tenenbaum等提出两种流形学习算法, 局部线性嵌入(Locally linear embedding, LLE)和等距映射(Isometric feature mapping, Isomap)[30], 针对LLE方法矩阵分解的不稳定和对噪声敏感等缺点, 拉普拉斯特征映射(Laplacian eigenmaps, LE)[31]理论于2003年被Belkin团队提出, 该方法是在谱分析理论的基础上发展起来的.由于LLE和LE等非线性降维方法没有显式地给出映射关系, 只能得到训练样本的低维嵌入, 难以获得新样本点的低维投影, 于是He等给出了局部保持投影(Locality preserving projection, LPP)[32-33]的概念, 它是LE的线性化推广.因为LLE和LE具有一样的不足, He团队又针对LLE进行改进, 这才有了近邻保持嵌入(Neighborhood preserving embedding, NPE)[34].詹德川等[35]在Isomap的基础上引入了集成学习方法, 利用坐标相关性来度量可视化效果.何力等[36]提出了从放大因子和延伸方向两个角度出发来讨论维数约简过程中样本点改变前与新形成的对应关系.曾宪华等[37] 2007年提出了基于人脑增殖学习原理的动态增殖流行学习算法. Chen等[38]在LPP的基础上进行二维推广, 提出一种二维局部保持投影(Two-dimensional neighborhood preserving embedding, 2DLPP)算法, 直接在二维矩阵上从行方向执行维数约简操作. 2011年, 张大明等[39]把NPE拓展到二维, 即二维近邻保持嵌入(Two-dimensional neighborhood preserving embedding, 2DNPE)算法, 解决了NPE可能遭遇奇异值的问题.

    流形学习不仅可作为人脸识别的特征分析方法, 还被用于人脸年龄和表情的语义分布结构内在规律研究[40-43], 在人脸的年龄流形研究中, Guo等在2008年对人脸年龄流形结构进行研究[43], 实验表明不同年龄呈现流形结构, 如图 2(a)所示, 在0 ~ 45岁人脸呈现均匀的流形分布, 60岁以上样本流形结构分布较为混杂; 在人脸的面部表情流形研究中, 文献[42]在Frey人脸表情库[44]上执行Isomap, 中性表情、高兴的正表情和不高兴的负表情依次在个体流形呈现如图 2(b)的低维空间结构不同个体的人脸表情图像会形成不同的表情流形.续爽等在图嵌入的框架下分析人脸表情子空间, 将分散于高维图像空间中的6个个体表情流形都统一到低维子空间内的一个流形上, 如图 2(c)所示, 证实了来自不同个体的表情数据按表情的语义流形分布[45].

    图 2  人脸年龄和表情属性的流形语义分布
    Fig. 2  Semantic distribution of age and facial expression attributes

    中国人类学学者已经通过人体测量学对我国不同民族进行了面部特征研究, 进而分析各民族及族群的起源、进化和融合过程[46-47].随着数据采集设备不断发展, 以人脸的二维和三维形状分析为基础的形态测量学或人体测量学[48]及几何形态测量学[49]应运而生, 一些难以量化的非线性测量指标, 例如不规则形状的角度、曲度、面积都可以通过相关采集设备进行计算获得相应数据.利用人脸特征点定位可以准确获得人脸各种几何特征数据, 基于人脸图像和三维模型的人脸几何形态测量学成为分析人脸的重要途径之一[50].本文构建了中国分布不同区域的三个民族的人脸数据集, 在此基础上, 结合人类学研究文献对广西壮族、吉林朝鲜族和新疆维吾尔族体质的面部特征研究总结出20个常用人脸面部几何特征, 如图 3所示.通过这20个人脸几何特征分析不同民族的低维流形空间结构.这20个人脸几何特征包括面宽$(x_{1})$、下颌宽$(x_{2})$、形态面高$(x_{3})$、额头高$(x_{4})$、容貌面高$(x_{5})$、鼻宽$(x_{6})$、嘴宽$(x_{7})$、两眼外宽$(x_{8})$、眼裂宽$(x_{9})$、鼻高$(x_{10})$、两眼内宽$(x_{11})$、下脸高$(x_{12})$、眉周长$(x_{13})$、眼周长$(x_{14})$、鼻周长$(x_{15})$、嘴周长$ (x_{16})$眉面积$(x_{17})$、眼面积$(x_{18})$、鼻面积$(x_{19})$、嘴面积$(x_{20})$.

    图 3  人类学采用的人脸长度特征
    Fig. 3  Facial length attribute in anthropology

    人脸特征数据集表示为${\{ x_{1}, x_{2}, \cdots, x_{n}\}}$, 每一张人脸图像的几何特征数据可以表示为${ x_{i}\in {\bf R}^{D}}$, D代表每个图像的特征数量.假设${\{ x_{1}, x_{2}, \cdots, x_{n}\}}$实际是一种$d$维的流形结构$M$嵌入到${{\bf R}^{D}}$空间中, 其中${(d\ll D)}$, 那么, 就有可能找到一组新的低维数据${\{ y_{1}, y_{2}, \cdots, y_{n}\}}$来表示这组人脸几何特征数据集, 其中${y_{i} \in {\bf R}^{D}}$.如图 4所示, 其中深色代表朝鲜族, 中浅色代表维吾尔族, 浅色代表壮族.本文将人脸数据库中的3个民族按性别分为2组, 图 4(a)为男性组, 图 4(b)为女性组, 分散于Laplacian[51]和LPP[52]流形结构.

    图 4  壮族(浅色)、维吾尔族(中浅色)、朝鲜族(深色)男女流形结构
    Fig. 4  Male and female manifold structure of three ethnies (Zhuang, Uygur, Korean)

    图 4所示, 在体质人类学指标体系下, 3个民族数据集Laplacian拉普拉斯和LPP流形空间数据分布混杂在一起, 不同民族数据样本没有形成各自民族语义的子流形结构.主要由于体质人类学测量指标在主要人脸的器官及各个器官相对位置定义的几何特征维度较低, 没有有效刻画民族的人脸几何特征, 这些指标特征没有能够描述不同民族群体人脸特征差异性.因此未形成相应的民族语义子流形.课题组前期在人类学指标体系下对我国几个少数民族进行研究, 利用AFS概念语义化在人类学指标体系下抽取人脸语义特征进行分析研究, 也发现体质人类学指标对于民族属性识别率较低.因此本文主要探索以下两个问题: 1)中国各民族人脸特征是否存在按民族语义分布的子流形结构. 2)人脸中的哪些几何特征能够刻画人脸的民族属性.

    本文将利用中国3个民族人脸数据特征研究不同民族语义流形结构.

    本文为研究中国各民族的人脸特征, 根据区域分布选取3个民族建立数据集.如表 1所示, 中国百万以上人口的民族及其地理位置, 选取位于东北、西北和南部的3个民族进行分析, 主要由于位于较远不同地域的民族区分度较大, 同一区域内的民族可能会由于人口流动造成数据区分度较小.

    表 1  3个民族人口数量和比例[53]
    Table 1  The demographical comparison of the three ethnic groups[53]
    民族 人口数量 人口比例(%) 地理位置
    壮族 16 926 381 1.27 广西
    维吾尔族 10 069 346 0.76 新疆
    朝鲜族 1 830 929 0.14 吉林
    下载: 导出CSV 
    | 显示表格

    本文采集了我国分布较远的3个民族, 位于广西的壮族、新疆的维吾尔族和吉林的朝鲜族作为数据集[54]. 3个民族的地理分布如图 5所示.

    图 5  人脸数据采集环境
    Fig. 5  The environment and setup for facial image collection

    每个民族采集100人, 其中男、女各50人, 从高校各民族本科生采集, 采集对象年龄集中于18 ~ 22岁, 可以降低年龄因素对民族特征的影响.

    为了准确采集中国多民族人脸数据库.实验室采用如图 5所示的篮箱系统和多机位相机对人脸进行采集.图 6为采集的3个民族人脸数据部分样本[54].本文公开采集的具有民族标记和人脸特征点的数据集为其他领域相关研究提供数据1.

    1http://zs.dlnu.edu.cn/minzu300face.rar

    图 6  三个民族正面人脸数据集
    Fig. 6  The samples of facial images from three ethnics

    人脸几何形态特征作为体质人类学分析民族特征的测量体系, 主要研究基础是基于颅面的测量.其他指标, 例如肤色纹理和颜色等易于受外界环境变化影响.此外, 基于图像的人脸民族几何特征与人体测量学既有联系又有区别.人类学建立于对于颅面几何特征精确测量, 而基于图像的人脸的特征点之间的像素点距离进行计算, 不是实测的几何特征, 需要进行归一化, 而角度和比例特征不随人脸图像大小变化影响, 具有较好稳定性.要测量长度、角度或者比例特征依赖于对人脸重要特征点的精确定位算法.

    本文采用Stasm算法对人脸进行标注[55].主要由于Stasm标注特征点相对较少, 这样生成的其他几何特征相对规模较小.如图 7所示, 共77个特征点以及特征点标定的位置.

    图 7  本文采用人脸特征点及定位
    Fig. 7  Facial landmark detection in this paper

    人脸包含高维的几何特征.人脸特征维度图示如图 8所示.一张480像素× 640像素的人脸包含像素特征30.72万个, 但由77个特征点会生成2 926个长度特征、21万余个角度特征、410万个比例特征和组成.比例特征远远高于人脸的像素特征.

    图 8  人脸特征维度示意图
    Fig. 8  Feature dimension compansion of common facial attributes

    设人脸特征点集合为$F={\left[l_{1}, l_{2}, \cdots, l_{n}\right]^{ \rm{T}}}$, $N$ = $77, $其中长度特征为${d(l_{i}, l_{j})={\|l_{i} - l_{j}\|}^{2}}$, 角度特征为

    $ \begin{align} {\beta}_{i}={{\arccos}}\frac{d({{l}}_{{i}}, {{l}}_{{j}})^{2}+d({{l}}_{{i}}, {{l}}_{{q}})^{2}-d({{l}}_{{j}}, {{l}}_{{q}})^{2}} {2\times d({{l}}_{{i}}, {{ l}}_{{j}})\times d({{l}}_{{i}}, {{l}}_{{j}})} \end{align} $

    (1)

    比例指数为

    $ \begin{align} r=\frac{d({l}_{i}, {l}_{j})}{d({l}_{a}, {l}_{b})} \end{align} $

    (2)

    其中, ${\forall {l}_{i}, {l}_{j}, {l}_{a}, {l}_{b}\in\{ { l}_{1}, { l}_{2}, \cdots, {l}_{n}\}}$.

    由于人脸结构基本上为左右对称, 因此几何特征存在大量冗余特征.本文采用LE和LLE流形算法, 对未筛选冗余特征的2 926维的长度数据集进行流形分析, 如图 9所示.

    图 9  高维人脸长度特征流形分布
    Fig. 9  Facial face length feature manifold distribution

    图 9可以看出, 直接采用人脸全部长度特征进行流形分析, 不同民族样本流形分布混杂在一起, 没有形成各自民族的子流形结构, 主要由于人脸的相对左右对称存在大量冗余特征, 因此需要从高维的特征中筛选掉冗余特征.考虑到特征之间的相关性和冗余性, 本文利用基于空间搜索的最大相关最小冗余(Minimal redundancy maximal relevance, mRMR)算法[56-57]对几何特征进行筛选. mRMR算法使用互信息衡量特征的相关性与冗余度, 并使用信息差和信息熵两个代价函数寻找特征子集, 其基本思想是基于互信息的最大统计依赖准则来获得较好的特征. mRMR算法中最大相关和最小冗余定义为

    $ \max\{{D}({F}, {c}), {D}\}=\frac{1}{|{F}|}\sum\limits_{{x}_{i}\in{S}}{I}({ f}_{r}, {c}) $

    (3)

    $ \max\{{R}({F}), {R}\}=\frac{1}{|{F}|^{2}}\sum\limits_{{f}_{r}, {f}_{0}\in{ F}}{I}({f}_{r}, {f}_{0}) $

    (4)

    其中, $F$为人脸几何特征, $c$为样本民族属性类别, ${{I}({f}_{r}, { c})}$表示特征${{f}_{r}}$与类别$c$之间的互信息, ${{I}({f}_{r}, { f}_{0})}$表示特征${{f}_{r}}$与特征${{f}_{0}}$之间的相互信息.

    给定两个随机变量${x}$和${y}$, 设它们的概率密度分别为${p(x)}$, ${p(y)}$和${p(x, y)}$, 则它们之间的互信息定义为

    $ \begin{align} {{I}{({x}, {y})}}=\iint p(x, y) {\rm log}\frac{{p}{({x}, {y})}}{{p}{({x})}{p}{({y})}}{\rm d}x{\rm d}y \end{align} $

    (5)

    mRMR算法利用下式作为评价函数进行特征子集的选择.

    $ \begin{align} \begin{cases} \max\phi _{1}\left ( D, R \right ), &\phi _{1}=D-R\\ \max\phi _{2}\left ( D, R \right ), &\phi _{2}= \dfrac{D}{R} \end{cases} \end{align} $

    (6)

    由于人脸几何特征数据维度较高, 传统数据库只适用于特征维度较低的数据集.本文采用mongoDB数据库, 将维度较高的角度与比例特征数据进行存储.实验中, 为了提高算法效率将219 450个角度特征切分22个独立数据集分别利用mRMR进行筛选, 每个数据集包含角度特征9 975个; 将4 279 275个比例特征分为455个独立的数据集, 每个数据集包含比例特征9 405个, 如表 2所示筛选的几何特征.

    表 2  筛选的几何特征
    Table 2  The selected geometric features
    长度几何特征 角度几何特征 比例几何特征
    特征维度 2 926 219 450 4 279 275
    筛选后特征维度 195 250 500
    下载: 导出CSV 
    | 显示表格

    长度特征在mRMR特征权重值$score\geq 0$条件下, 筛选出195个距离特征; 在角度数据集分割为22个独立的子数据集, 从每个子数据集特征权重$score$ $>$ $0.23$的特征, 共筛选出1 535个角度特征, 合并1 535个角度特征形成新数据集继续进行筛选, mRMR权重$score\geq 0$条件下, 筛选出250个角度特征; 在455个的比例子数据集, 本文利用mRMR分别对每个子数据集根据权重$score\geq 0.23$的标准共筛选出7 124个比例特征, 再利用筛选出的7 124个比例特征形成新数据集继续进行计算, 最终在权重$score\geq 0$条件下, 筛选出500个比例特征.

    根据图 10中的多民族人脸流行分析流程, 本文从mRMR对人脸特征筛选特征中构建3个民族人脸长度数据集、角度数据集和比例数据集, 进而利用流形分析方法对不同数据集的样本空间结构进行可视化, 并验证在该特征指标下是否不同民族人脸在空间中存在民族语义的子流形结构, 进而用分类器验证筛选后特征的有效性.

    图 10  多民族人脸流形分析流程
    Fig. 10  The schema of multi-ethnic facial manifold analysis

    本节对长度、角度及比例特征类别下的5个不同特征集合的数据集进行流形分析, 观察和研究不同特征指标体系下的人脸民族的样本空间流形结构.

    人脸几何长度一直是体质人类学分析民族和族群的重要指标, 77个特征点包含2 926个长度特征. 图 4的实验数据表明, 在体质人类学的人脸几何测量指标中, 不同族群样本集中在低维空间子流形结构.由于其中含有冗余的长度特征, 因此本文利用mRMR筛选出195个特征长度, 构建包含3个民族人脸数据样本的数据集.

    从2 926个特征中筛选出来的195个几何长度特征, 按权重进行排序.本文将每个长度的特征权重根据Score分为5部分: [0.15, 0.452), [0.10, 0.15), [0.05, 0.10), [0.01, 0.05), (0, 0.05), 将前4个不同权重范围的长度特征区域在表 3进行显示, 并与人类学的指标进行对比, 其中字体加粗的鼻宽、鼻高、唇厚、口裂宽存在于筛选出的195个长度特征之中.

    表 3  mRMR筛选的4个权重范围的长度特征
    Table 3  The selected distance-based features by mRMR
    权重权重区域特点
    1眼裂宽度、眉眼距离、眉与鼻翼距离、鼻翼长度特征
    2眉毛各长度特征、额头宽度、鼻翼与眼内角距离、下唇厚度
    3更为精细的鼻部和嘴部几何长度特征
    4嘴部与眉尖距离, 嘴部与下颚距离, 眉与耳朵距离
    人类学常用指标体系头长、头宽、面宽、鼻宽、鼻高、唇厚、口裂宽、内眼角宽、外眼角间距、内眼角间距、颧间宽、下颌长度、下颌角间距
    下载: 导出CSV 
    | 显示表格

    为了更为直观分析影响这些通过mRMR筛选的人脸几何长度的语义特征, 本文将4个权重范围特征在人脸进行可视化.一类权重用19个距离特征点表示, 二类权重用37个距离特征点表示, 三类权重用63个距离特征点表示, 四类权重用65个距离特征点表示, 如图 11所示.通过4个不同权重区间的长度可以观察到, 如图 11(a)图 11(b)所示, 眉毛、眼睛和鼻子组成的T形区域的长度特征与人脸的民族特征语义相关性较强.特征描述从T形区域延伸到嘴部区域.主要表现在上唇和下唇的长宽相关性较强, 这与人类学常用指标一致.

    图 11  不同权重的人脸长度几何特征
    Fig. 11  The demonstration of 4 types of distance-based features

    图 11表 3可以看出, 1)筛选出的权重较高, 人脸长度特征与人体测量学对民族研究指标略有不同.其中人体测量学只有4个指标与mRMR算法得到的长度指标相同, 其余指标没有包含在195个筛选特征集合中; 2)与民族相关的人脸特征主要集中于眉眼区域和鼻翼区域, 以及眉、眼睛和鼻部三者之间的距离长度; 3)脸型与民族特征相关性较差, 除脸型周围的特征点集合中除脸部标记耳部特征点被作为与眉部被选取外, 表明脸型的颧骨周围特征点及长度都没有被选取; 4)鼻头部的精细长度与民族特征相关性较强, 在权重3的范围内, 鼻部区域的各种长度特征被更为精细的刻画, 而这鼻头部的各种几何特征度量一致被研究忽视; 5)除传统人类学的鼻宽和额高, 在权重4的范围内, 嘴部区域与民族特征相关性较强, 主要表现在上唇和下唇的长宽相关性较强, 这与人类学常用指标一致.

    通过mRMR从2 926个特征筛选195个长度特征, 本文对筛选后的数据集进行流形学习.如图 12所示, 采用LE拉普拉斯和LLE对数据进行流形分布可视化.其中深色代表朝鲜族, 中浅色代表维吾尔族, 浅色代表壮族, 都能在空间内形成与民族语义相关的子流形结构分布.

    图 12  筛选长度特征数据集的流形结构
    Fig. 12  The illustration of ethnic manifold structure based on selected features

    按民族语义分布的子流形结构表明, 3个民族人脸数据集样本在长度筛选后的特征指标中能够形成各自相对独立的子流形分布结构.也验证了筛选后长度特征的有效性, 这些特征长度可以一定程度刻画不同民族的差异性.

    人脸角度特征点也是人脸几何特征之一.例如内外眼角角度表示眼睛的形状, 耳际点与下颚角度可以一定程度表示人脸长度比例等.人脸的角度特征不仅可以表示人脸单个部件器官内部的角度, 还可以表达人脸不同器官部件之间关系.在人脸77个特征点共包含219 450个角度特征.采用mRMR筛选多民族人脸数据集的角度间的相关性和冗余性, 并构建特征数据集进行流形分析.本文利用筛选后的角度特征通过角点和特征区域对4个权重角度的角点及其相关点集进行描述, 如表 4所示, 并对其中特征区域进行说明.

    表 4  mRMR筛选的4个权重范围的角度特征
    Table 4  The selected angle features by mRMR
    权重角点权重区域特点
    1眉尖点眉毛与内眼角点和鼻根部形成的角度关系
    2鼻根点, 眉尖点, 形成鼻翼与鼻眼角度关系热区,
    耳位置点通过角度度量眉眼距离关系
    3眉、眼角点眼裂角度, 眉眼之间角度关系, 鼻翼角度关系
    4眉和嘴部更为精细的眼鼻嘴之间定位关系
    下载: 导出CSV 
    | 显示表格

    为进一步刻画不同权重角度特征, 找出能区分人脸民族属性的角度特征, 本文对不同权重角度特征进行可视化, 如图 13所示.从这些角度特征中选取出250个权重较高的角度特征, 每个角度特征可用上述距离特征(边)之间的夹角表示, 并根据权重大小分为4个不同权重范围的角度特征.三角着色的"热区"是该区域角度都是权重较高的角度特征.

    图 13  不同权重的人脸角度几何特征
    Fig. 13  The demonstration of 4 types of angular features

    图 13表 4表明, 权重较高与民族特征相关的人脸角度特征主要是眉、眼、鼻三者之间的布局关系, 人脸局部角度特征集中于眼睛开裂角度和鼻翼角度.分析结论与人脸的长度特征计算出的民族特征显著区域基本一致.

    本文采用传统的PCA和LDA对角度进行流形分析. PCA是1986年Jolliffe提出的线性降维技术.线性判别式分析LDA, 也叫做Fisher线性判别. FLD由Belhumeur于1996年引入人工智能领域, 其基本思想是将高维的样本投影到最佳鉴别矢量空间, 从而可以达到抽取分类信息、压缩特征空间维数的效果.

    采用PCA和LDA对多民族人脸角度分析结果如图 14所示, 角度的3个主分量张成到3维空间进行显示. 3个民族的人脸数据在筛选后的民族语义描述下分布清晰, 各个民族人脸角度主分量形成了按民族语义的流形结构.其中也可以发现不同民族之间也存在模糊性的样本, 这也表明人脸的民族属性具有一定的模糊隶属关系.

    图 14  角度主分量的数据流形分布
    Fig. 14  The principal component distribution of angular features

    人类学采用指数特征对人脸进行描述.人体测量中的指数是两种测量绝对值之间的百分比关系.由于指数反映的是人体形态上的某种比例关系, 与绝对值特征相比, 能够较好排除因个体差异带来的比较误差, 因此, 在人类学群体间的比较研究中具有更为重要的意义.不同民族的各种人脸指数特征同各种绝对测量一样, 也存在着相当大的变异范围.人类学家根据指数的变异范围, 将指数区分为若干等级进行研究比较[58-59].

    体质人类学关于人脸研究定义了18个比例指数特征, 其中15个在正面人脸, 其他3个在颅侧面.正面15个指数特征如表 5所示.

    表 5  体质人类学定义的15个正脸指数
    Table 5  The 15 Physical anthropological definition of 15 frontal face index
    序号指数特征名称
    1 头宽高指数
    2 额顶宽指数
    3 头面宽指数
    4 形态面指数
    5 形态上面指数
    6 容貌面指数
    7 颧下颌宽度指数
    8 颧额宽指数
    9 容貌上面指数
    10 额面指数
    11 容貌上面高
    12 头面高指数
    13 鼻指数
    14 鼻宽深指数
    15 唇指数
    下载: 导出CSV 
    | 显示表格

    本文首先利用这15个体质人类学定义的指数比例特征构建数据集, 验证这些指标能否表达不同民族的人脸差异, 因此通过Laplacian和Isomap对数据进行流形分析, 流形分布如图 15所示.

    图 15  壮族(浅色)、维吾尔族(中浅色)、朝鲜族(深色)男女流形结构
    Fig. 15  The male and female manifold structure of the Zhuang (light), Uygur (middle light) and Korean (dark)

    图 15表明, 体质人类学比例指数的流形分布按各民族语义形成了一定程度子流形结构, 例如女性的Laplacian流形分布中的深色朝鲜族和浅色的壮族形成了较为完整的流形结构, 而男性的维吾尔和壮族较难区分.在Isomap流形结构中, 男性和女性的流形分布形成了类簇, 但是深色朝鲜族与中浅色维吾尔族数据混杂在一起, 没有形成明显边界的类簇.需要指出, 人体测量学定义了15个正脸指数特征, 而一张包含77个特征点的人脸共包括4 279 275个指数特征.

    本文采用mRMR对人脸比例特征进行权重分析, 从427万多个比例特征中找出能够区分民族属性的比例特征.因为数据维度较高, 将数据高维指数特征按维度分为455个独立的子数据集, 利用mRMR对每个子数据集根据$score\geq 0.23$的标准共筛选出7 124个比例特征, 再利用筛选出的7 124个比例特征形成新数据集合并进行计算, 最终在权重$score\geq 0$条件下, 筛选出500个比例特征.

    图 16所示, 根据权重大小将部分权重较高的比例特征分为4个不同权重范围的比例特征刻画在人脸上.每个图的同一颜色代表一对长度组成的比例指数特征.

    图 16  不同权重的人脸比例特征
    Fig. 16  The demonstration of types of ratio-features

    图 16可以看出, 眼裂宽度、眉眼距离、鼻翼长度、鼻翼与眼内角距离以及鼻翼与眉毛距离等在每类权重特征中都出现, 额宽、眼睛到嘴部距离出现频率也较高, 说明这些特征对区分民族有重要作用.为提供详细的人脸指数特征说明, 本文给出了权重较高的15个指数特征, 如表 6所示.

    表 6  不同权重的比例特征
    Table 6  The index features with different weight
    序号权重区域特点权重值
    (眼裂高度) / (眉眼距离)0.329
    1(眼裂高度) / (鼻翼与眉毛距离)0.362
    (鼻翼与眉毛距离)/ (嘴部与眉尖)0.312
    (鼻翼与眼内角点距离) / (额头高度)0.35
    (眼裂高度) / (鼻翼与眉毛距离)0.302
    2(鼻翼长度) / (眉眼距离)0.302
    (眉眼距离) / (眉毛与鼻翼距离)0.301
    (鼻翼长度) / (眉毛与嘴部距离)0.302
    (眼裂高度) / (鼻翼与眉毛距离)0.30
    3(鼻翼与眼内角点距离) / (额头高度)0.294
    (鼻翼距离) / (嘴巴与眼外角点距离)0.297
    (眉间距) / (鼻翼与眼内角距离)0.297
    (眼裂高度) / (鼻翼与眼内角点距离)0.274
    4(眉毛与上唇距离) / (眉毛与下唇距离)0.283
    (鼻翼长度) / (眼睛与下颌距离)0.281
    下载: 导出CSV 
    | 显示表格

    本文利用筛选的500个指数特征构建数据集进行流形分析.采用PCA、LDA、LE和LPP方法比例进行维数约减流形分析, 如图 17所示.可视的三维流形空间中3个民族的人脸比例数据分布清晰, 各个民族的比例特征同样可以形成各自的聚类簇.采用拉普拉斯和LPP方法对数据进行流形分布可视化后, 呈现了与民族语义相关的子流形结构分布, 其中深色代表朝鲜族, 中浅色代表维吾尔族, 浅色代表壮族.

    图 17  比例特征在低维空间分布图
    Fig. 17  The distribution of ratio-features in low dimensional space

    人脸包含长度、角度、指数(比例)特征, 这些特征都可以形成各自对民族几何特征语义描述.为探究三类特征中哪一类特征更重要, 本文将三类特征混合形成数据集进行分析.

    将250个长度特征、500个角度特征和500个人脸比例特征进行混合, 利用mRMR筛选了51个$score$ $>$ $0$的特征.其中长度、角度和比例特征的占比分别为0 %, 14.6 %, 85.4 %.总结了区分民族特征的重要指标51个, 如表 7所示.给出了类型(角度或指数比例)、权重值及其详细的人脸特征点计算公式.

    表 7  长度、角度筛选出的51个人脸几何特征
    Table 7  The selected 51 geometric features from distance-based and angular attributes
    ID类型详细权重ID类型详细权重
    1I(49, 57)/(22, 7)0.66927I(39, 43)/(7, 22)0.299
    2I(35, 47)/(23, 51)0.36228I(49, 69)/(34, 72)0.296
    3I(37, 51)/(16, 24)0.3529I(22, 73)/(21, 64)0.298
    4I(39, 43)/(22, 36)0.32930I(49, 52)/(15, 7)0.296
    5I(50, 71)/(33, 60)0.3331I(35, 47)/(28, 51)0.298
    6I(49, 52)/(5, 17)0.31232I(25, 50)/(21, 27)0.292
    7I(22, 76)/(21, 54)0.31233I(37, 51)/(14, 19)0.294
    8I(51, 59)/(22, 45)0.30234A∠(21, 55, 26)0.289
    9I(31, 35)/(37, 51)0.30535I(39, 43)/(28, 51)0.287
    10A∠(51, 59, 27)0.31136I(49, 52)/(22, 38)0.289
    11I(39, 43)/(20, 58)0.30237I(49, 76)/(35, 72)0.289
    12I(37, 59)/(14, 22)0.30238I(50, 52)/(22, 60)0.286
    13I(17, 36)/(23, 50)0.30239I(35, 47)/(23, 50)0.287
    14I∠(31, 22, 33)0.29740I(49, 52)/(7, 35)0.287
    15I(49, 52)/(60, 74)0.30441I(22, 53)/(21, 50)0.284
    16I(50, 55)/(17, 55)0.30142I(50, 70)/(33, 60)0.285
    17I(18, 21)/(33, 49)0.30243A∠(17, 49, 21)0.285
    18I(35, 60)/(21, 54)0.30544I(37, 51)/(16, 24)0.285
    19I(39, 43)/(23, 51)0.30345I(37, 51)/(16, 24)0.282
    20I(37, 51)/(18, 25)0.30146A∠(51, 25, 59)0.283
    21I(22, 73)/(21, 76)0.34747A∠(35, 29, 49)0.284
    22I(49, 52)/(24, 66)0.30348I(49, 57)/(22, 43)0.282
    23I(49, 57)/(14, 22)0.30249I(39, 43)/(19, 49)0.282
    24I(50, 57)/(29, 61)0.29650A∠(21, 49, 25)0.281
    25A∠(21, 36, 22)0.29951I(31, 35)/(24, 51)0.279
    26A∠(22, 60, 50)0.298
      注: I代表长度, A代表角度
    下载: 导出CSV 
    | 显示表格

    表 7可以看出, 1)人脸长度特征对于民族特征影响较小, 这与我们的认知相符.例如, 各民族未成年的人脸与成年人脸虽然长度特征相差较大, 但人可以很快识别其族群, 可见人脸的长度特征对于人脸的民族特征影响较小; 2)指数(比例)特征占比远大于角度特征, 数量比为5.8倍.本文对表 7中的角度和比例特征中的顶点和边按频度进行统计, 并标记其在人脸的区域位置, 得到如表 8所示边和点的支持度.

    表 8  混合指标中的特征边与点的频繁项集
    Table 8  The frequent itemsets of the characteristic edge and point in the mixed attributes
    ID支持度说明ID支持度部位
    139 ~ 436眼裂12216
    249 ~ 526鼻翼长度24916
    337 ~ 514鼻眼距离35114
    435 ~ 473眼裂42111
    549 ~ 573鼻翼宽度55010
    622 ~ 732眉嘴距离6359
    731 ~ 352眼裂7377
    814 ~ 222额头高度18437
    916 ~ 242额头高度29527
    1021 ~ 542眉鼻距离110396
    1123 ~ 502眉鼻距离211245
    1223 ~ 512眉鼻距离312574
    13234
    14313
    15463
    16143额头
    17163额头
    18732
    19542
    下载: 导出CSV 
    | 显示表格

    表 8可以看出, 最为频繁出现的是眼裂和鼻翼相关信息, 如图 18所示.其中鼻部和眼部特征点占比64 %, 加上眉部占比超过85 %.说明在中国三个民族数据样本中, 区分度较大区位为鼻部和眼部信息, 这些部位反映了更多的民族特征信息.

    图 18  指标中特征点在面部分布比例图
    Fig. 18  The distribution of landmarks from different facial area

    由于混合特征中比例特征占比较高, 本文得出如图 19所示的混合特征下的流形结构, 可见其分布与指数特征数据集基本一致, 但更为清晰.这个研究表明人脸比例属性是描述人脸民族特征的重要指标, 长度和角度对于人脸民族的特征语义表述权重较小, 但融入一些比例无法描述的角度特征可以让人脸民族刻画的更为准确.

    图 19  比例特征在低维空间分布图
    Fig. 19  The distribution of ratio-features in low dimensional space

    采用分类器对筛选的数据集进行分析, 主要利用不同分类器通过对人脸的族群判别的各种分类指标来验证筛选出的不同人脸几何特征的有效性.将采集到的维吾尔族、壮族和朝鲜族的人脸图像, 经过图像预处理、特征点定位、几何特征计算、特征选择等步骤, 最终建立传统20个长度特征(A数据集), 筛选的195个几何长度特征(B数据集)、250个几何角度特征(C数据集)、250个比例指数特征(D数据集)和有三种特征筛选出的51个混合特征数据集(E数据集)共5个数据集, 将每个测试结果按性别指标较好的前两项粗体标注.其中交叉验证为10折, 取各指标在交叉验证中的平均值.未验证性别对民族特征的有效性, 每个数据集按性别拆分为两个数据集, 采用不同的模式分类方法对其进行分类与预测, 进而验证特征的有效性.类别为3个民族标记, 维吾尔族、壮族和朝鲜族.

    实验硬件环境: Intel(R) Core(TM) i7-4770 CPU, 8GB内存; 软件环境:操作系统Win7;实验工具: Weka version 3.6[60].

    为便于比较各模型的性能, 定义TP Rate、FP Rate、查准率(Precision)、查全率(Recall)、F-Measure、AUC (Area under curve)等[61]指标汇总信息.对于多分类问题, 计算指标值时, 假设${Y}$ = $\{{y}_{1}, {y}_{2}, \cdots, { y}_{n}\}$是数据集的类标号集合, 首先需将多分类问题分解成$k$个二分类问题, 为每一个类${ y}_{1}$ $\in$ ${y}$创建二类分类器, 其中所有属于${{ y}_{i}}$的样本都被看作正类, 而其他样本被看作负类. TP代表被分类模型正确预测的正样本数, FN代表分类模型错误预测为负类的正样本数, FP代表被分类模型错误预测为正类的负样本数, TN代表被分类模型正确预测的负样本数.分类器的分类效果越好, 它所对应的TP值就越高, FP越低.

    $ \begin{align} TP_{\rm Rate}= \frac{TP}{TP+FN} \end{align} $

    (7)

    式(7)表示正确分类正样本的比例.

    $ \begin{align} FP_{\rm Rate}=\frac{FP}{FP+TN} \end{align} $

    (8)

    式(8)代表错误分类负样本的比例.

    $ \begin{align} Recall=\frac{TP}{TP+FN} \end{align} $

    (9)

    式(9)代表被判定为正确分类的正类样本数占所有被正类的样本数的比例.

    $ \begin{align} Precision=\frac{TP}{TP+FP} \end{align} $

    (10)

    式(10)代表被正确分类的正类样本数占所有被判定为正类的样本数的比例.

    AUC被定义为ROC曲线下的面积, 也可以认为是ROC曲线下面积占单位面积的比例, AUC的取值范围在0.5 ~ 1之间. AUC更大的分类器效果更好. F-Measure又称为F-Score, 是一种统计量, 常用于评价模型的好坏.

    $ \begin{align} {F}{\rm -}{Measure}=\frac{2\times Precision\times Recall}{Precision+Recall} \end{align} $

    (11)

    分类正确率为

    $ \begin{align} Accuracy=\frac{TP+TN}{TP+FN+FP+TN} \end{align} $

    (12)

    首先采用J48分类算法进行实验[62], 设置剪枝的阈值0.25, 实验结果如表 9所示, 混合特征数据集分类器指标高于其他数据集; 其次不同民族男性和女性的角度特征数据集分类效果高于比例特征数据, 长度特征数据集指标较差.

    表 9  J48交叉验证学习后结果指标
    Table 9  J48 cross validation results after feature learning
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.7530.1230.7530.7530.7530.814
    BM0.8330.0830.8340.8330.8330.879
    CM0.920.040.9210.9210.9210.935
    DM0.900.050.9020.90.900.935
    EM0.960.020.960.960.960.975
    AF0.7270.1370.7250.7270.7240.775
    BF0.7730.1130.7760.7730.7730.863
    CF0.8130.0930.8140.8130.8120.853
    DF0.7670.1170.7650.7670.7640.844
    EF0.8130.0930.8180.8130.8140.888
    下载: 导出CSV 
    | 显示表格

    决策树J48提供的规则集可以更好理解人脸的民族特征语义描述.本文从不同数据集J48决策树中抽取其识别率最高的决策树, 如图 20所示.

    图 20  不同指标下的民族判别决策树
    Fig. 20  Ethnic classification decision trees with different indicators

    从不同类型特征的决策树可以得到:长度数据集决策树为4层9条规则, 角度数据集为3层5条规则, 指数比例数据集有3层4条规则.可见角度数据集和比例数据集的决策树信息表达较优, 层数均为3.从规则条数看, 比例数据规则条数最为精简, 而且比例指数数据集仅依靠4条分类规则就可以得到高于其他特征数据集的交叉验证的平均准确率.可见人脸的比例特征数据可以更好地对人脸特征进行描述.

    本文利用Naive Bayes进行分类实验[63], 如表 10所示, 其中Naive Bayes采用K2搜索算法, 估计方法采用Simple estimator, 男女混合特征数据集指标结果最好, 男性比例特征数据集分类指标相对较好, 女性角度数据集分类指标优于比例特征数据集结果.

    表 10  Naive Bayes实验结果
    Table 10  Naive Bayes experimental results
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.820.090.8210.820.820.927
    BM0.900.050.9030.900.9010.96
    CM0.960.020.960.960.960.993
    DM0.9670.0170.9680.9670.9670.992
    EM0.9730.0130.9740.9730.9730.999
    AF0.7730.1130.7790.7730.7720.882
    BF0.7530.1230.7550.7530.7500.902
    CF0.8930.0530.8940.8930.8930.947
    DF0.8870.0570.8890.8870.8870.956
    EF0.920.040.9210.920.920.979
    下载: 导出CSV 
    | 显示表格

    表 11为Naive Bayes算法分类实验[64]结果, 混合指标数据集各个指标在不同性别均最好, 男性比例特征数据集分类指标与角度数据集分类指标基本相当, 女性数据集比例特征数据集分类指标高于角度数据集.

    表 11  Bayes network实验结果
    Table 11  Bayes network experimental results
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.7930.1030.7930.7930.7930.923
    BM0.8930.0530.8970.8930.8940.962
    CM0.9670.0170.9670.9670.9670.995
    DM0.9670.0170.9670.9670.9670.992
    EM0.9670.0170.9670.9870.9871.0
    AF0.7330.1330.7350.7330.7340.883
    BF0.7670.1170.7660.7670.7660.898
    CF0.8870.0570.8880.8870.8870.951
    DF0.9000.050.9010.90.90.964
    EF0.9130.0430.9140.9130.9130.983
    下载: 导出CSV 
    | 显示表格

    表 12为RBFNetwork分类实验结果[65], 其中随机种子数为1、最低标准偏差为0.1, 混合指标数据集各个指标在不同性别均最好, 男性比例特征数据集分类指标相对较好, 女性角度数据集在5项指标除AUC外其他指标好于比例特征数据集.

    表 12  RBF network实验结果
    Table 12  RBF network experimental results
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.7730.1130.7750.7730.7730.871
    BM0.9130.0430.9150.9130.9140.947
    CM0.9670.0170.9670.9670.9670.978
    DM0.9730.0130.9740.9730.9730.976
    EM0.9930.0030.9930.9930.9930.994
    AF0.7530.1230.7530.7530.7530.866
    BF0.8070.0970.8050.8070.8050.904
    CF0.9000.0500.9000.9000.9000.937
    DF0.8930.0530.8930.8930.8930.943
    EF0.9070.0470.9090.9070.9070.94
    下载: 导出CSV 
    | 显示表格

    表 13表 14是SVM的两种不同实现算法分类结果. 表 13采用Weka的LibSVM类库分类实验[66], 其中分类类型C-SVC, 核函数类型${{\rm e}^{-r\left | u-v \right |^{2}}}, $核函数中的${degree} = 3$, 核函数中的${{coef}_{0}} = 0$, ${cachesize}$ = 40 MB.不同男性的混合特征数据集与比例数据集分类指标基本相同, 女性混合特征要优于比例特征数据集.

    表 13  SVM中LibSVM实验结果
    Table 13  SVM in LibSVM experimental results
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.7730.1130.7750.7730.7720.83
    BM0.820.090.8230.820.8230.865
    CM0.860.070.8580.860.8570.895
    DM0.9330.0330.9340.9330.9330.95
    EM0.9530.0230.9530.9530.9530.965
    AF0.7330.1330.7520.7330.7340.8
    BF0.7200.140.7580.720.7130.79
    CF0.6670.1670.7150.6670.6080.75
    DF0.8600.070.8620.860.8590.895
    EF0.920.040.9220.920.920.94
    下载: 导出CSV 
    | 显示表格
    表 14  SVM中SMO实验结果
    Table 14  SVM in SMO experimental results
    DataSetSexTP RateFP RatePrecisionRecallF-MeasureAUC
    AM0.8930.0530.8950.8930.8930.944
    BM0.9670.0170.9670.9670.9670.982
    CM0.9670.0170.9670.9670.9670.983
    DM0.9730.0130.9740.9730.9730.985
    EM0.9730.0130.9730.9730.9730.985
    AF0.8670.0670.8680.8670.8670.922
    BF0.9070.0470.9070.9070.9070.947
    CF0.9070.0470.9070.9070.9070.943
    DF0.9330.0330.9340.9330.9340.965
    EF0.9530.0230.9540.9530.9530.97
    下载: 导出CSV 
    | 显示表格

    同时本文还采用了Weka中的独立的SMO (Sequential minimal optimization)[67]算法进行分类实验, SMO算法是一种用于解决SVM训练过程中所产生优化问题的算法.在SMO算法中, 核函数为多项式函数.

    表 14可以看出男性的混合特征数据集和比例特征数据集分类指标相同, 女性混合特征数据集略微优于比例特征数据集.

    为观察不同数据集对特征数量的影响, 本文将特征属性按mRMR计算的权重$score$进行排序, 依次递增特征数量, 分析不同算法与特征个数的变化曲线, 如图 21所示.

    图 21  不同类型特征增量下的准确率变化曲线
    Fig. 21  The recongnition rates comparison based on different types of features

    图 21可以看出, 比例特征数据集的增量特征准确率变化曲线较为平缓.各个分类算法比例特征数据集抖动相对长度和角度变化较小.这也说明, 人脸几何特征中的比例特征能够更好帮助区分人脸的族群特征.

    本文对比不同算法在不同数据集的交叉验证的平均准确率及方差, 如表 15所示.混合特征数据其平均准确率高于其他数据集, 方差也在较小范围波动.表明混合特征可以更加准确有效地作为人脸民族特征分析的指标.

    表 15  SVM中SMO实验结果
    Table 15  SVM in SMO experimental results
    性别J48Naive BayesBayesNet
    M(20长度特征)80.00±1.8389.33±1.0479.30±1.62
    M(195长度特征)83.33±2.2190.00±1.0689.33±0.69
    M(250角度特征)92.00±1.0596.00±0.5596.70±0.85
    M(400角度特征)90.00±1.1196.70±0.4796.70±0.28
    M(51混合特征)96.00±0.5597.33±0.2198.67±0.53
    F(20长度特征)72.67±2.3177.33±1.4473.33±1.94
    F(195长度特征)77.33±1.5175.33±1.2176.67±1.20
    F(250角度特征)81.33±2.7889.33±0.9588.67±0.47
    F(400角度特征)76.67±2.5188.67±0.5590.00±0.38
    F(51混合特征)81.33±2.1092.00±0.3591.33±0.32
    M(20长度特征)77.33±2.1789.33±1.6577.33±1.03
    M(195长度特征)91.33±0.9596.67±0.5482.00±0.99
    M(250角度特征)96.70±0.8596.70±0.5686.00±0.32
    M(400角度特征)97.30±0.3597.30±0.6193.30±0.52
    M(51混合特征)99.33±1.2597.33±0.4995.33±0.49
    F(20长度特征)75.33±2.8786.67±1.1973.33±1.67
    F(195长度特征)80.67±1.1490.67±1.2972.00±1.43
    F(250角度特征)90.00±1.1090.67±0.8866.67±1.08
    F(400角度特征)89.33±0.8593.33±1.3086.00±0.73
    F(51混合特征)90.67±0.9495.33±0.7692.00±0.89
    下载: 导出CSV 
    | 显示表格

    本文利用流形学习分析研究中国三个民族人脸几何特征, 分析分布规律和结构.首先从体质人类学采用的测量指标入手, 验证了传统经验构建的低维几何描述难以形成按不同民族语义特征描述的子流形结构.为了进一步研究人脸几何特征是否存在按民族语义分布的子流形结构, 本文扩充了人脸几何特征维度, 并利用mRMR算法对人脸中的冗余几何特征进行筛选, 在降维后的长度、角度和比例特征中分析不同民族人脸特征的流形结构, 实验结果表明, 民族人脸数据在子空间内可按民族语义形成流形结构, 且采用该指标体系可以有效地对不同民族人脸进行分类和识别.

    本文的主要工作包括: 1)通过实验验证了人脸特征具有按民族语义分布的流形结构; 2)提出了一种筛选和分析不同民族人脸几何特征差异的算法框架; 3)提出了一套丰富和补充体质人类学指标的人脸民族几何特征测量指标集合.

    本文研究得到以下人脸民族特征的数据结论: 1)人脸的比例特征相比于长度和角度是较为重要的人脸民族特征描述指标; 2)嘴部和脸型对于人脸民族特征影响较小; 3)眼部、鼻部和眉部区域对于人脸民族特征影响较大, 占85 %权重; 4)鼻翼和眉眼距是最为重要的人脸民族语义指标.

    此外, 本文提出的多民族人脸特征分析和筛选及流形分析方法可以对其他不同民族人脸特征研究进行推广.人脸民族特征分析和体质人类学者可以根据这种方法来深入分析不同民族之间的差异特征, 并可以扩充数据集, 研究不同民族样本数据集下人脸几何特征的流形结构分布.


  • 本文责任编委 朱军
  • 图  1  实值多变量维数约简算法分类

    Fig.  1  Taxonomy of real-valued multivariate dimension reduction algorithms

    图  2  矩阵流形优化示意图

    Fig.  2  Illustration of matrix manifold optimization

    表  1  基于互信息的降维算法对比

    Table  1  Comparison of mutual information-based dimension reduction algorithms

    目标函数 条件独立性 代表方法 解释
    $\min_{{B}} {\rm E}_U \left[\mathbb{I}({Y|U};{V|U}) \right]$ ${Y}╨{V}|{U}$ KDR[32-33] 去掉$X$中与$Y$独立的一些特征, 也就是说这些特征对$Y$的预测不提供任何信息
    $\max_{{B}} \mathbb{I}({Y};{U})$ ${Y}╨{X}|{U}$ LSDR[34-35]、MIDR[36] 从与$Y$相关的因素中寻找一个小的子空间或者子集, 不属于该子空间或者子集的特征, 虽然对$Y$的预测作出贡献, 但是在给定子空间或者子集后, 这部分信息不足以增加或改进对$Y$的预测能力
    下载: 导出CSV

    表  2  实值多变量维数约简算法总结

    Table  2  Summary of real-valued multivariate dimension reduction algorithms

    算法 响应变量 求解类型 分布假设 统计矩 模型选取 回归方式 #参数 参数列表
    SIR[23] 一元 解析解 椭圆对称 一阶 逆回归 1 切片数$h$
    SAVE[26] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    SIRII[49] 一元 解析解 椭圆对称 二阶 逆回归 1 $h$
    pHd[25] 一元 解析解 正态分布 二阶 - 正回归 0 -
    DR[27] 一元 解析解 渐进正态 二阶 逆回归 1 $h$
    PFC[28] 一元 解析解 模型假设 模型相关 逆回归 1 次数$r$
    KDR[33] 多元 非凸优化 无穷 正回归 3 带宽$\sigma_x, \sigma_y$, $\epsilon$
    LSDR[35] 多元 非凸优化 无穷 交叉验证 正回归 4 $\sigma_x, \sigma_y$, $\lambda$, $b$
    MIDR[36] 多元 非凸优化 无穷 - 正回归 0 -
    HSIC[37] 多元 非凸优化 无穷 正回归 2 $\sigma_x, \sigma_y$
    DCOV[38] 多元 非凸优化 二阶 - 正回归 0 -
    gKDR[40] 多元 解析解 无穷 正回归 3 $\sigma_x, \sigma_y, \epsilon$
    LSGDR[41] 多元 解析解 无穷 交叉验证 正回归 $2D+1$ $\{\sigma_x^{(j)}, \lambda^{(j)}\}_{j=1}^D, \sigma_y$
    KSIR[42] 一元 解析解 无穷 逆回归 2 $\sigma_x$, $h$
    COIR[8] 多元 解析解 无穷 逆回归 3 $\sigma_x, \sigma_y, \epsilon$
    下载: 导出CSV

    表  3  基于广义特征值求解的实值多变量维约简算法估计量

    Table  3  Estimation of generalized eigen-decomposition-based multivariate dimension reduction algorithms

    方法 (样本)估计量${M}$
    SIR[23] ${\rm E}\Big[{\rm E}(Z|Y){\rm E}(Z|Y)^{\rm T}\Big] $
    SAVE[26] ${\rm E}\Big[{I}-{\rm var}(Z|Y)\Big]^2$
    SIRII[49] ${\rm E}\Big[{\rm var}(Z|Y)-{\rm E}({\rm var}(Z|Y))\Big]^2$
    pHd[25] ${\rm E}\Big[(Y-E Y)ZZ^{\rm T}\Big]^2$
    DR[27] $2{\rm E}\Big[E^2(ZZ^{\rm T}|Y)\Big]+ 2E^2\Big[{\rm E}(Z|Y){\rm E}(Z^{\rm T}|Y)\Big]+$
    $ 2{\rm E}\Big[{\rm E}(Z^{\rm T}|Y){\rm E}(Z|Y)\Big]{\rm E}\Big[{\rm E}(Z|Y) {\rm E}(Z^{\rm T}|Y)\Big]\!-\!2{I}$
    PFC[28] $\frac{1}{n}\widehat{{X}}^{\rm T}\widehat{{X}}$
    gKDR[40] $ \big\langle \frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}, \Sigma_{XX}^{-1}\Sigma_{XY}\Sigma_{YX}\Sigma_{XX}^{-1}\frac{\partial \kappa_x(\cdot, {\pmb x})}{\partial {\pmb x}}\big\rangle_{\mathcal{H}_x}$
    LSGDR[41] $ {\rm E}({{\pmb g}}(y, {\pmb x}){{\pmb g}}(y, {\pmb x})^{\rm T})$
    KSIR[42] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    COIR[8] ${\rm var}({\rm E}[{ \pmb \phi}({\pmb x})|y])$
    下载: 导出CSV

    表  4  通过矩阵流形优化的降维算法的总结

    Table  4  Summary of matrix manifold optimization-based dimension reduction algorithms

    算法 目标函数$f({B})$ 欧式空间梯度$\nabla_{{B}} f$ 对应的权值矩阵${W}$
    KDR[33] ${\rm{tr}}[{\overline{K}}_Y({\overline{K}}_U+n\epsilon {I}_n)^{-1}]$ $\frac{2}{\sigma^2}{X}{L}_{{\rm{KDR}}}{X}^{\rm T}{B}$ $\begin{array}{rl} {W}_{hrm{KDR}} &\!\!\!\!\!\!\!={H}{\Omega}{H}\odot{K}_U\\ {\Omega} &\!\!\!\!\!\!\!= {M}^{-1}{H}{K}_Y{H}{M}^{-1} \\ {M} &\!\!\!\!\!\!\!= {H}{K}_U{H}+n \epsilon {I} \end{array}$
    LSDR[35] $\frac{1}{2}{\hat{\pmb{\alpha}}}^{\rm T}{\widehat{H}}{\hat{\pmb{\alpha}}}- \widehat{\pmb{h}}^{\rm T}\widehat{\pmb{\alpha}}$ 不存在解析形式梯度 无拉普拉斯形式
    MIDR[36] $\begin{array}{ll}&\frac{d+1}{n(n-1)}\sum_{i\neq j}\log(\left\| {({\pmb x}_i- {\pmb x}_j){B}} \right\|^2+\left\| {y_i-y_j} \right\|^2)-\\ &\frac{d}{n(n-1)}\sum_{i\neq j}\log\left\| {({\pmb x}_i-{\pmb x}_j){B}} \right\| ^2\end{array}$ $-\frac{4}{n(n-1)} {X}{L}_{{\rm{MIDR}}}{X}^{\rm T}{B}$ $\begin{array}{rl}&{W}_{hrm{MIDR}}=\frac{d}{{D}_X\!\odot\!{D}_X}- \\ &\frac{d+1}{({D}_X\!\odot\!{D}_X\!+\!{D}_Y\!\odot\!{D}_Y)}\end{array}$
    HSIC[37] $-\frac{1}{(n-1)^2}\textrm{tr}\big[{K}_U{H}{K}_Y {H}\big]$ $\frac{2}{\sigma^2(n-1)^2}{X}{L}_{{\rm{HSIC}}}{X}^{\rm T}{B}$ ${W}_{{\rm{HSIC}}} = {H}{K}_Y{H}\odot{K}_U$
    DCOV[38] $-\frac{1}{n^2}{\rm{tr}}\big[{\overline{D}}_U{\overline{D}}_Y\big]$ $-\frac{2}{n^2}{X}{L}_{{\rm{DCOV}}}{X}^{\rm T}{B}$ ${W}_{{\rm{DCOV}}} = \frac{{H}{D}_Y{H}}{{D}_U}$
    下载: 导出CSV
  • [1] Jolliffe I. Principal Component Analysis. New York:Wiley Online Library, 2002.
    [2] Hotelling H. Analysis of a complex of statistical variables into principal components. Journal of Educational Psychology, 1993, 24 (6):417-441 http://www.docin.com/p-238815088.html
    [3] Roweis S T, Saul L K. Nonlinear dimensionality reduction by locally linear embedding. Science, 2000, 290 (5500):2323-2326 doi: 10.1126/science.290.5500.2323
    [4] Tenenbaum J B, Silva V D, Langford J C. A global geometric framework for nonlinear dimensionality reduction. Science, 2000, 290 (5500):2319-2323 doi: 10.1126/science.290.5500.2319
    [5] Fisher R A. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 1936, 7 (2):179-188 https://www.bibsonomy.org/bibtex/2c9d8d78a8e1bb5adecc7602490f4323f/gromgull
    [6] Mika S, Ratsch G, Weston J, Schölkopft B, Mullert K R. Fisher discriminant analysis with kernels. In: Proceeding of the 1999 IEEE Signal Processing Society on Neural Networks for Signal Processing Ⅸ. Madison, WI, USA, USA: IEEE, 1999. 41-48 http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=788121
    [7] Kulis B. Metric learning:a survey. Foundations and Trends in Machine Learning, 2012, 5 (4):287-364 https://www.cs.cmu.edu/~liuy/frame_survey_v2.pdf
    [8] Kim M, Pavlovic V. Central subspace dimensionality reduction using covariance operators. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33 (4):657-670 doi: 10.1109/TPAMI.2010.111
    [9] Tan B, Zhang J P, Wang L. Semi-supervised elastic net for pedestrian counting. Pattern Recognition, 2011, 44 (10-11):2297-2304 doi: 10.1016/j.patcog.2010.10.002
    [10] Zhang J P, Tan B, Sha F, He L. Predicting pedestrian counts in crowded scenes with rich and high-dimensional features. IEEE Transactions on Intelligent Transportation Systems, 2011, 12 (4):1037-1046 https://www.researchgate.net/profile/Junping_Zhang/publication/220109419_Predicting_Pedestrian_Counts_in_Crowded_Scenes_With_Rich_and_High-Dimensional_Features/links/0deec53b629366a5b6000000.pdf?inViewer=true&pdfJsDownload=true&disableCoverPage=true&origin=publication_detail
    [11] Kim M Y, Pavlovic V. Dimensionality reduction using covariance operator inverse regression. In: Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, AK, USA: IEEE, 2008. 1-8 http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4587404
    [12] Zhang J P, Wang F Y, Wang K F, Lin W H, Xu X, Chen C. Data-driven intelligent transportation systems:a survey. IEEE Transactions on Intelligent Transportation Systems, 2011, 12 (4):1037-1046 doi: 10.1109/TITS.2011.2132759
    [13] Zhu H J, Li L X. Biological pathway selection through nonlinear dimension reduction. Biostatistics, 2011, 12 (3):429-444 doi: 10.1093/biostatistics/kxq081
    [14] Zhu H J, Li L X, Zhou H. Nonlinear dimension reduction with Wright-Fisher kernel for genotype aggregation and association mapping. Bioinformatics, 2012, 28 (18):i375-i381 doi: 10.1093/bioinformatics/bts406
    [15] Shan H M, Zhang J P, Kruger U. Learning linear representation of space partitioning trees based on unsupervised kernel dimension reduction. IEEE Transactions on Cybernetics, 2016, 46 (12):3427-3438 doi: 10.1109/TCYB.2015.2507362
    [16] Bishop C M. Pattern Recognition and Machine Learning. New York:Springer, 2006.
    [17] Caruana R. Multitask learning. Machine Learning, 1997, 28 (1):41-75 doi: 10.1023/A:1007379606734
    [18] Tsoumakas G, Katakis I. Multi-label classification:an overview. International Journal of Data Warehousing and Mining, 2007, 3 (3):1-13 doi: 10.4018/IJDWM
    [19] Tipping M E. Sparse Bayesian learning and the relevance vector machine. Journal of Machine Learning Research, 2001, 1:211-244 https://dl.acm.org/citation.cfm?id=944741
    [20] 王卫卫, 李小平, 冯象初, 王斯琪.稀疏子空间聚类综述.自动化学报, 2015, 41 (8):1373-1384 http://www.aas.net.cn/CN/abstract/abstract18712.shtml

    Wang Wei-Wei, Li Xiao-Ping, Feng Xiang-Chu, Wang Si-Qi. A survey on sparse subspace clustering. Acta Automatica Sinica, 2015, 41 (8):1373-1384 http://www.aas.net.cn/CN/abstract/abstract18712.shtml
    [21] Koller D, Friedman N. Probabilistic Graphical Models:Principles and Techniques. Massachusetts:MIT Press, 2009.
    [22] 刘建伟, 黎海恩, 罗雄麟.概率图模型学习技术研究进展.自动化学报, 2014, 40 (6):1025-1044 http://www.aas.net.cn/CN/abstract/abstract18373.shtml

    Liu Jian-Wei, Li Hai-En, Luo Xiong-Lin. Learning technique of probabilistic graphical models:a review. Acta Automatica Sinica, 2014, 40 (6):1025-1044 http://www.aas.net.cn/CN/abstract/abstract18373.shtml
    [23] Li K C. Sliced inverse regression for dimension reduction. Journal of the American Statistical Association, 1991, 86 (414):316-327 doi: 10.1080/01621459.1991.10475035
    [24] Chiaromonte F, Cook R D. Sufficient dimension reduction and graphics in regression. Annals of the Institute of Statistical Mathematics, 2002, 54 (4):768-795 doi: 10.1023/A:1022411301790
    [25] Li K C. On principal Hessian directions for data visualization and dimension reduction:another application of Stein's lemma. Journal of the American Statistical Association, 1992, 87 (420):1025-1039 doi: 10.1080/01621459.1992.10476258
    [26] Cook R D, Weisberg S. Sliced inverse regression for dimension reduction:comment. Journal of the American Statistical Association, 1991, 86 (414):328-332 http://citeseerx.ist.psu.edu/showciting?cid=2673643
    [27] Li B, Wang S L. On directional regression for dimension reduction. Journal of the American Statistical Association, 2007, 102 (479):997-1008 doi: 10.1198/016214507000000536
    [28] Cook R D. Fisher lecture:dimension reduction in regression. Statistical Science, 2007, 22 (1):1-26 doi: 10.1214/088342306000000682
    [29] Cook R D, Forzani L. Principal fitted components for dimension reduction in regression. Statistical Science, 2008, 23 (4):485-501 doi: 10.1214/08-STS275
    [30] Cook R D, Forzani L. Likelihood-based sufficient dimension reduction. Journal of the American Statistical Association, 2009, 104 (485):197-208 doi: 10.1198/jasa.2009.0106
    [31] Bach F R, Jordan M I. Kernel independent component analysis. Journal of Machine Learning Research, 2002, 3:1-48
    [32] Fukumizu K, Bach F R, Jordan M I. Dimensionality reduction for supervised learning with reproducing kernel Hilbert spaces. Journal of Machine Learning Research, 2004, 5:73-99 http://www.ams.org/mathscinet-getitem?mr=2247974
    [33] Fukumizu K, Bach F R, Jordan M I. Kernel dimension reduction in regression. The Annals of Statistics, 2009, 37 (4):1871-1905 doi: 10.1214/08-AOS637
    [34] Suzuki T, Sugiyama M. Sufficient dimension reduction via squared-loss mutual information estimation. In Proceedings of International Conference on Artificial Intelligence and Statistics, Chia Laguna Resort, Sardinia, Italy, 2010, 9:804-811 https://www.researchgate.net/profile/Masashi_Sugiyama/publication/220320963_Sufficient_Dimension_Reduction_via_Squared-loss_Mutual_Information_Estimation/links/0fcfd51196d6b08046000000.pdf?origin=publication_detail
    [35] Suzuki T, Sugiyama M. Sufficient dimension reduction via squared-loss mutual information estimation. Neural Computation, 2013, 25 (3):725-758 doi: 10.1162/NECO_a_00407
    [36] Faivishevsky L, Goldberger J. Dimensionality reduction based on non-parametric mutual information. Neurocomputing, 2012, 80:31-37 doi: 10.1016/j.neucom.2011.07.028
    [37] Wang M H, Sha F, Jordan M I. Unsupervised kernel dimension reduction. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada, 2010. 2379-2387
    [38] Sheng W H, Yin X R. Sufficient dimension reduction via distance covariance. Journal of Computational and Graphical Statistics, 2016, 25 (1):91-104 doi: 10.1080/10618600.2015.1026601
    [39] Fukumizu K, Leng C L. Gradient-based kernel method for feature extraction and variable selection. In: Proceedings of the Advances in Neural Information Processing Systems. Lake Tahoe, Nevada, 2012. 2114-2122 https://www.researchgate.net/publication/287550602_Gradient-based_kernel_method_for_feature_extraction_and_variable_selection
    [40] Fukumizu K, Leng C L. Gradient-based kernel dimension reduction for regression. Journal of the American Statistical Association, 2014, 109 (505):359-370 doi: 10.1080/01621459.2013.838167
    [41] Sasaki H, Tangkaratt V, Sugiyama M. Sufficient dimension reduction via direct estimation of the gradients of logarithmic conditional densities. In: Proceedings of the 7th Asian Conference on Machine Learning. Hong Kong, China: PMLR, 2015. 33-48 http://europepmc.org/abstract/MED/29162006
    [42] Wu H M. Kernel sliced inverse regression with applications to classification. Journal of Computational and Graphical Statistics, 2012, 17 (3):590-610 doi: 10.1198/106186008X345161
    [43] Li L X. Sparse sufficient dimension reduction. Biometrika, 2007, 94 (3):603-613 doi: 10.1093/biomet/asm044
    [44] Chen X, Zou C L, Cook R D. Coordinate-independent sparse sufficient dimension reduction and variable selection. The Annals of Statistics, 2010, 38 (6):3696-723 doi: 10.1214/10-AOS826
    [45] Nilsson J, Sha F, Jordan M I. Regression on manifolds using kernel dimension reduction. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 697-704 http://dl.acm.org/citation.cfm?id=1273584
    [46] Shyr A, Urtasun R, Jordan M I. Sufficient dimension reduction for visual sequence classification. In: Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, California, USA: IEEE, 2010. 3610-3617 http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=5539922
    [47] Cook R D. On the interpretation of regression plots. Journal of the American Statistical Association, 1994, 89 (425):177-189 doi: 10.1080/01621459.1994.10476459
    [48] Cook R D. Using dimension-reduction subspaces to identify important inputs in models of physical systems. In: Proceedings of the Section on Physical and Engineering Sciences. 1994. 18-25 https://www.researchgate.net/publication/313634045_Using_dimension-reduction_subspaces_to_identify_important_inputs_in_models_of_physical_systems
    [49] Li K C. Sliced inverse regression for dimension reduction:rejoinde. Journal of the American Statistical Association, 1991, 86 (414):337-342
    [50] Harrison D, Rubinfeld D L. Hedonic housing prices and the demand for clean air. Journal of Environmental Economics and Management, 1978, 5 (1):81-102 https://ideas.repec.org/r/eee/jeeman/v5y1978i1p81-102.html
    [51] Stein C M. Estimation of the mean of a multivariate normal distribution. The Annals of Statistics, 1981, 9 (6):1135-1151 doi: 10.1214/aos/1176345632
    [52] Li K C, Lue H H, Chen C H. Interactive tree-structured regression via principal Hessian directions. Journal of the American Statistical Association, 2000, 95 (450):547-560 doi: 10.1080/01621459.2000.10474231
    [53] Gannoun A, Saracco J. An asymptotic theory for SIR α method. Statistica Sinica, 2003, 13:297-310 https://www.researchgate.net/publication/265359288_An_asymptotic_theory_for_SIR_a_method
    [54] Ye Z S, Weiss R E. Using the bootstrap to select one of a new class of dimension reduction methods. Journal of the American Statistical Association, 2003, 98 (464):968-979 doi: 10.1198/016214503000000927
    [55] Li B, Zha H Y, Chiaromonte F. Contour regression:a general approach to dimension reduction. The Annals of Statistics, 2005, 33 (4):1580-1616 doi: 10.1214/009053605000000192
    [56] Tipping M E, Bishop C M. Probabilistic principal component analysis. Journal of the Royal Statistical Society:Series B (Statistical Methodology), 1999, 61 (3):611-622 doi: 10.1111/rssb.1999.61.issue-3
    [57] Cook R D, Forzani L M, Tomassi D R. LDR:a package for likelihood-based sufficient dimension reduction. Journal of Statistical Software, 2011, 39 (3):1-20 https://www.researchgate.net/profile/Kofi_Adragni/publication/279335077_ldr_An_R_Software_Package_for_Likelihood-Based_Sufficient_Dimension_Reduction/links/578c764208ae59aa667c5320/ldr-An-R-Software-Package-for-Likelihood-Based-Sufficient-Dimension-Reduction.pdf
    [58] Baker C R. Joint measures and cross-covariance operators. Transactions of the American Mathematical Society, 1973, 186:273-289 doi: 10.1090/S0002-9947-1973-0336795-3
    [59] Absil P A, Mahony R, Sepulchre R. Optimization Algorithms on Matrix Manifolds. Princeton:Princeton University Press, 2009.
    [60] Zhang K, Tsang I W, Kwok J T. Improved Nystr öm low-rank approximation and error analysis. In: Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland: ACM, 2008. 1232-1239 http://dl.acm.org/citation.cfm?id=1390311
    [61] Sugiyama M, Suzuki T, Kanamori T. Density Ratio Estimation in Machine Learning. Cambridge:Cambridge University Press, 2012.
    [62] Nguyen X, Wainwright M J, Jordan M I. Estimating divergence functionals and the likelihood ratio by penalized convex risk minimization. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, Canada: ACM, 2008. 1089-1096
    [63] Yamada M, Niu G, Takagi G, Sugiyama M. Computationally efficient sufficient dimension reduction via squared-loss mutual information. In: Proceedings of the 3rd Asian Conference on Machine Learning. Canberra, Australia: ACML, 2011. 247-262 https://www.researchgate.net/publication/215705073_Computationally_Efficient_Sufficient_Dimension_Reduction_via_Squared-Loss_Mutual_Information?ev=auth_pub
    [64] Faivishevsky L, Goldberger J. ICA based on a smooth estimation of the differential entropy. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, British Columbia, Canada: ACM, 2009. 433-440 https://www.researchgate.net/publication/221618225_ICA_based_on_a_Smooth_Estimation_of_the_Differential_Entropy
    [65] Faivishevsky L, Goldberger J. Nonparametric information theoretic clustering algorithm. In: Proceedings of the 27th International Conference on Machine Learning. Haifa, Israel: ICML, 2010. 351-358
    [66] Loftsgaarden D O, Quesenberry C P. A nonparametric estimate of a multivariate density function. The Annals of Mathematical Statistics, 1965, 36 (3):1049-1051 doi: 10.1214/aoms/1177700079
    [67] Gretton A, Smola A J, Bousquet O, Herbrich R, Belitski A, Augath M, Murayama Y, Pauls J, Sch ölkopf B, Logothetis N K. Kernel constrained covariance for dependence measurement. In: Proceedings of the 10th International Workshop on Artificial Intelligence and Statistics. Barbados, 2005. 1-8 https://www.researchgate.net/publication/41781419_Kernel_Constrained_Covariance_for_Dependence_Measurement
    [68] Gretton A, Bousquet O, Smola A, Sch ölkopf B. Measuring statistical dependence with Hilbert-Schmidt norms. In: Proceedings of the 16th International Conference on Algorithmic Learning Theory. Berlin, Heidelberg: Springer-Verlag, 2005. 63-77 doi: 10.1007/11564089_7
    [69] Sz ékely G J, Rizzo M L, Bakirov N K. Measuring and testing dependence by correlation of distances. The Annals of Statistics, 2007, 35 (6):2769-2794 doi: 10.1214/009053607000000505
    [70] Zhang Y, Zhou Z H. Multi-label dimensionality reduction via dependence maximization. ACM Transactions on Knowledge Discovery from Data, 2010, 4 (3):Article No.14 https://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/tkdd10mddm.pdf
    [71] Song L, Smola A, Gretton A, Borgwardt K M. A dependence maximization view of clustering. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 815-822 http://dl.acm.org/citation.cfm?id=1273599
    [72] Blaschko M, Gretton A. Learning taxonomies by dependence maximization. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, B. C., Canada, 2009. 153-160 https://www.researchgate.net/publication/41782196_Learning_Taxonomies_by_Dependence_Maximization
    [73] Song L, Smola A, Gretton A, Bedo J, Borgwardt K. Feature selection via dependence maximization. The Journal of Machine Learning Research, 2012, 13 (1):1393-1434 https://dl.acm.org/citation.cfm?id=2343691
    [74] Quadrianto N, Song L, Smola A J. Kernelized sorting. In: Proceedings of the Advances in neural information processing systems. Vancouver, B. C., Canada, 2009. 1289-1296
    [75] Quadrianto N, Smola A J, Song L, Tuytelaars T. Kernelized sorting. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32 (10):1809-1821 doi: 10.1109/TPAMI.2009.184
    [76] Sun X H, Janzing D, Sch ölkopf B, Fukumizu K. A kernel-based causal learning algorithm. In: Proceedings of the 24th International Conference on Machine Learning. Corvalis, Oregon, USA: ACM, 2007. 855-862
    [77] Li R Z, Zhong W, Zhu L P. Feature screening via distance correlation learning. Journal of the American Statistical Association, 2012, 107 (499):1129-1139 doi: 10.1080/01621459.2012.695654
    [78] Vepakomma P, Tonde C, Elgammal A. Supervised dimensionality reduction via distance correlation maximization. arXiv: 1601. 00236, 2016. http://arxiv.org/abs/1601.00236
    [79] Sz ékely G J, Rizzo M L. Brownian distance covariance. The Annals of Applied Statistics, 2009, 3 (4):1236-1265 doi: 10.1214/09-AOAS312
    [80] Sejdinovic D, Sriperumbudur B, Gretton A, Fukumizu K. Equivalence of distance-based and RKHS-based statistics in hypothesis testing. The Annals of Statistics, 2013, 41 (5):2263-2291 doi: 10.1214/13-AOS1140
    [81] Fukumizu K, Gretton A, Sun X H, Sch ölkopf B. Kernel measures of conditional dependence. In: Proceedings of the Advances in Neural Information Processing Systems. Vancouver, British Columbia, Canada: Curran Associates Inc., 2007. 489-496
    [82] P óczos B, Ghahramani Z, Schneider J G. Copula-based kernel dependencymeasures. In: Proceedings of the 29th International Conference on Machine Learning. Edinburgh, Scotland: ICML, 2012. 1635-1642 http://www.oalib.com/paper/4033144
    [83] Schweizer B, Wolff E F. On nonparametric measures of dependence for random variables. The Annals of Statistics, 1981, 9 (4):879-885 doi: 10.1214/aos/1176345528
    [84] Steinwart I, Christmann A. Support Vector Machines. Berlin, Heidelberg:Springer Science & Business Media, 2008.
    [85] Kim M Y, Pavlovic V. Covariance operator based dimensionality reduction with extension to semi-supervised settings. In: Proceedings of the 12th International Conference on Artificial Intelligence and Statistics. Varna, Bulgaria: Springe, 2009. 280-287 https://www.researchgate.net/publication/220319841_Covariance_Operator_Based_Dimensionality_Reduction_with_Extension_to_Semi-Supervised_Settings
    [86] Zou H, Hastie T, Tibshirani R. Sparse principal component analysis. Journal of Computational and Graphical Statistics, 2006, 15 (2):265-286 doi: 10.1198/106186006X113430
    [87] Cunningham J P, Ghahramani Z. Linear dimensionality reduction:Survey, insights, and generalizations. Journal of Machine Learning Research, 2015, 16:2859-2900 https://arxiv.org/abs/1406.0873
    [88] Fan K, Hoffman A J. Some metric inequalities in the space of matrices. Proceedings of the American Mathematical Society, 1995, 6 (1):111-116 doi: 10.1142/9789812796936_0012
    [89] Kaneko T, Fiori S, Tanaka T. Empirical arithmetic averaging over the compactStiefel manifold. IEEE Transactions on Signal Processing, 2013, 61 (4):883-894 doi: 10.1109/TSP.2012.2226167
    [90] Cook R D, Yin X R. Theory & methods:special invited paper:dimension reduction and visualization in discriminant analysis (with discussion). Australian & New Zealand Journal of Statistics, 2001, 43 (2):147-199 doi: 10.1146/annurev.psych.52.1.1
    [91] Zhu Y, Zeng P. Fourier methods for estimating the central subspace and the central mean subspace in regression. Journal of the American Statistical Association, 2006, 101 (476):1638-1651 doi: 10.1198/016214506000000140
    [92] Davies A C, Yin J H, Velastin S A. Crowd monitoring using image processing. Electronics & Communication Engineering Journal, 1995, 7 (1):37-47 https://www.researchgate.net/publication/3364407_Crowd_monitoring_using_image_processing
    [93] Cho S Y, Chow T W, Leung C T. A neural-based crowd estimation by hybrid global learning algorithm. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1999, 29 (4):535-541 doi: 10.1109/3477.775269
    [94] 时增林, 叶阳东, 吴云鹏, 娄铮铮.基于序的空间金字塔池化网络的人群计数方法.自动化学报, 2016, 42(6):866-874 http://www.aas.net.cn/CN/abstract/abstract18877.shtml

    Shi Zeng-Lin, Ye Yang-Dong, Wu Yun-Peng, Lou Zheng-Zheng. Crowd counting using rank-based spatial pyramid pooling network. Acta Automatica Sinica, 2016, 42 (6):866-874 http://www.aas.net.cn/CN/abstract/abstract18877.shtml
    [95] Dasgupta S, Freund Y. Random projection trees and low dimensional manifolds. In: Proceedings of the 40th Annual ACM Symposium on Theory of Computing. Victoria, British Columbia, Canada: ACM, 2008. 537-546 http://dl.acm.org/citation.cfm?id=1374452
  • 期刊类型引用(5)

    1. 何星辰,郭勇,李奇龙,高唱. 基于深度学习的抗年龄干扰人脸识别. 自动化学报. 2022(03): 877-886 . 本站查看
    2. 于晓童,任甫. 几何形态测量法在人类颅面形态研究中的应用. 沈阳医学院学报. 2021(01): 1-4 . 百度学术
    3. 张克博. 审美位移与现代化重构——动画影片《姜子牙》角色设计的几点思考. 大观. 2021(03): 3-4 . 百度学术
    4. 山笑珂,张炳林. 利用改进深度信念网络的人脸表情识别. 计算机工程与设计. 2021(07): 2052-2060 . 百度学术
    5. 杜宇浩,阎高伟,李荣,王芳. 基于局部线性嵌入的测地线流式核多工况软测量建模方法. 化工学报. 2020(03): 1278-1287 . 百度学术

    其他类型引用(9)

  • 加载中
  • 图(2) / 表(4)
    计量
    • 文章访问数:  3316
    • HTML全文浏览量:  397
    • PDF下载量:  1481
    • 被引次数: 14
    出版历程
    • 收稿日期:  2016-12-08
    • 录用日期:  2017-06-12
    • 刊出日期:  2018-02-20

    目录

    /

    返回文章
    返回