2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

Rademacher复杂度在统计学习理论中的研究

吴新星 张军平

刘展杰, 陈晓云. 局部子空间聚类. 自动化学报, 2016, 42(8): 1238-1247. doi: 10.16383/j.aas.2016.c150335
引用本文: 吴新星, 张军平. Rademacher复杂度在统计学习理论中的研究. 自动化学报, 2017, 43(1): 20-39. doi: 10.16383/j.aas.2017.c160149
LIU Zhan-Jie, CHEN Xiao-Yun. Local Subspace Clustering. ACTA AUTOMATICA SINICA, 2016, 42(8): 1238-1247. doi: 10.16383/j.aas.2016.c150335
Citation: WU Xin-Xing, ZHANG Jun-Ping. Researches on Rademacher Complexities in Statistical Learning Theory: A Survey. ACTA AUTOMATICA SINICA, 2017, 43(1): 20-39. doi: 10.16383/j.aas.2017.c160149

Rademacher复杂度在统计学习理论中的研究

doi: 10.16383/j.aas.2017.c160149
基金项目: 

上海浦江人才计划 16PJD009

国家自然科学基金 61673118, 61273299

上海市人才发展资金 201629

详细信息
    作者简介:

    吴新星 复旦大学计算机科学技术学院访问学者,上海电子信息职业技术学院计算机应用系副教授.主要研究方向为统计学习理论与形式化方法.E-mail:xinxingwu@yeah.net

    通讯作者:

    张军平 复旦大学计算机科学技术学院教授.主要研究方向为机器学习,智能交通,生物认证与图像处理.本文通信作者.E-mail:jpzhang@fudan.edu.cn.

Researches on Rademacher Complexities in Statistical Learning Theory: A Survey

Funds: 

Shanghai Pujiang Program 16PJD009

Supported by National Natural Science Foundation of China 61673118, 61273299

and Shanghai Talents Development Funds 201629

More Information
    Author Bio:

    WU Xin-Xing Visiting scholar at the School of Computer Science, Fu-dan University, associate professor in the Department of Computer, Shanghai Technical Insti-tute of Electronics and Information. His research interest covers statistical learning theory and formal methods.

    Corresponding author: ZHANG Jun-Ping Professor at the School of Computer Science, Fudan University. His research interest cov-ers machine learning, intelligent trans- portation systems, biometric authentication, and image processing. Corresponding author of this paper.. E-mail:jpzhang@fudan.edu.cn.
  • 摘要: 假设空间复杂性是统计学习理论中用于分析学习模型泛化能力的关键因素.与数据无关的复杂度不同,Rademacher复杂度是与数据分布相关的,因而通常能得到比传统复杂度更紧致的泛化界表达.近年来,Rademacher复杂度在统计学习理论泛化能力分析的应用发展中起到了重要的作用.鉴于其重要性,本文梳理了各种形式的Rademacher复杂度及其与传统复杂度之间的关联性,并探讨了基于Rademacher复杂度进行学习模型泛化能力分析的基本技巧.考虑样本数据的独立同分布和非独立同分布两种产生环境,总结并分析了Rademacher复杂度在泛化能力分析方面的研究现状.展望了当前Rademacher复杂度在非监督框架与非序列环境等方面研究的不足,及其进一步应用与发展.
  • 交通分布预测与交通方式划分预测是交通需求预测中的重要内容.目前,两种预测方法多采用基于数学模型的方法,根据调查研究的数据,构建数学模型来进行预测.例如交通分布预测中常见的双约束重力模型和美国公路局重力模型,以及交通方式划分预测中常见的NL (Nest logit)模型、MNL (Mutinominal logit)模型和Dogit模型等.但是数学模型所需的大量历史数据难以搜集,且其静态性也不能满足现在交通系统对相关预测的要求.另外,它们一般较少考虑社会个体的自主选择差异性(譬如个人心理偏好、喜好不同)以及真实世界的动态性和不确定性对个体出行选择的影响,难以对真实的交通分布与交通方式划分进行预测.

    一般来说,大型复杂系统的研究离不开个体的异质性以及系统的整体性和动态性.针对这一问题,Wang提出了面向复杂社会系统的ACP (Artificial systems,computational experiment,parallel execution)方法,通过构建人工社会、计算实验以及平行控制来解决社会系统的复杂性、实时性和动态性[1]. 目前,ACP方法中的计算实验已经应用到许多学科领域中[2-4],尤其在交通学领域进行了多方面的应用[5-9].交通系统是一个典型的多主体参与、时变的、复杂的、具有高度不确定性的大型复杂系统,交通需求的快速变化要求根据不同需求进行动态预测.在对交通领域的研究中,基于ACP方法的优越性已得到多方证明,但在交通需求预测,尤其是交通分布预测和交通方式划分预测方面,基于ACP方法的应用仍然较少.由于ACP方法中的计算实验可以在人工社会的基础上设计和执行容易控制和重复的可控实验,并且还能评估和定性定量分析社会计算问题中的不同影响因素,于是我们提出一种基于计算实验的公共交通需求预测方法.

    基于计算实验方法的基础是人工社会的构建,目前在人工社会建模中,最为流行的方法是自底向上的基于Agent的建模方法.在人工交通系统的建模中它也有多种应用[10-15].由于西方国家主要的出行交通方式为开车,所以目前在人工交通系统建模中,大量的研究工作都针对于“司机-车辆”结构体的行为进行建模[10-13],针对于出行个体行为的研究较少.然而,在中国,人们最为重要的出行方式仍然为公共交通,故对出行个体的行为研究是必不可少的.另外,大多数基于Agent的研究工作中对出行个体的建模往往基于纯数学模型[16],类似文献[17] 中用到的逻辑建模方法很难见到.交通出行分布和方式划分虽然是一个社会群体现象,但从微观上来看,是每个出行个体根据自身已有经验知识和外界信息,进行独立思考,自我判断并执行选择行为而造成的.异质性出行个体的思维状态和行为反应建模至关重要.然而,与个体选择行为相关的个体知识和属性,以及外界信息,很难单纯用数字化的形式表达,纯数学模型的应用在此方面受到限制.一种基于经验学习的出行个体建模方法已被提出,但其仍然缺少异质性个体在出行过程中思维和行为变化过程的推理演绎,常见的用于解决这一问题的方法有BDI(Belief-desire-intention)模型.BDI模型是一种基于形式化描述的逻辑模型,对定性与定量结合研究异质性个体出行过程中的思维反应过程有重要作用.基于BDI的Agent建模方法在交通管理系统[18-19]等领域中已有较为广泛的应用,但在交通需求预测方面还没有得到广泛应用.

    本文提出了一种基于计算实验的公共交通需求预测方法.余下部分的结构如下:第1节介绍了基于计算实验的公共交通预测方法的整体框架;第2节描述引入了BDI模型的基于Agent的人工交通系统建模方法;第3节描述了计算实验的设计和执行;第4节以华中科技大学校车系统为例,实现了基于计算实验的交通需求预测方法,验证了该方法的可行性和优越性,并针对多种不同的交通情景进行了交通需求预测;第5节为对基于计算实验方法在智能交通方面的结论和展望.

    基于计算实验的交通需求预测方法主要包括交通调查、人工交通系统(Artificial transportation system,ATS)的建模和计算实验3部分,其整体框架如图 1所示.

    图 1  基于计算实验的公共交通需求预测方法框架图
    Fig. 1  Framework of traffic demand forecast method based on computational experiments

    为了支持计算实验对人工交通系统的配置,我们首先对现实中的目标交通系统进行交通调查.为了深入地研究真实交通系统,我们的研究中引入了面向个体的交通调查.与传统的家访调查相比,我们采用的交通调查更加深入细致地调查其个体属性,例如个体出行的心理情绪状态等,以及个体在不同交通环境下对交通方式和路线的偏好.为了研究交通分布和方式划分的各影响因素,以及推演不同交通情境下异质性个体的出行偏好,我们制定了一份抽样问卷调查表,该调查问卷包括3部分:1) 自然因素,包括天气、空气质量、温度等;2) 人为因素,即个体属性,包括性别、收入、出行起讫点、出行目的、出行距离和时间、汽车等交通工具拥有情况、心理状况、情绪状态等;3) 交通环境因素,如交通路况、公交发车间隔、公交乘客容量、公交服务水平、各交通小区土地利用类型等.

    交通调查问卷按功能分为3部分:第一部分主要针对调查个体的属性,包括年龄、性别、职业、收入、交通工具拥有情况、心理情绪状态、出行目的、出行距离、出行时间等.第二部分研究一般情况(例如天气晴朗、温度适中、无重大活动)下,个体对交通方式或路线的偏好.最后一部分用于调查个体的出行行为和偏好如何随交通环境的变动而变化.交通环境可分为自然环境和社会环境两部分,其中自然环境包括天气、温度、天气质量等,社会环境包括重大活动的举行、公共交通服务(如票价、路况、发车时间间隔、乘车容量等).通过对收到的有效样本的数理统计分析,我们可以推理出具有各种不同属性的个体在不同情境下进行交通选择的一系列规则.

    通过一些特定的官方开放渠道,例如人口普查和学生信息管理系统,我们可以很容易地获取对各交通小区的交通生成量和吸引量,以及各类个体属性在出行人口中的分布.另外与传统交通调查相同的是,我们还需要统计出研究时间段内现实世界的出行交通起止点(Origin-destination,OD)表,以此支持对基于计算实验方法的预测结果的验证.

    人工交通系统和计算实验是不可分割的整体.其中ATS为计算实验提供支持,我们利用ATS,把计算机看作社会实验室,在ATS上设计并进行试验,通过计算实验定性定量分析各种情景下的人工系统,对人工系统中的交通分布和交通方式划分等指标进行预测.在涉及人与社会复杂性的ATS模型构建中,主要包括对以下3类主体的建模:

    1) 对出行个体的建模:宏观上包括由交通调查中获得的各交通小区的人口密度分布、具有各类属性的个体在总人口中的分布等,微观上包括个体的性别、收入、出行目的、汽车等交通工具拥有情况、心理状况、情绪状态等各种个体属性,以及由交通调查数据统计分析得出的个体出行习惯和偏好.借鉴文献[20]中出行个体所属社会阶级的设定方法,我们的研究中所涉及的个体属性分布是依据对现实世界的调研统计数据,基于概率分布随机对个体的属性值进行设定.

    2) 对公共交通工具的建模:由于本文主要研究行驶路线、发车时间、行车速度等固定的公共交通工具,不涉及司机对行车路线、换道的决策制定,故本文仅从宏观上考虑总交通工具数量、发车方式与时间间隔,微观上考虑交通工具的车辆类型、行驶路线、途经站点、方向、乘客容量等内在因素.

    3) 对交通环境的建模:交通环境分为自然环境和社会环境.自然环境包括公交行车路线的网络拓扑结构和季节、天气因素等.社会环境包括公交站点附近的人口密度、土地利用类型、经济发展状况、大型社会活动的举行、政府对公共交通的政策等.

    在人工交通系统的基础上,计算实验部分中我们将实现两种功能:1) 在与进行交通调查时相同的交通情境下对交通分布和交通方式划分进行预测,并对预测结果与调查所得的现实结果比较分析,以此验证基于计算实验的交通预测方法的可行性和优越性.2) 根据现实世界中可能面对的非正常状况,生成各种不同的实验情景,并对ATS进行相应的配置,利用计算实验在不同的交通情景下对交通需求进行预测.

    参与交通系统的主体包括出行个体、交通工具以及交通环境,在基于代理的人工交通系统中,分别对出行个体Agent、公共交通工具Agent以及交通环境进行建模.

    具有完整出行功能的出行个体Agent结构图如图 2所示.

    图 2  出行个体Agent的模型结构图
    Fig. 2  Structure of passenger agent

    交通系统中所有主体Agent组成一个整体,具有整体性,感知模块实现出行个体Agent与交通工具Agent、交通环境之间的信息交换作用.出行个体Agent会感知外部环境,如天气、交通地理信息等,同时会接受交通工具Agent共享的信息,如车型、车上剩余空位、发车时间间隔、出行路线等.决策模块的功能是根据个体的自身状态以及所有出行心理知识和规则,个体会自主推理出其对出行方式及路线选择的偏爱.决策模块的核心方法------BDI模型依赖于个体属性集、交通需求、行为规则库和外界信息的结合,它能实现在动态交通环境下的异质性个体对交通方式或路线选择的推断.决策模块中的属性集包括个体的年纪、性别、职业、收入、车辆拥有情况、情绪和心理状态等.出行个体的出行需求对其出行目的地、交通方式和路线的选择具有重要影响,它涉及个体的出行目的、出行距离、出行时间限制等.出行个体Agent的属性集和出行需求显示了个体的异质性.从公共交通工具Agent和交通环境得到的外界信息,例如公共交通服务、天气、社会活动等因素的改变,会影响个体关于是否出行、去哪个目的地、选择哪种交通方式或哪条路线等交通决定的制定.出行个体在面对不同的交通情景时往往会有自己习惯的交通行为,而交通调查得出的规则库的功能即为描述不同属性的出行个体在一般交通情境下和交通环境发生变化的情境下对交通方式或路线的偏好.根据推理出的决策,行为模块会执行相应的行动,例如,若个体选择出行方式为公交车,则会进入公交站点等待;当所选车次到达该站点,则触发上车行为;当到达目的站点时,触发下车行为并离开系统.每执行一次行动,会触发个体状态的转变,并且转而影响外部环境.我们将选择公共交通出行的个体从进入车站到到达目的车站的过程视为个体整个出行过程,个体在出行过程中的状态会发生变化,一般来说这些个体状态变化的过程为进入车站-等车-上车-在车上前行-等候下车-下车-到达目的车站,结束交通出行.

    出行个体Agent模型应包含以下几个模块:感知模块、决策模块、行为模块和状态转换模块.

    在决策模块中,我们提出用慎思型智能体的BDI模型实现出行个体出行方式及路线选择的推理过程,并阐述了个体思维属性之间的相互关系,以及意图修正、信念修正和愿望修正的关系,为探索出行个体思维状态的动态演化指出了方向.个体交通出行的BDI模型由信念模块、愿望模块、意图模块和计划库组成,其结构图如图 3所示.

    图 3  出行个体的BDI模型结构图
    Fig. 3  Structure of the BDI model of a passenger agent

    信念集是Agent对世界的认知,包括描述环境特性的数据和描述自身功能的数据,故信念世界包含个体在各种情况下的所有可能的交通选择.感知器的作用是实现个体对外界交通环境信息、其他Agent信息和自身状态信息的获取,并随着外界信息的变化动态更新个体Agent的信念集.信念集中的各种交通选择对应的行为将被存储在计划库中有待进一步选择.意见产生器会根据规则库中的规则来评估信念集中的各种交通选择是否能满足个体交通出行需求,并生成在当前交通情境下,满足该类个体特定交通需求的交通出行选择,这些交通出行选择组合成个体的愿望世界.意见筛选器则是根据个体Agent的心理偏好程度对交通方式或路线等做出最后的选择,出行个体对各交通选择的偏好程度(即最终选择概率)来自于交通调研得到的出行规则.意图集中的最终且唯一的交通选择代表了出行个体Agent在愿望集中的所有交通选择中的偏好.

    以第4节案例分析中的交通系统为例,我们选择拥有自行车的女生这类出行个体,来研究她们的出行行为和偏好.外界环境包含一个因素:天气;出行个体的交通需求包含两个因素:出行距离和站点排队队长.这类出行个体的BDI模型中的信念世界、愿望世界和意图世界的全集如图 4所示.信念世界B描述了在各种外界环境下个体可能的交通选择全集;愿望世界D1$\sim$D6分别描述了在特定交通环境下满足特定交通需求的可能交通选择;意图世界中的最后选择代表个体在满足需求的所有交通方式中最偏好的一种,此偏好程度在规则库中用选择某种交通方式的概率大小表示.例如,若输入的外界信息表示天气为温和,个体出行需求为出行距离长(即途经站点超过3站)、站点排队队长短(即排队队长不超过出行个体所能接受的最长队长)时,个体的愿望世界为D2,表示个体可能选择校车或自行车出行.意图世界I2表示当前个体在校车和自行车中偏向于选择骑校车出行,意图世界I3表示当前个体在校车和自行车中偏向于选择骑自行车出行.

    图 4  出行个体BDI模型中的信念世界、愿望世界和\\意图世界全集
    Fig. 4  Belief-world,desire-world,and intention-world in the BDI model of passenger agent

    具有完整出行功能的公共交通工具Agent模型的结构图如图 5所示.

    图 5  公共交通工具Agent的模型结构图
    Fig. 5  Structure of public vehicle agent

    该模型应包含以下几个模块:个体属性集、规则库、感知模块、行为模块和状态转换模块.由于我们的方法主要研究个体的出行行为对交通分布和交通方式划分的影响,即研究主体为出行个体,因而忽略对车辆的出行行为的研究.因此公共交通工具的出行行为主要取决于其自身属性(例如,车号、车型、发车时间间隔、乘客容量、剩余空位、服务水平、票价和行车路线)和用于约束车辆何时何地发动和停止的简单规则库,以及外界交互信息.

    交通系统中的出行工具也因为异质性具有不同的属性,公共交通工具Agent的属性集包括类型、发车间隔、乘客容量、剩余空位、服务水平、乘车费用、出行路线等.在感知模块中,公共交通工具Agent在出行过程中会接收到出行个体Agent共享的信息,包括个体Agent当前的状态和对出行方式以及路线的选择结果;公共交通工具Agent会实时感知交通环境的信息.公共交通工具Agent整个出行过程的行为有进站、进站等候、出站、行驶.它会根据接收到的信息触发自己的行为,例如当交通工具Agent进入站点时即进站,若存在个体处于等车状态且选择的出行方式及路线与该交通工具Agent的属性一致,且公共交通工具Agent还有剩余空位,或者车上乘客处于等候下车状态,则该交通工具Agent会进站等候,直到不再有乘客处于等车和等待下车状态时,该交通工具Agent会出站并行驶.其行为模块的每一次动作执行会导致其状态的转变,公共交通工具Agent的状态有行驶和停止.

    交通环境模型,包括自然环境和社会环境两部分内容,如图 6所示.

    图 6  交通环境模型图
    Fig. 6  Structure of traffic environment

    自然环境包括公交路线网络拓扑结构以及天气、空气质量、温度等.其中公交路线网络拓扑结构由节点和路段组成:节点属性包括节点编号、坐标以及自定义属性;路段由起点和终点制定,其属性主要包括起始节点编号、终点节点编号、路段长度、路段类型、车道数以及用户自定义属性.

    社会环境建立在公交路线网络之上,主要描述公交站点附近小区的属性.包括站点名称、站点周边土地利用类型和人口密度、经济发展状况、政府对公共交通的政策、使用车辆类型、行车速度、重大社会活动举行情况等.

    自然环境和社会环境的变化都会影响出行个体Agent和交通工具Agent的出行行为.例如,当自然环境中的天气发生变化时,出行个体的出行交通方式和出行目的会发生一定程度的变化;当社会环境中有重大活动举行时,地区的交通分布将发生显著变化.

    计算实验将ATS看作能重复实验的实验平台,可以生成各种虚拟的实验场景,进行在实际交通系统中"不可能"的实验.计算实验还可以毫无代价地实现"实验设计-预测实验-实验验证-实验设计"这种重复实验过程,如图 7所示.

    图 7  公共交通需求预测计算实验的循环过程图
    Fig. 7  Circulation process of forecast computational experiments for public traffic demand

    公共交通需求预测计算实验设计可分为两大类.

    1) 特定交通情境下的交通需求预测,这种情况下,计算实验中的系统参数是可以确定的.计算实验模拟的是现实系统的一种可能的替代形式和一种可能的实现方式.现实世界中交通场景不会是一成不变的,天气状况的改变或应急事件的发生往往会导致交通分布和交通方式划分出现较大的变化.为了研究多种不同情景下交通需求的变化情况,我们针对各种现实中可能发生的非正常情况,如极端天气、重大社会活动的举行等,来设计相应的实验情景以进行计算实验.假定场景的模拟仿真对预防突发状况下可能产生的交通问题以及及时采取相应措施具有指导意义.另外,我们可以为现实交通系统中的候选交通政策生成相应的交通情景,设计并执行计算实验来预测相应的交通结果.通过对预测结果的分析,得出最优的交通政策.

    2) 探索发现交通需求中隐藏的规律,在这类实验中,我们需要随机组合各个系统参数的所有可能取值来生成无规律的实验背景,并发现隐藏规律和启发式现象.例如,在交通方式划分预测中,我们可以用这类计算实验来分析各类影响因素对交通方式划分的影响水平.在实际复杂系统中影响交通方式划分的因素有:自然因素,例如天气状况发生变化时,出行个体对交通方式的偏好会发生改变;地方交通政策,例如当地方政府对某一交通方式投入大量支持或抵制时,该交通方式的分担率将会发生较大变化;地方经济发展状况,若地方经济良好,则拥有私人交通工具个体的比例将会增加,公共交通的分担率会因此下降,除此之外的影响因素还有很多.为了探究各因素对交通方式划分的影响程度,我们采用混合正交试验法进行分析.将不同因素的不同水平组合,对ATS的系统环境进行配置,并预测各种交通方式的交通分担率.通过对实验结果的显著性分析,得到对交通方式划分影响显著的因素,剔除不显著因素,缩小考虑的因素范围,可以进一步简化交通需求预测实验.

    在计算实验之前先根据相应的实验场景对ATS进行环境配置.对出行个体的配置包括各交通小区的交通生成量和吸引量,各交通小区具有不同属性(例如性别、职业、收入、私人交通工具拥有情况、心理状态等)的出行个体分布;对公共交通工具Agent的配置包括各条路线上运行公交的总数量,发车方式与时间间隔,车辆类型的分布比例以及各车辆类型对应的乘客容量等;对交通环境的宏观配置,例如季节、天气、温度等的设定,各交通小区的人口分布和社会活动等.当计算实验研究目的明确时,可以直接根据特定的交通情景配置系统参数.但当实验目标不明确时,我们需要首先选择各系统参数的所有可能取值,然后设定正交试验中具有不同属性的人口分布,例如高斯分布或幂率分布.

    在计算实验中,通过对人工交通系统中各出行个体Agent出行起止点和交通方式选择的统计,实现对各交通小区之间出行交换量以及各类型公共交通工具交通承担量的计算,实时收集累计交通分布OD和交通方式划分.对收集的数据分别进行线上和线下处理和对比分析,并建立预测结果的数据库,将各方案的实验结果存储,从而支持之后ATS与实际交通系统间的平行执行.具体的预测实验见第4节的案例分析.

    实验验证根据现实数据的有无分为两种.对于现实数据可收集的实验情景,如正常情况下的交通情景,我们将基于现场调研所得交通数据与基于计算实验的预测结果进行比较,验证基于计算实验的预测方法的可行性.而对于现实数据无法获得的实验情景,如重大社会活动的举办、交通政策的实施等,我们将通过对预测结果与以往相似情景的经验比较,如文献[16]中所提到,若交通行为与实际中的交通现象相似,则可以看作是对模型的一种验证.尤其是当有常识之外的现象发生时,我们需要及时地发现隐藏规律.

    本文以华中科技大学校车系统为例作案例分析,为了简化实验,我们仅针对性研究交通量最大的"韵苑-集贸-科技楼-南一楼-南大门"路线.这条路线贯穿校内最大的学生公寓区、教师公寓区、CBD和主校区教学区,沿途经过7个校车站点,如图 8所示.我们为此研究区域建立了有正反向共14个站点、划分了14个交通小区的ATS,并在其上进行了一系列的交通计算实验.

    图 8  研究路段和周围环境示意图
    Fig. 8  The studied route and its surrounding environment

    在交通调查中,我们设计的抽样调查问卷表包括个体性别、出行目的、起始站、交通工具的有无、心理状态、出行时间和距离,以及天气和队长.沿研究路段随机选择300名学生填写问卷表.我们将问卷调查按照出行个体的基本属性(如性别、代步工具拥有情况)分类统计分析,得出在常规天气交通情景和极端天气交通情景下,当交通环境满足或不满足个体出行需求(即出行距离和站点排队队长)时,选择自行车、步行和校车出行的学生人数占同类个体(拥有相同基本个体属性)总人数的比例,并将这些比例作为该类型出行个体选择各种交通方式的概率.在BDI模型中,该类出行个体按这些概率分布对各种交通方式进行随机选择.通过对问卷调查结果的统计分析,我们可以推理出出行个体的行为规则和不同交通情境下对各种交通方式的偏好程度.各交通小区的交通生成量和吸引量,以及具有不同属性的出行个体分布都可以由公开的学生课程信息表和学生信息管理系统获得.为了获取现实世界中的交通分布OD矩阵,我们分别在2014年和2015年中随机选取两天(共四天)中的13:30$\sim$14:30时间段进行传统的路边访问调查.完整的交通调查共由90名学生历时两年完成.

    通过交通调查获得的各种实际数据统计结果如表 1$\sim$4所示.表 1描述了各种不同的个体属性在总人口中的分布比例,表 2描述了各种类型个体可接受队长临界值的概率分布(例如,在有自行车的男生中,可接受队长临界值为10人的个体占总人数的11%,即11%的个体在排队队长超过10人时不再选择乘坐校车),表 3描述了在站点队长在个体可接受范围之内,且出行距离大于或等于3站的情况下,各类个体在不同天气情况下选择乘坐校车的概率分布.规则库中的部分规则如表 4所示.

    表 1  具有不同属性的出行个体分布
    Table 1  Distribution of passengers with different properties
    个体属性 属性值 分布比例(%)
    性别 85.7
    14.3
    男生中代步工具的拥有情况 72.0
    28.0
    女生中代步工具的拥有情况 46.0
    54.0
    起始站点韵苑站100.0
    目的站点 科技楼 25.7
    南一楼 74.3
    下载: 导出CSV 
    | 显示表格
    表 2  各类个体可接受队长临界值分布 (%)
    Table 2  Distribution of max queue length passengers accepted(%)
    10人 20人 30人 40人 50人
    男生且有自行车 11 19 28 20 22
    男生且无自行车 3 13 26 24 34
    女生且有自行车 0 14 41 17 28
    女生且无自行车 0 915 20 56
    下载: 导出CSV 
    | 显示表格
    表 3  各类个体乘坐校车的概率分布 (%)
    Table 3  Probability of passengers taking school bus (%)
    个体属性 常规天气 极端天气
    男生且有自行车 14 69
    男生且无自行车 100 100
    女生且有自行车 29 97
    女生且无自行车 100 100
    下载: 导出CSV 
    | 显示表格
    表 4  规则库中的部分规则
    Table 4  Part of the rules in rule base
    默认交通方式为“步行”
    IF 职业=“学生”& 性别=“女”& 车辆拥有情况=“无自行车”THEN GOTO 规则1»6
    规则1   IF 天气=“温和”& 途经站点数< 3 THEN 交通方式=“步行”
    规则2   IF 天气=“温和”& 途经站点数¸ 3&站点队长· (最大可接受队长) THEN 交通方式=“校车”
    规则3   IF 天气=“温和”& 途经站点数¸ 3&站点队长> (最大可接受队长) THEN 交通方式=“步行”
    规则4   IF 天气=“极端”& 途经站点数< 3 THEN 交通方式=“步行”
    规则5   IF 天气=“极端”& 途经站点数¸ 3&站点队长· (最大可接受队长) THEN 交通方式=“校车”
    规则6   IF 天气=“极端”& 途经站点数¸ 3&站点队长> (最大可接受队长) THEN 交通方式=“步行”
    IF 职业=“学生”& 性别=“女”& 车辆拥有情况=“有自行车”THEN GOTO 规则7»12
    规则7   IF 天气=“温和”& 途经站点数<3 THEN 交通方式=“自行车”(83 %) 或“步行”(17 %)
    规则8   IF 天气=“温和”& 途经站点数¸ 3&站点队长· (最大可接受队长) THEN 交通方式=“自行车”(71 %) 或“校车”(29 %)
    规则9   IF 天气=“温和”& 途经站点数¸ 3&站点队长> (最大可接受队长) THEN 交通方式=“校车”
    规则10   IF 天气=“极端”& 途经站点数<3 THEN 交通方式=“自行车”(52 %) 或“步行”(48 %)
    规则11   IF 天气=“极端”& 途经站点数¸ 3&站点队长· (最大可接受队长) THEN 交通方式=“自行车”(3 %) 或“校车”(97 %)
    规则12   IF 天气=“极端”& 途经站点数¸ 3&站点队长>(最大可接受队长) THEN 交通方式=“自行车”
    下载: 导出CSV 
    | 显示表格

    用于建立人工交通系统(ATS)以及进行计算实验的平台为AnyLogic 6Professional,该平台的基础语言为Java. ATS的建模界面如图 9所示.我们的ATS中有3种交通方式可供选择:校车、自行车和步行.真实的研究路段应该是"L"型,但由于该研究路段仅为单一路线,没有其他行车路线的交叉,路线形状对交通需求没有任何影响,故我们将其简化为一条直线,如图 9所示.由于学校内部的功能性建筑非常集中,学生公寓区、教学区和商业贸易中心等都分别集中于统一区域,故我们仅将土地利用类型作为站点的一个属性设置,没有在ATS中对各建筑进行建模.

    图 9  ATS建模界面
    Fig. 9  Interface of the ATS

    由于我们的案例分析以大学校园为研究背景,其社会环境较为单纯一致,本文仅考虑站点周边土地利用类型、学校对公共交通工具的支持、重大活动的举行.该案例分析中的研究路段如图 9所示,韵苑站附近的交通小区为全校最大的学生公寓区,东九站、科技楼和南一楼附近的交通小区为教学区,喻园站附近为全校最大的教师公寓区,集贸站附近的交通小区为贸易中心(CBD),南大门站附近为学校大门.该研究路段的总人口数为3359人.学校当前在该研究路段共投入5辆校车运行,每辆校车的客容量为15人,校车的发车方式为坐满即走.本文中的重大活动举行以考试周为例,在ATS上设置了相应的交通场景,其具体参数设定见第4.2.3节.另外,自然环境建模中,除了公交路线网络拓扑结构,我们还增加天气这一环境变量.

    我们将分别对常规情况下的工作日、暴雨天气的工作日、考试周期间的工作日这3种现实情况设计实验情景,并对预测结果进行验证.另外,针对现实中候选车辆调度方案,设计实验情景,通过计算实验获得各调度方案的预测结果,并分析比较得出最佳方案.在常规情况下的仿真实验中,为了将预测结果与现实世界的4次调研结果进行对比分析,我们选取13:30$\sim$14:30为研究时间段,分别按照4次调研时现实世界的数据(如各交通小区的交通发生量和交通吸引量)对人工交通系统进行了4种配置.分别在每种配置情景下进行了10次实验,最后的预测结果为10次实验结果的平均值.同理,在其他仿真实验中也分别做了10次实验,并取平均值得到最后的预测实验结果.

    4.2.1   常规情况下的计算实验

    根据交通调查结果,交通分布OD表中共有49个数据,我们仅选取学生公寓区韵苑与两大教学区科技楼、南一楼之间的两个最具研究意义和规律性的交通数据与现实调研数据进行对比分析,4次实验中的预测交通流数据和实际交通流数据如表 5所示,各次实验中各站点之间的预测数据的误差如表 6所示,4次调研的结果对比如图 10图 11所示.由表 6可知,各项预测数据项比实际数据的误差都不超过10%,且其平均误差仅4.31%,该误差在我们可接受的误差范围之内,因此可以验证ATS模型的精确性.

    表 5  4次实验中的预测交通流和实际交通流
    Table 5  Predicted traffic flow and real traffic flow in four experiments
    交通流 实验1 实验2 实验3 实验4
    韵苑站至科技楼的预测交通流 31 3 46 39
    韵苑站至科技楼的实际交通流 30 3 42 36
    韵苑站至南一楼的预测交通流 108 103 94 71
    韵苑站至南一楼的实际交通流 104 101 92 75
    下载: 导出CSV 
    | 显示表格
    表 6  预测交通流的误差分析 (%)
    Table 6  Error of predicted traffic flow (%)
    预测交通流的误差 实验1 实验2 实验3 实验4
    韵苑站至科技楼 3.33 0 9.53 8.33
    韵苑站至南一楼 3.85 1.98 2.17 5.33
    下载: 导出CSV 
    | 显示表格
    图 10  韵苑站至科技楼站的结果对比图
    Fig. 10  Comparisons of predicted traffic flow from Yunyuan Station to Kejilou Station and that in the real world
    图 11  韵苑站至南一楼站的结果对比图
    Fig. 11  Comparisons of predicted traffic flow from Yunyuan Station to Nanyilou Station and that in the real world
    4.2.2   极端天气下的计算实验

    计算实验对ATS的配置所需的各种数据都可由交通调查获得.通过统计调查得出,该路段的出行交通量为3359人,在非考试周工作日的研究时间段内,前往科技楼上课的学生总人数是349人,前往教学楼上课的学生总人数为1010人,其他没有课的学生总人数为2000人.天气晴朗的情况下,学生基本不会翘课,没课的学生中40%选择前往图书馆自习,25%选择外出;大雨的天气时,学生的翘课率达到20%,没课的学生中前往图书馆自习的学生占20%,外出的仅占5%.配置初始条件后,分别在天气晴朗和大雨天气下进行计算实验,得出两种情境下的出行分布OD表.由于主要的出行分布集中于韵苑前往其他站点之间,所以我们主要分析韵苑到其他站点之间的OD值的变化趋势.不同天气下的交通分布数据如表 7所示.极端天气下的出行分布变化走势如图 12所示.为了更加清晰地反映出非正常天气情况下出行分布的变化程度,折线图中横坐标为除韵苑之外的其他各站点,纵坐标表示正常情况和非正常情况下韵苑到各交通小区之间的交通量占正常情况下交通量的比例.

    表 7  常规天气和极端天气时的交通分布数据
    Table 7  Traffic flow under normal weather and abnormal weather
    集贸站 科技楼 南一楼 南大门站
    常规天气 50 354 1824 523
    极端天气 24 341 1430 112
    下载: 导出CSV 
    | 显示表格
    图 12  常规天气和极端天气下的交通分布对比图
    Fig. 12  Comparison of traffic distributions under normal weather and abnormal weather

    由极端天气出行变化走势图分析可知,前往科技楼的学生人数没有明显变化,前往南一楼的学生人数小幅减少,而前往南大门和集贸的学生人数大幅减少.现实中前往科技楼的学生的出行目的都是上课,无论晴雨,绝大部分学生都会按时前往上课,仅仅只有少部分学生翘课,所以韵苑-科技楼之间的出行分布基本不变;前往南一楼的学生中一部分是去上课,这部分出行交换量基本不变,另一部分是前往图书馆自习,雨天时学生出行自习的意愿普遍降低,所以这部分的出行会减少,总的来说韵苑-南一楼之间的出行交换量小幅减小是符合实际的;前往南大门和集贸的学生出行目的为外出购物等琐事,而雨天时学生出行意愿普遍降低,所以韵苑-南大门和集贸之间的出行交换量会大幅减少.由此可见,计算实验的预测结果符合实际,且天气状况变化时引起的交通分布变化反映了出行个体与交通环境之间的交互性对交通分布的影响.

    4.2.3   重大社会活动发生时的计算实验

    大型社会活动的发生往往也会对出行分布产生较大的影响,例如考试周期间,由于考试的影响,校内的出行分布会发生较大变化.考试周期间全校停课,学生的出行目的只有自习和外出,总的学生人数不变,仍为3359人.通过统计调查,考试周前往图书馆和教学楼自习的学生占总人数的80%,外出处理购物等琐事的学生占总人数的10%.配置初始条件后,利用计算实验对考试周期间研究路段的出行分布进行预测.同上,主要分析韵苑与其他站点之间的OD值的变化趋势.常规工作日和考试周工作日下的交通分布数据如表 8所示.将大型社会活动时的出行分布与一般情况下的出行分布进行比较,其变化走势图如图 13,与图 12类似,折线图中横坐标为除韵苑之外的其他各站点,纵坐标表示正常情况和非正常情况下韵苑到各交通小区之间的交通量占正常情况下交通量的比例.

    表 8  常规工作日和考试周工作日的交通分布数据
    Table 8  Traffic flow under normal weekday and weekday in exam week
    集贸站 科技楼 南一楼 南大门站
    常规工作日 50 354 1824 523
    考试周工作日 63 18 2710 344
    下载: 导出CSV 
    | 显示表格
    图 13  常规工作日和考试周工作日的交通分布对比图
    Fig. 13  Comparison of traffic distributions under normal weekday and weekday in exam week

    图 13分析可知,前往科技楼的学生绝大部分是为了上课,考试周期间的停课导致前往科技楼的学生大幅减少接近于0,而大部分的学生选择自习,因此前往南一楼的学生人数增加.由于考试周准备考试的压力较大,复习时间较为紧迫,多数学生不再外出娱乐或购物,转而前往较近的校内购物区集贸,因此前往南大门的学生人数减少,而前往集贸的学生人数小幅增加.由此可见,计算实验的这一预测结果符合实际.

    4.2.4   车辆调度结果预测

    既然校车数量对各交通方式的分担率影响最大,我们可以通过计算实验探究在满足所有学生出行乘车要求和校车利用率最大的情况下的最佳校车分配数量.

    在正常工作日情景下,为ATS配置不同数量的校车,通过计算实验得出校车数量不同时学生选择乘坐校车出行的交通总流量.不同校车数量下各交通方式的交通流分担数据如表 9所示.图 14描述了不同校车调度方案下各交通方式的交通流分担率变化趋势,从图 14中可以看出,校车数量小于5辆时,乘坐校车的学生人数呈线性增长,步行的学生人数呈线性减少;而当校车数量达到5辆之后,乘坐校车和步行的学生人数基本不变;而无论校车数量怎么变化,选择自行车出行的学生人数基本保持不变.这一现象说明5辆校车已经能最大程度上满足学生乘坐校车出行的需求,更多的校车数量反而引起校车的资源浪费,因此,在华中科技大学的该研究路段中,最佳的校车分配方案为安排5辆校车,这恰好也与实际生活中由长期经验得出的分配方案一致,进一步验证了基于计算实验的交通预测的精确性与可行性.

    表 9  不同校车数量下各交通方式的交通流分担数据
    Table 9  Traffic flow of each traffic mode under different number of school bus
    校车数量 校车 自行车 步行
    1 203 1116 390
    2 327 1150 268
    3 390 1161 174
    4 469 1114 120
    5 504 1116 76
    6 506 1134 71
    7 500 1117 80
    下载: 导出CSV 
    | 显示表格
    图 14  不同校车调度方案下各交通方式的交通流分担率变化趋势
    Fig. 14  Traffic flow of each traffic mode under different numbers of school bus

    用于交通需求预测的传统数学模型的缺点主要在于缺少对个体自主选择差异性和环境动态性的考虑,其预测结果往往难以反映真实情况.另外,传统计算机仿真难以生成不同的复杂交通场景.因此,我们引入了基于计算实验的交通需求预测方法,并提出了该方法的基本框架.其框架主要包括交通调查、人工交通系统和计算实验3部分.该方法实现了对多种变化的复杂交通场景下的交通需求预测.以校园内的校车系统为案例,我们验证了该方法的可行性和精确性,并分别对正常情况下和极端天气、社会活动等非常规情况下,以及不同校车数量下的交通需求进行了预测分析,且其预测结果与现实基本一致.

    本文的研究仅仅是ACP方法应用于交通需求预测的基础步骤,未来我们将与交通领域的专家合作,在ATS上进行尽可能多场景的计算实验,来发现更多现象和规律.另外,本文仅考虑较为简单的个体逻辑思维过程,在将来的研究中,我们将会与心理学方面的专家合作,在出行个体建模中引入更多的心理效应、情绪等影响因素,并研究其对交通系统的影响机制.

  • 图  1  复杂性度量及其相互关系

    Fig.  1  Complexity measures and their relationships

    表  1  Rademacher 复杂度及传统复杂度

    Table  1  Rademacher complexities and kinds of complexities of function classes

    复杂度类型本数据集
    产生环境
    复杂度名称
    传统复杂度 i.i.d./non-
    i.i.d.
    VC 熵,退火 VC 熵,生长函数,VC 维,
    覆盖数,伪维度,Fat-shattering维等
    经典 Rademacher 复杂度,局部
    Rademacher 复杂度
    Rade-
    macher
    复杂度
    i.i.d.Rademacher chaos 复杂度,单模态
    Rademacher 复杂度,
    多模态 Rademacher 复杂度,Dropout
    Rademacher 复杂度
    non-i.i.d.独立不同分布 Rademacher 复杂度,
    块Rademacher 复杂度,
    序列 Rademacher 复杂度
    下载: 导出CSV

    表  2  i.i.d.情形的泛化界分析

    Table  2  Generalization analysis for i.i.d.

    本数据集产生环境学习策略假设空间泛化能力
    i.i.d.ERM1) $\mathcal{X}\rightarrow\{-1,+1\}$O$O\left( \frac{1}{\sqrt{n}} \right)$ [52],O$\left(\frac{1}{n} \right)$[53-55]
    2) $\mathcal{X}\rightarrow{\bf R}$O$\left( \frac{1}{n} \right)$[47],$\text{O}{{\left( \frac{{{\log }^{p}}n}{n} \right)}^{1/(2-\alpha )}}$ [28, 32]
    3) ${\bf R}^{d}\rightarrow{\bf R}$O$O\left( \frac{1}{\sqrt{n}} \right)$ [51]
    4) $\mathcal{X}\rightarrow\{-1,+1\}^{L}$ O$O\left( \frac{1}{\sqrt{n}} \right)$ [56],$O\left( \frac{\log n}{n} \right)$[33]
    5) 自由样条函数空间$O\left( {{\left( \frac{\log n}{n} \right)}^{2\alpha /(1+2\alpha )}} \right)$ [31-32]
    6) $\mathcal{X}× R_{s}\rightarrow\mathcal{{\bf R}}$ $O\left( \frac{{{p}^{(k+1)/2}}}{\sqrt{n}}+\frac{1}{\sqrt{n}} \right),O\left( \frac{{{p}^{k+1}}}{\sqrt{n}}+\frac{1}{\sqrt{n}} \right)$[34]
    正则化7) RKHS$O\left(\frac{\sqrt{{\rm{tr}}(G)}}{n}+\frac{1}{\sqrt{n}}\right)$ [48]
    8) ${S}^{d}$$O\left( \frac{1}{\sqrt{n}} \right)$ [36]
    9) ${S}^{d×(md)}$$O\left( \frac{1}{\sqrt{n}} \right)$ [27, 32]
    SRM10) 神经网络空间$O\left(\left(\frac{1}{n}\right)^{\frac{1}{2-\alpha_{p}}}\right)$[30, 32]
    下载: 导出CSV

    表  3  non-i.i.d.情形的泛化界分析

    Table  3  Generalization analysis for non-i.i.d.

    样本数据集产生环境假设空间泛化能力
    独立不同分布1)$\mathcal{X}\rightarrow\mathcal{Y}$$O\left(\frac{1}{\sqrt{n}}\right)$[37]
    平稳分布且$\beta\textrm{-mixing}$2) $\mathcal{X}\rightarrow{\bf R}$$O\left(\frac{\sqrt{{\rm{tr}}(G)}}{n}+\frac{1}{\sqrt{n}}\right)$[38]
    非平稳分布且$\beta\textrm{-mixing}$3) $\mathcal{X}\rightarrow\mathcal{Y}$非平稳性可能导致
    不收敛于0[42]
    4) $\mathcal{Z}\rightarrow $[-1,1]一致收敛[39-41]
    下载: 导出CSV
  • [1] Tikhonov A N, Arsenin V Y. Solution of Ill-posed Problems. Washington:Winston and Sons, 1977.
    [2] Akaike H. A new look at the statistical model identification. IEEE Transactions on Automatic Control, 1974, 19(6):716-723 doi: 10.1109/TAC.1974.1100705
    [3] Akaike H. A Bayesian analysis of the minimum AIC procedure. Annals of the Institute of Statistical Mathematics, 1978, 30(1):9-14 doi: 10.1007/BF02480194
    [4] Schwarz G. Estimating the dimension of a model. Annals of Statistics, 1978, 6(2):461-464 doi: 10.1214/aos/1176344136
    [5] Kolmogorov A N. On tables of random numbers. Sankhya:The Indian Journal of Statistics, 1963, 25:369-376 http://cn.bing.com/academic/profile?id=2319581f805b56782c9de35bf823fe97&encoded=0&v=paper_preview&mkt=zh-cn
    [6] Kolmogorov A N. Three approaches to the quantitative definition of information. Problems of Information Transmission, 1965, 1(1):1-7 http://cn.bing.com/academic/profile?id=c9935bf10e0666e93d39e022ca502b3d&encoded=0&v=paper_preview&mkt=zh-cn
    [7] Chaitin G J. On the length of programs for computing finite binary sequences. Journal of the ACM, 1966, 13(4):547-569 doi: 10.1145/321356.321363
    [8] Solomonoff R J. A formal theory of inductive inference. Part II. Information and Control, 1964, 7(2):224-254 doi: 10.1016/S0019-9958(64)90131-7
    [9] Wallace C S, Boulton D M. An information measure for classification. The Computer Journal, 1968, 11(2):185-194 doi: 10.1093/comjnl/11.2.185
    [10] Vapnik V N, Chervonenkis A Y. On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and Its Applications, 1971, 16(2):264-280 doi: 10.1137/1116025
    [11] Vapnik V N. The Nature of Statistical Learning Theory. New York:Springer, 1995.
    [12] Vapnik V N. An overview of statistical learning theory. IEEE Transactions on Neural Networks, 1999, 10(5):988-999 doi: 10.1109/72.788640
    [13] Popper K R. The Logic of Scientific Discovery. United Kingdom:Hutchinson, 1959.
    [14] Valiant L G. A theory of the learnable. Communications of the ACM, 1984, 27(11):1134-1142 doi: 10.1145/1968.1972
    [15] Kearns M J, Schapire R E. Efficient distribution-free learning of probabilistic concepts. Journal of Computer and System Sciences, 1994, 48(3):464-497 doi: 10.1016/S0022-0000(05)80062-5
    [16] Bartlett P L, Long P M, Williamson R C. Fat-shattering and the learnability of real-valued functions. Journal of Computer and System Sciences, 1996, 52(3):434-452 doi: 10.1006/jcss.1996.0033
    [17] Shawe-Taylor J, Bartlett P L, Williamson R C, Anthony M. Structural risk minimization over data-dependent hierarchies. IEEE Transactions on Information Theory, 1998, 44(5):1926-1940 doi: 10.1109/18.705570
    [18] Koltchinskii V. Rademacher penalties and structural risk minimization. IEEE Transactions on Information Theory, 2001, 47(5):1902-1914 doi: 10.1109/18.930926
    [19] Bartlett P L, Mendelson S. Rademacher and Gaussian complexities:risk bounds and structural results. The Journal of Machine Learning Research, 2003, 3:463-482 http://cn.bing.com/academic/profile?id=59b9b1ed8c26e154cc8cc3bb9f31c21f&encoded=0&v=paper_preview&mkt=zh-cn
    [20] Bartlett P L, Bousquet O, Mendelson S. Local Rademacher complexities. The Annals of Statistics, 2005, 33(4):1497-1537 doi: 10.1214/009053605000000282
    [21] Koltchinskii V. Local Rademacher complexities and oracle inequalities in risk minimization. The Annals of Statistics, 2006, 34(6):2593-2656 doi: 10.1214/009053606000001019
    [22] Koltchinskii V, Panchenko D. Rademacher processes and bounding the risk of function learning. High Dimensional Probability II. Boston:Birkhäuser, 2004. 443-457
    [23] Bousquet O, Koltchinskii V, Panchenko D. Some local measures of complexity of convex hulls and generalization bounds. Computational Learning Theory. Sydney, Australia:Springer, 2004. 59-73
    [24] 张海, 徐宗本. 学习理论综述(I):稳定性与泛化性. 工程数学学报, 2008, 25(1):1-9 http://www.cnki.com.cn/Article/CJFDTOTAL-GCSX200801004.htm

    Zhang Hai, Xu Zong-Ben. A survey on learning theory (I):stability and generalization. Chinese Journal of Engineering Mathematics, 2008, 25(1):1-9 http://www.cnki.com.cn/Article/CJFDTOTAL-GCSX200801004.htm
    [25] 胡政发. 统计量复杂性估计及其在机器学习中的应用. 自动化学报, 2008, 34(10):1332-1336 http://www.aas.net.cn/CN/abstract/abstract17904.shtml

    Hu Zheng-Fa. The statistic complexity estimates and its application to machine learning. Acta Automatica Sinica, 2008, 34(10):1332-1336 http://www.aas.net.cn/CN/abstract/abstract17904.shtml
    [26] 陈将宏. Rademacher复杂性与支持向量机的推广性能[硕士学位论文], 湖北大学, 中国, 2005.

    Chen Jiang-Hong. Rademacher Complexities and the Generalization Performance of SVM[Master dissertation], Hubei University, China, 2005.
    [27] Lei Y W, Ying Y M. Generalization analysis of multi-modal metric learning[Online], available:https://www.research-gate.net/publication/282969709, November 3, 2015
    [28] Lei Y W, Ding L X, Bi Y Z. Local Rademacher complexity bounds based on covering numbers[Online], available:http://arxiv.org/pdf/1510.01463v1.pdf, October 6, 2015
    [29] Lei Y W, Ding L X. Refined rademacher chaos complexity bounds with applications to the multikernel learning problem. Neural Computation, 2014, 26(4):739-760 doi: 10.1162/NECO_a_00566
    [30] Lei Y W, Ding L X, Zhang W S. Generalization performance of radial basis function networks. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(3):551-564 doi: 10.1109/TNNLS.2014.2320280
    [31] Lei Y W, Ding L X, Wu W L. Universal learning using free multivariate splines. Neurocomputing, 2013, 119(16):253-263
    [32] 雷云文. Rademacher复杂度及其在机器学习中的应用[博士学位论文], 武汉大学, 中国, 2015.

    Lei Yun-Wen. Rademacher Complexities with Applications to Machine Learning[Ph.D. dissertation], Wuhan University, China, 2015.
    [33] Xu C, Liu T L, Tao D C, Xu C. Local Rademacher complexity for multi-label learning[Online], available:http://arxiv.org/pdf/1410.6990.pdf, October 26, 2014
    [34] Gao W, Zhou Z H. Dropout Rademacher complexity of deep neural networks. Science China:Information Sciences, 2016, 59(7):072104:1-072104:12 doi: 10.1007/s11432-015-5470-z
    [35] de la Peña V, Giné E. Decoupling:From Dependence to Independence. New York:Springer-Verlag, 1999.
    [36] Cao Q, Guo Z C, Ying Y M. Generalization bounds for metric and similarity learning. Machine Learning, 2016, 102(1):115-132 doi: 10.1007/s10994-015-5499-7
    [37] Mohri M, Medina A M. New analysis and algorithm for learning with drifting distributions. In:Proceedings of the 23rd International Conference on Algorithmic Learning Theory. Lyon, France:Springer-Verlag, 2012. 124-138
    [38] Mohri M, Rostamizadeh A. Rademacher complexity bounds for non-I.I.D. processes. In:Proceedings of the 2008 Advances in Neural Information Processing Systems 21. Vancouver, BC, Canada:Curran Associates, Inc., 2008. 1097-1104
    [39] Rakhlin A, Sridharan K. On martingale extensions of Vapnik-Chervonenkis theory with applications to online learning. Measures of Complexity. Switzerland:Springer International Publishing, 2015. 197-215
    [40] Rakhlin A, Sridharan K, Tewari A. Sequential complexities and uniform martingale laws of large numbers. Probability Theory and Related Fields, 2015, 161(1-2):111-153 doi: 10.1007/s00440-013-0545-5
    [41] Rakhlin A, Sridharan K, Tewari A. Online learning:random averages, combinatorial parameters, and learnability. In:Proceedings of the 2010 Advances in Neural Information Processing Systems 23. Vancouver, BC, Canada:Curran Associates, Inc., 2010. 1984-1992
    [42] Kuznetsov V, Mohri M. Generalization bounds for time series prediction with non-stationary processes. In:Proceedings of the 25th International Conference on Algorithmic Learning Theory. Bled, Slovenia:Springer International Publishing, 2014. 260-274
    [43] Kuznetsov V, Mohri M. Forecasting non-stationary time series:from theory to algorithms[Online], available:http://www.cims.nyu.edu/~vitaly/pub/fts.pdf, July 12, 2016
    [44] Anguita D, Ghio A, Oneto L, Ridella S. A deep connection between the Vapnik-Chervonenkis entropy and the Rademacher complexity. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(12):2202-2211 doi: 10.1109/TNNLS.2014.2307359
    [45] Kääriäinen M. Relating the Rademacher and VC Bounds, Technical Report, C-2004-57, Department of Computer Science, University of Helsinki, Finland, 2004.
    [46] Srebro N, Sridharan K. Note on refined dudley integral covering number bound[Online], available:http://ttic.uchicago.edu/~karthik/dudley.pdf, July 12, 2016
    [47] Srebro N, Sridharan K, Tewari A. Smoothness, low noise and fast rates. In:Proceedings of the 2010 Advances in Neural Information Processing Systems 23. Vancouver, BC, Canada:Curran Associates, Inc., 2010. 2199-2207
    [48] V'Yugin V V. VC dimension, fat-shattering dimension, Rademacher averages, and their applications. Measures of Complexity. Switzerland:Springer International Publishing, 2015. 57-74
    [49] Ying Y M, Campbell C. Rademacher chaos complexities for learning the kernel problem. Neural Computation, 2010, 22(11):2858-2886 doi: 10.1162/NECO_a_00028
    [50] Massart P. Some applications of concentration inequalities to statistics. Annales De La Faculté Des Sciences De Toulouse, 2000, 9(2):245-303 doi: 10.5802/afst.961
    [51] Gnecco G, Sanguineti M. Approximation error bounds via Rademacher's complexity. Applied Mathematical Sciences, 2008, 2(4):153-176
    [52] Boucheron S, Bousquet O, Lugosi G. Theory of classification:a survey of some recent advances. ESAIM:Probability and Statistics, 2005, 9:323-375 doi: 10.1051/ps:2005018
    [53] Oneto L, Ghio A, Ridella S, Anguita D. Global Rademacher complexity bounds:from slow to fast convergence rates. Neural Processing Letters, 2016, 43(2):567-602 doi: 10.1007/s11063-015-9429-2
    [54] Oneto L, Ghio A, Ridella S, Anguita D. Fast convergence of extended Rademacher complexity bounds. In:Proceedings of the 2015 International Joint Conference on Neural Networks. Killarney, Ireland:IEEE, 2015. 1-10
    [55] Oneto L, Ghio A, Anguita D, Ridella S. An improved analysis of the Rademacher data-dependent bound using its self bounding property. Neural Networks, 2013, 44:107-111 doi: 10.1016/j.neunet.2013.03.017
    [56] Yu H F, Jain P, Kar P, Dhillon I S. Large-scale multi-label learning with missing labels. In:Proceedings of the 31st International Conference on Machine Learning. Beijing, China, 2014. 593-601
    [57] 丁万鼎. 测度论概要. 合肥:安徽人民出版社, 2005.

    Ding Wan-Ding. Essentials of Measure Theory. Hefei:Anhui People's Publishing House, 2005.
    [58] Hastie T, Friedman J, Tibshirani R. The Elements of Statistical Learning:Data Mining, Inference, and Prediction. New York:Springer, 2001.
    [59] van der Vaart A W, Wellner J A. Weak Convergence and Empirical Processes. New York:Springer-Verlag, 1996.
    [60] Ledoux M, Talagrand M. Probability in Banach Spaces:Isoperimetry and Processes. Berlin:Springer-Verlag, 1991.
    [61] Dudley R M. The sizes of compact subsets of Hilbert space and continuity of Gaussian processes. Journal of Functional Analysis, 1967, 1(3):290-330 doi: 10.1016/0022-1236(67)90017-1
    [62] Lozano F. Model selection using Rademacher penalization. In:Proceedings of the 2nd ICSC Symposium on Neural Networks. London:Academic Press, 2000.
    [63] Boucheron S, Lugosi G, Massart P. Concentration Inequalities:A Nonasymptotic Theory of Independence. United Kingdom:Oxford University Press, 2013.
    [64] 周志华. 机器学习. 北京:清化大学出版社, 2016.

    Zhou Zhi-Hua. Machine Learning. Beijing:Tsinghua University Press, 2016.
    [65] Mohri M, Rostamizadeh A, Talwalkar A. Foundations of Machine Learning. Cambridge:MIT Press, 2012.
    [66] 汪洪桥, 孙富春, 蔡艳宁, 陈宁, 丁林阁. 多核学习方法. 自动化学报, 2010, 36(8):1037-1050 doi: 10.3724/SP.J.1004.2010.01037

    Wang Hong-Qiao, Sun Fu-Chun, Cai Yan-Ning, Chen Ning, Ding Lin-Ge. On multiple kernel learning methods. Acta Automatica Sinica, 2010, 36(8):1037-1050 doi: 10.3724/SP.J.1004.2010.01037
    [67] McFee B, Lanckriet G. Learning multi-modal similarity. Journal of Machine Learning Research, 2011, 12:491-523 http://cn.bing.com/academic/profile?id=938f4935300ae26d31169f6fc0730139&encoded=0&v=paper_preview&mkt=zh-cn
    [68] Xie P T, Xing E P. Multi-modal distance metric learning. In:Proceedings of the 23rd International Joint Conference on Artificial Intelligence. Beijing, China:AAAI, 2013. 1806-1812
    [69] Hinton G E, Srivastava N, Krizhevsky A, Sutskever I, Salakhutdinov R R. Improving neural networks by preventing co-adaptation of feature detectors[Online], available:http://arxiv.org/pdf/1207.0580v1.pdf, July 3, 2012
    [70] Wan L, Zeiler M, Zhang S X, LeCun Y, Fergus R. Regularization of neural networks using dropconnect. In:Proceedings of the 30th International Conference on Machine Learning. Atlanta, Georgia, USA, 2013. 1058-1066
    [71] Rudin W. Functional Analysis (2nd edition). New York:McGraw-Hill, 1991.
    [72] Mendelson S. A few notes on statistical learning theory. Advanced Lectures on Machine Learning. Berlin Heidelberg:Springer, 2003. 1-40
    [73] Sauer N. On the density of families of sets. Journal of Combinatorial Theory, Series A, 1972, 13(1):145-147 doi: 10.1016/0097-3165(72)90019-2
    [74] Pollard D. Convergence of Stochastic Processes. New York:Springer-Verlag, 1984.
    [75] Duan H H. Bounding the fat shattering dimension of a composition function class built using a continuous logic connective[Online], available:http://arxiv.org/pdf/1105.4618v1. pdf, May 23, 2011
    [76] Anthony M, Bartlett P L. Neural Network Learning-Theoretical Foundations. Cambridge:Cambridge University Press, 2009.
    [77] Alon N, Ben-David S, Cesa-Bianchi N, Haussler D. Scale-sensitive dimensions, uniform convergence, and learnability. Journal of the ACM, 1997, 44(4):615-631 doi: 10.1145/263867.263927
    [78] Kolmogorov A N, Tihomirov V M. ε-entropy and ε-capacity of sets in functional space. American Mathematical Society Translations, 1961, 17(2):277-364 http://citeseerx.ist.psu.edu/showciting?cid=139921
    [79] Bousquet O. New approaches to statistical learning theory. Journal of the Institute of Statistical Mathematics, 2003, 55(2):371-389 http://cn.bing.com/academic/profile?id=672bc751662466966b4cbbca41bef961&encoded=0&v=paper_preview&mkt=zh-cn
    [80] Wu P C, Hoi S C H, Xia H, Zhao P L, Wang D Y, Miao C Y. Online multimodal deep similarity learning with application to image retrieval. In:Proceedings of the 21st ACM International Conference on Multimedia. New York, USA:ACM, 2013. 153-162
    [81] Xia H, Wu P C, Hoi S C H. Online multi-modal distance learning for scalable multimedia retrieval. In:Proceedings of the 6th International Conference on Web Search and Data Mining. New York, USA:ACM, 2013. 455-464
    [82] Krzyzak A, Linder T. Radial basis function networks and complexity regularization in function learning. IEEE Transactions on Neural Networks, 1998, 9(2):247-256 doi: 10.1109/72.661120
    [83] Niyogi P, Girosi F. On the relationship between generalization error, hypothesis complexity, and sample complexity for radial basis functions. Neural Computation, 1996, 8(4):819-842 doi: 10.1162/neco.1996.8.4.819
    [84] Park J, Sandberg I W. Universal approximation using radial-basis-function networks. Neural Computation, 1991, 3(2):246-257 doi: 10.1162/neco.1991.3.2.246
    [85] Girosi F. Approximation error bounds that use VC-bounds[Online], available:https://www.researchgate.net/public-ation/2782224_Approximation_Error_Bounds_That_Use_Vc-Bounds, February 18, 2013
    [86] Györfi L, Kohler M, Krzyżak A, Walk H. A Distribution-Free Theory of Nonparametric Regression. Berlin:Springer-Verlag, 2010.
    [87] Haussler D. Decision theoretic generalizations of the PAC model for neural net and other learning applications. Information and Computation, 1992, 100(1):78-150 doi: 10.1016/0890-5401(92)90010-D
    [88] Yu B. Rates of convergence for empirical processes of stationary mixing sequences. The Annals of Probability, 1994, 22(1):94-116 doi: 10.1214/aop/1176988849
    [89] Meir R. Nonparametric time series prediction through adaptive model selection. Machine Learning, 2000, 39(1):5-34 doi: 10.1023/A:1007602715810
    [90] Bartlett P L. Learning with a slowly changing distribution. In:Proceedings of the 5th Annual Workshop on Computational Learning Theory. New York, USA:ACM, 1992. 243-252
    [91] Mansour Y, Mohri M, Rostamizadeh A. Domain adaptation:learning bounds and algorithms. In:Proceedings of the 22nd Annual Conference on Learning Theory. Montreal, QC:Morgan Kaufmann Publishers, 2009.
    [92] Anguita D, Ghio A, Oneto L, Ridella S. In-sample and out-of-sample model selection and error estimation for support vector machines. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(9):1390-1406 doi: 10.1109/TNNLS.2012.2202401
    [93] El-Yaniv R, Pechyony D. Transductive Rademacher complexity and its applications. Journal of Artificial Intelligence Research, 2007, 35:193-234
    [94] Tolstikhin I, Blanchard G, Kloft M. Localized complexities for transductive learning[Online], available:http://arxiv. org/pdf/1411.7200.pdf, November 26, 2014
    [95] Tolstikhin I, Zhivotovskiy N, Blanchard G. Permutational Rademacher complexity. Algorithmic Learning Theory. Switzerland:Springer International Publishing, 2015. 209-223
    [96] Chazottes J R, Collet P, Külske C, Redig F. Concentration inequalities for random fields via coupling. Probability Theory and Related Fields, 2007, 137(1):201-225
    [97] Belomestny D, Spokoiny V. Concentration inequalities for smooth random fields. Theory of Probability and Its Applications, 2014, 58(2):314-323 doi: 10.1137/S0040585X9798659X
    [98] Zhu X J, Rogers T T, Gibson B R. Human Rademacher complexity. In:Proceedings of the 2009 Advances in Neural Information Processing Systems 22. Vancouver, BC, Canada:Curran Associates, Inc., 2009. 2322-2330
    [99] Vahdat M, Oneto L, Ghio A, Anguita D, Funk M, Rauterberg M. Human algorithmic stability and human Radema-cher complexity. In:Proceedings of the 23rd European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning. Bruges, Belgium:Katholieke Universiteit Leuven, 2015. 313-318
    [100] Nolan D, Pollard D. U-processes:rates of convergence. The Annals of Statistics, 1987, 15(2):780-799 doi: 10.1214/aos/1176350374
    [101] Karlin S, Taylor H M. A First Course in Stochastic Processes (2nd edition). New York:Academic Press, 1975.
  • 期刊类型引用(7)

    1. 许冠军. 基于激光图像分析的残缺指纹提取技术. 激光杂志. 2019(04): 78-82 . 百度学术
    2. 桑园. 动态稀疏表示方法在非接触式指纹图像识别中的应用. 科学技术与工程. 2018(21): 258-263 . 百度学术
    3. 姚涛,孔祥维,付海燕,TIAN Qi. 基于映射字典学习的跨模态哈希检索. 自动化学报. 2018(08): 1475-1485 . 本站查看
    4. 武其达,何小海,林宏伟,陶青川,吴笛. 结合帧率变换与HEVC标准的新型视频压缩编码算法. 自动化学报. 2018(09): 1626-1636 . 本站查看
    5. 杨楚皙,赵岩,王世刚,李鹤楠. 小波变换下的特征匹配图像编码. 哈尔滨工程大学学报. 2018(11): 1816-1822 . 百度学术
    6. 张秀荣. 超低位速率分形灰度图像压缩算法仿真. 计算机仿真. 2018(10): 238-241+476 . 百度学术
    7. 李晓峰. 雨后冲刷后罪犯残缺指纹痕迹检验及细节增强方法研究. 科技通报. 2017(09): 168-171+211 . 百度学术

    其他类型引用(4)

  • 加载中
图(1) / 表(3)
计量
  • 文章访问数:  3907
  • HTML全文浏览量:  2402
  • PDF下载量:  2011
  • 被引次数: 11
出版历程
  • 收稿日期:  2016-02-18
  • 录用日期:  2016-07-11
  • 刊出日期:  2017-01-01

目录

/

返回文章
返回