2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

人脸活体检测综述

蒋方玲 刘鹏程 周祥东

叶凌箭. 间歇过程的批内自优化控制. 自动化学报, 2022, 48(11): 2777−2787 doi: 10.16383/j.aas.c190855
引用本文: 蒋方玲, 刘鹏程, 周祥东. 人脸活体检测综述. 自动化学报, 2021, 47(8): 1799-1821 doi: 10.16383/j.aas.c180829
Ye Ling-Jian. Within-batch self-optimizing control for batch processes. Acta Automatica Sinica, 2022, 48(11): 2777−2787 doi: 10.16383/j.aas.c190855
Citation: Jiang Fang-Ling, Liu Peng-Cheng, Zhou Xiang-Dong. A review on face anti-spoofing. Acta Automatica Sinica, 2021, 47(8): 1799-1821 doi: 10.16383/j.aas.c180829

人脸活体检测综述

doi: 10.16383/j.aas.c180829
基金项目: 

国家重点研发计划 2018YFC0808300

国家自然科学基金 61806185

国家自然科学基金 61802361

国家自然科学基金 61602433

详细信息
    作者简介:

    蒋方玲   中国科学院重庆绿色智能技术研究院博士研究生. 2012年获得天津大学计算机科学与技术专业硕士学位. 主要研究方向为人脸活体检测, 计算机视觉与模式识别.E-mail: jiangfangling@cigit.ac.cn

    刘鹏程   中国科学院重庆绿色智能技术研究院助理研究员. 2016年获得中国科学院自动化研究所工学博士学位. 主要研究方向为人脸识别, 跨领域图像识别. E-mail: liupengcheng@cigit.ac.cn

    通讯作者:

    周祥东   中国科学院重庆绿色智能技术研究院副研究员. 2009年获得中国科学院自动化研究所工学博士学位. 主要研究方向为文字识别, 文档分析, 人脸识别. 本文通信作者.E-mail: zhouxiangdong@cigit.ac.cn

A Review on Face Anti-spoofing

Funds: 

National Key Research and Development Program of China 2018YFC0808300

National Natural Science Foundation of China 61806185

National Natural Science Foundation of China 61802361

National Natural Science Foundation of China 61602433

More Information
    Author Bio:

    JIANG Fang-Ling   Ph. D. candidate at Chongqing Institute of Green and Intelligent Technology, Chinese Academy of Sciences. She received her master degree from Tianjin University in 2012. Her research interest covers face anti-spoofing, computer vision, and pattern recognition

    LIU Peng-Cheng   Research assistant at Chongqing Institute of Green and Intelligent Technology, Chinese Academy of Sciences. He received his Ph. D. degree from the Institute of Automation, Chinese Academy of Sciences in 2016. His research interest covers face recognition and cross-domain image recognition

    Corresponding author: ZHOU Xiang-Dong   Associate professor at Chongqing Institute of Green and Intelligent Technology, Chinese Academy of Sciences. He received his Ph. D. degree from the Institute of Automation, Chinese Academy of Sciences in 2009. His research interest covers handwriting recognition, ink document analysis, and face recognition. Corresponding author of this paper
  • 摘要: 人脸活体检测是为了提高人脸识别系统安全性而需要重点研究的问题.本文首先从人脸活体检测的问题出发, 分个体、类内、类间三个层面对人脸活体检测存在的困难与挑战进行了阐述分析.接下来, 本文以算法使用的分类线索为主线, 分类别对人脸活体检测算法及其优缺点进行了梳理和总结.之后, 本文就常用人脸活体检测数据集的特点、数据量、数据多样性等方面进行了对比分析, 对算法评估常用的性能评价指标进行了阐述, 总结分析了代表性人脸活体检测方法在照片视频类数据集CASIA-MFSD、Replay-Attack、Oulu-NPU、SiW以及面具类数据集3DMAD、SMAD、HKBU-MARsV2上的实验性能.最后本文对人脸活体检测未来可能的发展方向进行了思考和探讨.
    Recommended by Associate Editor LIU Qing-Shan
  • 化工过程普遍存在不确定性, 如何采用有效的优化方法找到不确定条件下系统的真实最优点, 对提高化工企业的经济效益发挥着关键作用[1]. 大规模化工过程的控制系统通常为分层递阶结构[2-3], 控制层(下层)的主要任务是抑制底层扰动, 跟踪优化层传递来的被控变量设定值, 优化层(上层)根据调度层(顶层)传达的生产任务指标等, 对当前工况进行识别, 执行相应的优化算法计算出最优设定值, 传递给控制层执行.

    优化层执行的优化算法通常以化工过程的非线性模型为基础, 以传统的“二步法” 实时优化[4-5] 为例, 首先确定模型的不确定参数, 运行过程中采集系统的输出量数据, 对未知参数进行估计, 再基于更新的系统模型进行重优化, 计算出被控变量的最优设定值后传递给控制层. 这一过程通常还需要结合数据调和、稳态检测等技术手段加强优化结果的可靠性, 工业过程的优化周期一般为4 ~ 8小时. 针对传统的“二步法” 的缺点, 近年来涌现出了新的实时优化方法, 如Bonvin课题组提出的修正项自适应方法(Modifier adaptation)[6-7], 通过对标称模型的约束及梯度进行修正, 即使不估计扰动参数也能收敛到真实最优点. 文献[8-10]考虑运行层之间的不同时间尺度, 提出了数据驱动的多速率分层运行优化控制方法, 基于Q学习对基础控制回路的设定值进行在线优化, 使运行层能更好地优化控制性能指标. 自优化控制(Self-optimizing control, SOC)[11-13] 提出通过离线选择控制层的被控变量, 设定值则在线保持不变, 提供了实时优化的另一种研究思路. 在自优化控制中, 被控变量可以是常规物理量的函数, 即构造虚拟量进行控制, 可使系统的操作变量可以在不确定性下进行自寻优. 当底层控制的优化作用较强时(经济损失可接受), 甚至可以省略单独的优化层, 从而简化控制系统. 相比传统的优化方式, 自优化控制的优化在工作频率为秒/分的反馈控制中完成, 因此优化速度得到大幅度提升, 在一系列研究中表现出良好的效果[14-17].

    间歇过程是一类批次加工的化工过程, 具有规模小、灵活性高的特点, 在需求多元化的现代市场中应用越来越广泛. 相比连续化工过程, 间歇过程具有“多重时变” 的操作特征[18-19]. 一方面, 间歇过程具有重复特性, 可以引入学习机制从历史批次的数据中提炼出有用的信息, 改进后续批次的跟踪控制和经济指标优化, 典型的如迭代学习控制[18, 20-23]、批间实时优化[23-24] 等控制和优化技术. 另一方面, 由于其时变特性, 间歇过程在批次内无稳定操作点, 相比连续过程的控制和稳态优化更具挑战[25-27]. 自优化控制经过近20年的发展, 针对连续过程已报道了一系列被控变量求解方法[12, 28-31], 但是针对需动态优化的间歇过程仍缺乏足够的研究. 值得注意的是, 由于从批间角度看间歇过程是一个静态过程[32], 近年来文献[33-34]提出了间歇过程的批间自优化控制方法. 此类方法仅利用了间歇过程的重复性, 基于已有的静态自优化控制方法求解被控变量, 然后设计批间控制器调节输入轨迹, 逐批次将被控变量控制于恒定设定点, 实现实时优化. 但批间优化本质上还是静态方法, 由于需要若干个批次才能实现被控变量的跟踪控制, 优化作用慢, 因此未充分发挥自优化控制的优势. 此外, 批间优化只对具有重复特性的扰动具有效果, 当系统受到高频扰动作用时, 批间控制器难以实现有效的实时优化.

    最近, Ye等[35]提出了一种针对间歇过程的动态自优化控制方法, 通过考虑批内变量的因果性, 最终得到了具有优化作用的控制律. 设计控制系统时, 选择被控变量和设计控制器通常是两个独立任务[36], 前者主要考虑经济指标的优化, 后者关注于如何更好地跟踪控制被控变量, 保证控制系统的稳定性和鲁棒性. 如何在此前提下求解批内被控变量, 仍是一个开放的课题.

    本文研究了间歇过程的批内自优化控制问题, 贡献如下: 1)基于自优化控制策略提出以输出变量的线性组合为被控变量(虚拟变量), 在批次运行过程中对其进行跟踪控制, 以控制手段实现实时优化; 2)根据是否在过程不同阶段切换被控变量, 给出了两种自优化控制策略, 对每种策略又分别给出了两种设定轨线选取方案; 3)引入扩张组合矩阵, 将这些情形统一描述为具有不同结构约束的最优组合矩阵求解问题, 并推导得到了其中一种方案的解析解计算方法. 目前为止, 本文所提方法在国内外文献中未见报道.

    对连续化工过程, 考虑如下静态优化问题

    $$ \begin{split} &\min\limits_{{\boldsymbol{u}}} J({\boldsymbol{u}}, {\boldsymbol{d}})\\ &\;{\rm{s}}.{\rm{t}}. \quad {\boldsymbol{y}} = {\boldsymbol{g}}({\boldsymbol{u}}, {\boldsymbol{d}})\\& \quad\quad\;\; {\boldsymbol{g}}_{\rm{in}}({\boldsymbol{u}}, {\boldsymbol{d}}) \leq0 \end{split} $$ (1)

    其中, $ J $为经济指标, $ {\boldsymbol{u}}\in {\bf R}^{n_u} $, $ {\boldsymbol{d}}\in {\bf R}^{n_d} $$ {\boldsymbol{y}}\in {\bf R}^{n_y} $分别是操纵变量、扰动变量和测量变量, $ {\boldsymbol{g}} $$ {\boldsymbol{g}}_{\rm{in}} $为输出变量的模型函数和约束条件.

    扰动变量$ {\boldsymbol{d}} $变化且在线不可测是化工过程偏离最优点的主要原因. 当扰动变量$ {\boldsymbol{d}} $变化时, 式(1)的解是$ {\boldsymbol{d}} $的函数, 不妨记为$ {\boldsymbol{u}}^{\rm{opt}}({\boldsymbol{d}}) $. 实时优化的任务是在$ {\boldsymbol{d}} $未知的前提下, 寻找到新的最优值$ {\boldsymbol{u}}^{\rm{opt}} $, 实现过程的最优操作. 自优化控制(SOC)通过构造虚拟的被控变量$ {\boldsymbol{c}} = H{\boldsymbol{y}} $, 当反馈控制器将$ {\boldsymbol{c}} $控制在恒定设定值$ {\boldsymbol{c}}_s $上时, 控制器输出能自动逼近当前的实际最优值$ {\boldsymbol{u}}^{\rm{opt}}({\boldsymbol{d}}) $. 当组合矩阵$ H $每行有且只有一个1, 其余为0时, $ {\boldsymbol{c}} $为输出变量$ {\boldsymbol{y}} $的子集, 此时退化为传统的以单变量为被控变量的情形. 更一般的情况下, $ H $中的非零元素提供了更多优化自由度, 可提高系统的闭环经济性能. 例如, 假设系统自由度$ n_u = 2 $, $ {\boldsymbol{y}} = [T\;P\;c_A]^{\rm{T}} $, 包括温度$ T $, 压力$ P $和物质A的浓度$ c_A $, 考虑两种情况:

    $$ {H_1} = \left[ {\begin{array}{*{20}{c}} 1&0&0\\ 0&0&1 \end{array}} \right];\;{H_2} = \left[ {\begin{array}{*{20}{c}} {{h_{11}}}&{{h_{12}}}&{{h_{12}}}\\ {{h_{21}}}&{{h_{22}}}&{{h_{23}}} \end{array}} \right] $$

    $ H_1 $对应的被控变量 $ {\boldsymbol{c}} = H_1{\boldsymbol{y}} $$ T $$ c_A $ (单个物理量), $ H_2 $的被控变量为3个物理量的线性组合. 显然, 前者为后者的一种特殊形式.

    为求解一般情形的最优组合矩阵$ H $, 研究人员针对不同过程特性和衡量标准提出了求解方法[12, 28-31]. 以一种针对线性系统的局部法(Exact local method)为例[28], 首先定义损失函数$ L $

    $$ L = J({\boldsymbol{u}}, {\boldsymbol{d}})-J^{\rm{opt}}({\boldsymbol{d}}) $$ (2)

    对给定的$ {\boldsymbol{d}} $, 将$ J({\boldsymbol{u}}, {\boldsymbol{d}}) $在最优点$ {\boldsymbol{u}}^{\rm{opt}} $处进行二阶泰勒展开

    $$ \begin{split} J({\boldsymbol{u}}, {\boldsymbol{d}}) \approx\;& J^{\rm{opt}}({\boldsymbol{d}})+J_{u}^{{\rm{T}}}\left({\boldsymbol{u}}-{\boldsymbol{u}}^{\rm{opt}}\right)+\\&\frac{1}{2}\left({\boldsymbol{u}}-{\boldsymbol{u}}^{\rm{opt}}\right)^{{\rm{T}}} J_{u u}\left({\boldsymbol{u}}-{\boldsymbol{u}}^{\rm{opt}}\right) \end{split} $$ (3)

    式中, $J_u = \frac{\partial J}{\partial {\boldsymbol{u}}}$$J_{uu} =\frac{ \partial^2J}{\partial {\boldsymbol{u}}^2 }$分别为一阶和二阶敏感矩阵. 根据最优性条件, 最优点处$ J_u = 0 $, 将其代入式(1)可得到二次型损失函数

    $$ L = \frac{1}{2}\left({\boldsymbol{u}}-{\boldsymbol{u}}^{\rm{opt}}\right)^{{\rm{T}}} J_{u u}\left({\boldsymbol{u}}-{\boldsymbol{u}}^{\rm{opt}}\right) $$ (4)

    此外, 输出函数在标称点处的线性化方程为

    $$ {\boldsymbol{y}} = G_{y} {\boldsymbol{u}}+G_{yd}{\boldsymbol{d}} $$ (5)

    若考虑测量变量含噪声: $ {\boldsymbol{y}}_m = {\boldsymbol{y}}+{\boldsymbol{n}} $, 当控制器将被控变量$ {\boldsymbol{c}} = H{\boldsymbol{y}}_m $控制在原设定值上时$ (\Delta {\boldsymbol{c}} = 0) $, 扰动变化$ \Delta{\boldsymbol{d}} $将引起的$ {\boldsymbol{u}} $变化量为

    $$ \Delta{\boldsymbol{u}} = -\left(HG_{y}\right)^{-1} HG_{yd} \Delta{\boldsymbol{d}}+\left(HG_{y}\right)^{-1} H{\boldsymbol{n}} $$ (6)

    同时, 扰动变化$ \Delta{\boldsymbol{d}} $将引起最优点变化

    $$ \Delta {\boldsymbol{u}}^{\rm{opt}} = -J_{uu}^{-1}J_{ud} \Delta{\boldsymbol{d}} $$ (7)

    式中, $J_{ud} = \frac{\partial^2J}{\partial {\boldsymbol{u}}\partial{\boldsymbol{d}} }$. 将式(6)和式(7)代入式(4) 可计算损失函数[28]

    $$ \begin{split} &L = \frac{1}{2}\|{\boldsymbol{z}}\|^2_2\\ &{\boldsymbol{z}}= V(HG_y)^{-1}H\tilde F\begin{bmatrix}{{{\boldsymbol{d}}'}}\\ {\boldsymbol{n}}' \end{bmatrix} = M\begin{bmatrix}{{{\boldsymbol{d}}'}}\\ {\boldsymbol{n}}' \end{bmatrix} \end{split} $$ (8)

    式中, $ V $ 满足 $ V^{\rm{T}}V = J_{uu} $, $ \tilde F = [FW_d\;\;\;W_n] $, $F = \frac{\partial {\boldsymbol{y}}^{\rm{opt}}}{ \partial {\boldsymbol{d}}} = -(G_yJ_{uu})^{-1}J_{ud}+G_{yd}$, $ W_d $$ W_n $为对角矩阵, 其对角元素为$ {\boldsymbol{d}} $$ {\boldsymbol{n}} $的幅值, $ {\boldsymbol{d}}' $$ {\boldsymbol{n}}' $为归一化后的扰动和噪声向量, 其最大范数为1.

    式(8)中的损失$ L $为单个工况$ (\Delta{\boldsymbol{d}},{\boldsymbol{n}}) $引起的损失. 当$ {\boldsymbol{d}} $$ {\boldsymbol{n}} $在其变化范围内变化时, 文献[23-24]中分别以$ L $的最大值$ L_{\max} $和平均值$ L_{\rm{av}} $为衡量标准, 提出了$ H $的求解方法. 以平均损失$ L_{\rm{av}} $为例, 当$ {\boldsymbol{d}}' $$ {\boldsymbol{n}}' $为正态分布时, 可得到如下最优化问题求解$ H $

    $$ \min\limits_{H} L_{\rm{opt}} = 0.5\|M\|_{\rm{F}}^{2} $$ (9)

    引理1[35]. $ L_{\rm{av}}(H) = L_{\rm{av}}(QH) $, 其中$ Q $为任意$ n_u $维非奇异方阵.

    引理1表明, 式(9)的解非唯一(因为控制$ {\boldsymbol{c}} = H{\boldsymbol{y}} $$ {\boldsymbol{c}} = QH{\boldsymbol{y}} $等效). 利用该特性, 可以先求解出式(9)的一个特解, 再推广至通解形式. 文献[24]给出了最优$ H $的一个特解, 即

    $$ H^{\rm{T}} = (\tilde{F}\tilde{F}^{\rm{T}})^{-1}{G}_y({G}_y^{\rm{T}}(\tilde{F}\tilde{F}^{\rm{T}})^{-1}G_y)^{-1}J_{uu}^{\frac{1}{2}} $$ (10)

    考虑一类带不确定参数的间歇过程优化问题

    $$ \begin{split} \min\limits_{{\boldsymbol{u}}(t)} J &= \phi\left({\boldsymbol{y}}\left(t_{f}\right)\right)\\ {\rm{s.t.}} \quad\; &\dot{{\boldsymbol{x}}} = {\boldsymbol{f}}({\boldsymbol{x}}, {\boldsymbol{u}}, {\boldsymbol{d}}), \quad {\boldsymbol{x}}(0) = {\boldsymbol{x}}_{0}\\ &{\boldsymbol{y}} = {\boldsymbol{f}}_{y}({\boldsymbol{x}},{\boldsymbol{u}}) \\ &{\boldsymbol{u}}_{L} \leq {\boldsymbol{u}}(t) \leq {\boldsymbol{u}}_{U} \\ &{\boldsymbol{T}}({\boldsymbol{x}}, {\boldsymbol{u}}) \leq 0 \end{split} $$ (11)

    式中, $ J $为最小化目标, $ {\boldsymbol{u}}(t)\in {\bf R}^{n_u} $为操纵变量轨迹($ {\boldsymbol{u}}_L $$ {\boldsymbol{u}}_U $分别为输入下上限), $ {\boldsymbol{x}}\in {\bf R}^{n_x} $, $ {\boldsymbol{y}}\in {\bf R}^{n_y} $$ {\boldsymbol{d}}\in {\bf R}^{n_d} $分别为状态向量(初态$ {\boldsymbol{x}}_0 )$、测量变量和不确定扰动, $ t_f $为批次运行时间, $ \phi $为目标函数, $ {\boldsymbol{f}} $, $ {\boldsymbol{f}}_y $$ {\boldsymbol{T}} $分别为模型方程、输出方程和过程约束.

    对式(11)所示的动态优化问题, 通常可以基于数值法将其近似为离散化的非线性规划(Non-linear programming, NLP)问题[37]

    $$ \begin{split} \min_{{\boldsymbol{u}}_i,\cdots,{\boldsymbol{u}}_N}& J = \phi\left({\boldsymbol{y}}(N)\right)\\ {\rm{s.t. }} \;\;\quad &{\boldsymbol{x}}(i+1) = {\boldsymbol{\hat f}}({\boldsymbol{x}}(i), {\boldsymbol{u}}(i), {\boldsymbol{d}}(i)), \quad {\boldsymbol{x}}(0) = {\boldsymbol{x}}_{0}\\ &{\boldsymbol{y}}(i) = {\boldsymbol{\hat f}}_{y}({\boldsymbol{x}}(i),{\boldsymbol{u}}(i)) \\ &{\boldsymbol{u}}_{L} \leq {\boldsymbol{u}}(i) \leq {\boldsymbol{u}}_{U} \\ &{\boldsymbol{T}}({\boldsymbol{x}}(i), {\boldsymbol{u}}(i)) \leq 0\\ &\forall\;i = 1,\cdots,N \\[-10pt]\end{split} $$ (12)

    式中, $ N $为间歇过程在操作区间$ [0, t_f] $内的离散段数, $ {\boldsymbol{\hat f}} $$ {\boldsymbol{\hat f}}_y $代表离散后的非线性状态方程和输出方程.

    对上述间歇过程的优化问题, 文献[27-28]提出了批间自优化控制方法, 即构造被控变量$ {\boldsymbol{c}} = H{\boldsymbol{y}} $, 利用间歇过程的重复特性逐批次将$ {\boldsymbol{c}} $控制在恒设定值上. 从批间角度看, 间歇过程是一个静态过程, 因此第1节中针对连续过程的被控变量求解方法可以较为直接地拓展至间歇过程. 但批间优化需要经历若干批次实现被控变量的控制, 优化速度较慢. 并且, 若扰动的变化频率较高(如非重复性扰动), 则难以实现被控变量的跟踪控制, 优化效果有限.

    本文研究间歇过程的批内自优化控制方法, 即在单批次中控制被控变量实现实时优化. 与批间优化相比, 批内优化的响应速度更快, 能提高优化效果. 由于跟踪控制在单批次内完成, 批内优化能应对非重复性扰动. 对被控变量$ {\boldsymbol{c}} = H{\boldsymbol{y}} $及其设定值$ {\boldsymbol{c}}_s $, 考虑如下几种策略:

    策略1. $ H $$ {\boldsymbol{c}}_s $保持恒定;

    策略2. $ H $恒定, $ {\boldsymbol{c}}_s $时变;

    策略3. $ H $$ {\boldsymbol{c}}_s $均时变.

    策略1为连续过程中采用的自优化控制方法, 对具有时变特性的间歇过程, 一般难以取得理想效果. 策略2采用恒定被控变量, 其设定值为动态轨线, 较策略1更适合间歇过程. 策略3进一步考虑具有切换结构的控制系统, 对离散化的间歇过程, 在$ [t_i, t_{i+1}) $时间段内控制一组新的被控变量, 如图1所示.

    图 1  间歇过程的离散化变量及自优化控制策略
    Fig. 1  Discretization of batch processes and self-optimizing control strategy

    结合间歇过程的时变特性, 本文主要研究策略2和策略3的被控变量求解问题. 对此, 引入如下假设条件:

    假设1. 输出变量$ {\boldsymbol{y}} $在时间轴$ [0,t_f] $上连续可测.

    假设2. 对一组选定的被控变量$ {\boldsymbol{c}}(i) = H(i){\boldsymbol{y}} $及设定值$ {\boldsymbol{c}}_s(i) $, 在对应的时间间隔$ [t_i,t_{i+1}) $内, 控制器可以将被控变量$ {\boldsymbol{c}}(i) $控制在其设定值$ {\boldsymbol{c}}_s(i) $上, 即$ \lim_{t\rightarrow t_{i+1}}H(i){\boldsymbol{y}}(t) = {\boldsymbol{c}}_s(i) $.

    采用策略2时, 第1个时间段$ [t_0,t_1) $内的被控变量$ {\boldsymbol{c}}(t) = H{\boldsymbol{y}}(t) $, 设定值为$ c_s(1) $, 至终点$ t_1 $实现$ H{\boldsymbol{y}}(1) = {\boldsymbol{c}}_s(1) $; 第2个时间段$ {\boldsymbol{c}}(t) = H{\boldsymbol{y}}(t) $的设定值变为$ {\boldsymbol{c}}_s(2) $, 至终点$ t_2 $实现$ H{\boldsymbol{y}}(2) = {\boldsymbol{c}}_s(2) $; 以此类推.

    对策略2, 进一步考虑两种设定值选取方案:

    方案1. 设定值轨线$ [{\boldsymbol{c}}_s(1),\cdots,{\boldsymbol{c}}_s(N)] $为一组既定常数, 对给定的组合矩阵$ H $, 设定值$ c_s(i) $为被控变量$ {\boldsymbol{c}} = H{\boldsymbol{y}}(t) $在各时间节点处的标称值$ {\boldsymbol{c}}_s^*(i) $, 使标称工况的损失为0.

    方案2. 设定值$ {\boldsymbol{c}}_s(i) $为当前批次运行至$ t_{i-1} $时刻的变量${\boldsymbol{y}}(0:i-1) = [{\boldsymbol{y}}^{\rm{T}}(0)\;\cdots\;{\boldsymbol{y}}^{\rm{T}}(i-1)]^{\rm{T}}$的函数, 不妨假定为线性关系, 记为$ {\boldsymbol{c}}_s(i) = {\boldsymbol{c}}_s^*(i)- H'(i){\boldsymbol{y}}(0:i-1) $, 其中$ H'(i) $为待确定的系数矩阵.

    可以看到, 方案1中被控变量的设定轨线固定不变. 而方案2的被控变量设定轨线在当前批次运行过程中不断利用测量值进行修正. 相比方案1, 方案2更加充分地利用了过程信息, 理论上能进一步提高优化效果, 但需求解额外的决策变量$ H'(i), i = 1,\cdots,N $.

    为推导这两种方案中损失函数与组合矩阵$ H $之间的关系, 定义如下超向量

    $$ \begin{split} &{\boldsymbol{\bar{u}}}^{\rm{T}} = [{\boldsymbol{u}}^{\rm{T}}(0)\;\;\;{\boldsymbol{u}}^{\rm{T}}(1)\; \cdots\; {\boldsymbol{u}}(N-1)^{\rm{T}}] \in {\bf R}^{n_{\bar{u}}= N_{u}}\\ &{\boldsymbol{\bar{d}}}^{\rm{T}} = \left[{\boldsymbol{d}}^{\rm{T}}(0)\;\;\; {\boldsymbol{d}}^{\rm{T}}(1) \;\cdots \;{\boldsymbol{d}}(N-1)^{\rm{T}}\right] \in {\bf R}^{n_{\bar{d}}= N n_{d}} \\ &{\boldsymbol{\bar{y}}}^{\rm{T}} = \left[{\boldsymbol{y}}^{\rm{T}}(0)\;\;\; {\boldsymbol{y}}^{\rm{T}}(1)\; \cdots\; {\boldsymbol{y}}(N)^{\rm{T}}\right] \in {\bf R}^{n_{\bar{y}}= (N+1) n_{y}} \end{split} $$ (13)

    式中, 超向量$ {\boldsymbol{\bar{u}}},{\boldsymbol{\bar{y}}},{\boldsymbol{\bar{d}}} $由时间轴 $ [0, t_f] $上各离散点处的变量堆叠组成. 为便于描述, 将上述超向量的非线性映射关系记为

    $$ {\boldsymbol{\bar{y}}} = G({\boldsymbol{\bar{u}}},{\boldsymbol{\bar{d}}}) $$ (14)

    式中, 映射函数$ G $由式(12)中的状态方程$ {\boldsymbol{\hat f}} $$ {\boldsymbol{\hat f}}_y $定义. 使用超向量, 间歇过程中变量的动态关系记为式(14)所示的静态函数.

    对方案1, 定义如下扩张组合矩阵$ \bar H\in {\bf R}^{n_{\bar u}\times n_{\bar y}} $及总被控变量$ {\boldsymbol{\bar c}}\in {\bf R}^{Nn_{\bar u}} $

    $$ \begin{split} &\bar{H} = \left[\begin{array}{ccccc} [0\;H] & 0 & \cdots & 0 \\ 0 & H & \cdots & 0 \\ \vdots & \vdots & \ddots &\vdots \\ 0 & 0 & \cdots & H \end{array}\right]\\ &{\boldsymbol{\bar{c}}} = \bar{H} \bar{y} = \left[\begin{array}{c} H{\boldsymbol{y}}(1) \\ H{\boldsymbol{y}}(2) \\ \vdots \\ H{\boldsymbol{y}}(N) \end{array}\right] \end{split} $$ (15)

    方案2也可以定义相同维度的扩张组合矩阵$ \bar H $及总被控变量$ {\boldsymbol{\bar c}} $:

    $$ \begin{split}&\bar{H}=\left[\begin{array}{ccccc} H_{1}' & H & 0 & \cdots & 0 \\ \left[H_{2}'\right. & \rightarrow] & H & \cdots & 0\\ \vdots & \vdots& \vdots &\ddots & \vdots \\ \left[\leftarrow\right.& H_{N}'& \rightarrow&\rightarrow]& H \end{array}\right]\\ &{\boldsymbol{\bar{c}}} = \bar{H}{\boldsymbol{\bar{y}}} = \left[\begin{array}{c} H{\boldsymbol{y}}(1)+H_{1}' {\boldsymbol{y}}(0) \\ H{\boldsymbol{y}}(2)+H_{2}' {\boldsymbol{y}}(0: 1) \\ \vdots \\ H{\boldsymbol{y}}(N)+H_{N}' {\boldsymbol{y}}(0: N-1) \end{array}\right] \end{split} $$ (16)

    式中, $ [t_{i-1}, t_i) $的被控变量为$ {\boldsymbol{\bar{c}}}(i) = H {\boldsymbol{y}}(i)+ H_{i}'{\boldsymbol{y}}(0: i-1) $, 等同于被控变量$ {\boldsymbol{\bar{c}}}(i) = H {\boldsymbol{y}}(i) $, 且设定值修正量为$ -H_{i}'{\boldsymbol{y}}(0: i-1) $, 因为在$ t-1 $时刻$ {\boldsymbol{y}}(0: i-1) $为已知量.

    引入扩张组合矩阵$ \bar{H} $后, 总被控变量$ {\boldsymbol{\bar{c}}} $由每个时间节点的被控变量组成, 方案1 和方案2统一地描述为静态自优化控制问题的规范形. 结合第1节已有的结论, 可以得到损失函数$ L_{\rm{av}} $$ \bar{H} $的关系表达式, 即求解如下最优化问题

    $$ \begin{split} & \min\limits_{\bar H} L_{\rm{av}} = 0.5\left\|V\left(\bar{H} G_{y}\right)^{-1} \bar{H} \tilde{F}\right\|_{\rm{F}}^{2}\\ &\; {\rm{s.t.}} \quad 式\;(15)\;或式\;(16) \end{split} $$ (17)

    式中, $ V,G_y $$ \tilde F $等矩阵均定义为超向量之间的关系.

    上述优化问题和静态问题(9)之间的不同之处在于, 此处扩张组合矩阵$ \bar H $应满足式(15)或式(16)所示的结构, 即矩阵$ \bar H $具有结构性约束. 式(10)所示的解析解不能直接推广至式(17)求解, 否则不满足约束条件(15)或(16).

    采用策略3时, 在第1个时间段$ [t_0,t_1) $内, 控制器控制被控变量$ {\boldsymbol{c}}(t) = H(1){\boldsymbol{y}}(t) $, 设定值为$ {\boldsymbol{c}}_s(1) $, 至终点$ t_1 $实现$ H(1){\boldsymbol{y}}(1) = {\boldsymbol{c}}_s(1) $; 在第2个时间段$ [t_1,t_2) $内, 被控变量切换为$ {\boldsymbol{c}}(t) = H(2){\boldsymbol{y}}(t) $, 设定值为$ {\boldsymbol{c}}_s(2) $, 至终点$ t_2 $实现$ H(2){\boldsymbol{y}}(2) = {\boldsymbol{c}}_s(2) $; 以此类推. 类似地, 对策略3也考虑两种方案:

    方案3. 每组被控变量$ {\boldsymbol{c}}(i) $对应的设定值$ [{\boldsymbol{c}}_s(1),\cdots,{\boldsymbol{c}}_s(N)] $为既定常数, 为$ H(i){\boldsymbol{y}}(i) $在时间节点$ t_i $处的标称值$ {\boldsymbol{c}}_s^*(i) $.

    方案4. 设定值$ {\boldsymbol{c}}_s(i) $为当前批次运行至$ t_{i-1} $时刻的变量$ {\boldsymbol{y}}(0:i-1) = [{\boldsymbol{y}}^{\rm{T}}(0)\;\cdots\;{\boldsymbol{y}}^{\rm{T}}(i-1)]^{\rm{T}} $的函数, 记为$ {\boldsymbol{c}}_s(i) = {\boldsymbol{c}}_s^*(i)-H'(i) {\boldsymbol{y}}(0:i-1) $, 其中$ H'(i) $为待确定的系数矩阵.

    同理, 对策略3的两种方案也分别定义扩张组合矩阵$ \bar H $及总被控变量$ {\boldsymbol{\bar c}} $.

    方案3中,

    $$\begin{split} &\bar{H} = \left[\begin{array}{ccccc} [0\;H(1)] & 0 & \cdots & 0 \\ 0 & H(2) & \cdots & 0 \\ \vdots & \vdots & \ddots &\vdots \\ 0 & 0 & \cdots & H(N) \end{array}\right] \\ &{\boldsymbol{\bar{c}}} = \bar{H} \bar{y} = \left[\begin{array}{c} H(1){\boldsymbol{y}}(1) \\ H(2){\boldsymbol{y}}(2) \\ \vdots \\ H(N){\boldsymbol{y}}(N) \end{array}\right] \end{split} $$ (18)

    方案4中,

    $$\begin{split} &\bar{H}=\left[\begin{array}{ccccc} H_{1}' & H(1) & 0 & \cdots & 0 \\ \left[H_{2}'\right. & \rightarrow] & H(2) & \cdots & 0\\ \vdots & \vdots& \vdots &\ddots & \vdots \\ \left[\leftarrow\right.& H_{N}'& \rightarrow&\rightarrow]& H(N) \end{array}\right]\\ &{\boldsymbol{\bar{c}}} = \bar{H}{\boldsymbol{\bar{y}}} = \left[\begin{array}{c} H(1){\boldsymbol{y}}(1)+H_{1}' {\boldsymbol{y}}(0) \\ H(2){\boldsymbol{y}}(2)+H_{2}' {\boldsymbol{y}}(0: 1) \\ \vdots \\ H(N){\boldsymbol{y}}(N)+H_{N}' {\boldsymbol{y}}(0: N-1) \end{array}\right]\end{split} $$ (19)

    与策略2相比, 策略3中两种方案的组合矩阵$ H $是时变的, 即需求取 $ N $个组合矩阵$ H(i), i = 1,\cdots,N $. 同理, 对策略3求解如下最优化问题

    $$ \begin{split} &\min\limits_{\bar H} L_{\rm{av}} = 0.5\left\|V\left(\bar{H} G_{y}\right)^{-1} \bar{H} \tilde{F}\right\|_{\rm{F}}^{2}\\& \;{\rm s.t.} \quad 式\;(18)\;或式\;(19) \end{split} $$ (20)

    从以上分析看到, 对不同的控制策略和设定值选取方案, 可以统一归结为具有不同结构的扩张组合矩阵$ \bar H $的求解问题, 可以在优化问题中对$ \bar H $施加等式约束实现. 一般来说, 具有特定结构的组合矩阵难以求得闭合解, 需使用数值优化算法.

    注1. 以上提出的4种被控变量选择方案, 从控制角度看, 执行策略2 (方案1)最简单, 但优化效果可能较差; 策略3 (方案4)理论上的优化效果最好, 但被控变量需要不断切换, 并且设定轨线也要在线修正. 针对具体过程, 需结合过程特性和优化性能结果综合考虑这两个因素, 选择最合理的自优化控制方案.

    下面提出一种针对策略3 (方案4)的闭合解求解方法. 如式(19)所示, 此时$ \bar H $为块下三角矩阵. 为表述方便, 将式(19)所示的$ \bar H $表达式记为

    $$ \bar{H}=\left[\begin{array}{cccc} \bar H_1 & 0 & \cdots & 0 \\ \left[\bar H_2\right. & \rightarrow]& \cdots & 0\\ \vdots & \vdots &\ddots & \vdots \\ \left[\leftarrow\right.& \bar H_N &\rightarrow & \rightarrow] \end{array}\right] $$ (21)

    式中, 子矩阵$\bar{H}_i =\left[H_{i}'\;H(i)\right] \in {\bf R}^{n_{u} \times i n_{y}}$, 同时包含了$ i $时刻的被控变量组合矩阵$ H(i) $及修正设定值轨线的系数矩阵$ H_{i}' $.

    引理 2. 对满足式(21)结构的$ \bar{H} $及非奇异块下三角矩阵$ Q $, 转化矩阵$ \bar H' = Q\bar{H} $同样满足式(21)结构, 并且$ L_{\rm{av}}(\bar H) = L_{\rm{av}}(\bar H') $.

    证明. 由于$ \bar H $$ Q $均为块下三角, 显然$ \bar H' $也为块下三角矩阵. 将$ \bar H' = Q\bar{H} $代入到损失函数表达式$L_{\rm{av}}(\bar{H}') = 0.5\|V(\bar{H}'G_{y})^{-1} \bar{H}'\tilde{F}\|_{\rm{F}}^{2}$中, $ Q $矩阵前后互消, 结论成立. □

    与引理1类似, 引理2也可用于先求解$ \bar H $的特解. 注意到敏感矩阵$ G_y $为块下三角矩阵, 因此$ \bar HG_y $的逆也为块下三角. 将$ V $取为满足$V^{\rm{T}}V = J_{uu}$的块下三角矩阵, 可以对$ J_{uu} $进行Cholesky分解得到.

    定理 1. 对策略3 (方案4)的$ \bar H $矩阵, 式(20)等同于求解如下问题

    $$ \begin{split} &\min\limits_{\bar{H}(1), \cdots, \bar H(N)} L_{\rm{av}} = 0.5 \sum\limits_{i = 1}^{N}\left\|\bar{H}(i) \tilde{F}_{i}\right\|_{\rm{F}}^{2}\\ &{\rm{s.t.}} \quad \bar{H}(i) G_{y i} = V_{i}, \;\forall i = 1, \cdots, N \end{split} $$ (22)

    式中, $ \tilde{F}_{i} $$ \tilde{F} $的子矩阵 (前$ n_yi $行, 前$ n_d+n_yi $列), $ G_{yi} $$ G_y $的子矩阵 (前$ n_yi $行, 前$ n_ui $列), $ V_i $$ V $的第$ i $个分块矩阵.

    证明. 根据引理2, 可选择任意非奇异的块下三角矩阵$ Q $对矩阵$ \bar H $进行转化求取特解, 可选择$ Q = V(\bar HG_y)^{-1} $, 使$ \bar H' = Q\bar{H} $满足

    $$ \bar{H}'G_{y} = V\left(\bar{H} G_{y}\right)^{-1}\bar{H}G_{y} = V $$ (23)

    即对$ \forall i = 1,\cdots,N $, 均满足

    $$ \bar{H}'({{i}}) G_{y i} = V_{i} $$ (24)

    不失一般性, 式(24)可作为对决策变量$ \bar H $的约束加入到优化问题中. 此时

    $$ \begin{split} L_{\rm{av}} =\;& 0.5\left\|V(\bar{H} G_{y})^{-1} \bar{H}\tilde{F}\right\|_{\rm{F}}^{2} = 0.5\left\| \bar{H} \tilde{F}\right\|_{\rm{F}}^{2} = \\ & 0.5 \sum\limits_{i = 1}^{N}\left\| \bar{H}(i) \tilde{F}\right\|_{\rm{F}}^{2} \end{split} $$ (25)

    通过合理利用转化矩阵$ Q $, 定理1将目标函数及约束条件分解到每个离散时间节点, 能够沿时间轴依次求解出子矩阵$ \bar H(i) $. 对$\forall i = 1,\cdots,N$, 求解如下优化问题

    $$ \begin{split} &\min\limits_{\bar{H}(i)}\;\;0.5\left\|H_{i} \tilde{F}_{i}\right\|_{\rm{F}}^{2}\\ &{\rm{s.t.}}\;\;\bar{H}(i) G_{y i} = V_{i} \end{split} $$ (26)

    式(26)为带等式约束的二次型凸优化问题, 可进一步求得解析解.

    定理 2. 对式(26)所示的带等式约束的二次型凸优化问题, 其闭合解为

    $$ \bar{H}(i)^{\rm{T}} = (\tilde{F}_{i} \tilde{F}_{i}^{\rm{T}})^{-1} G_{yi}\left(G_{y i}^{\rm{T}}(\tilde{F}_{i} \tilde{F}_{i}^{\rm{T}})^{-1} G_{y i}\right)^{-1} V_{i}^{\rm{T}} $$ (27)

    证明. 式(26)在形式上与第1节静态自优化控制问题一致, 闭合解(27)的推导过程可参见文献[28]. □

    综上, 本文求取最优扩张组合矩阵$ \bar H $的计算步骤如图2所示, 其中策略3 (方案4)可直接应用定理2 求得闭合解, 其他3种情况则需使用数值优化法求取. 由于目标函数$ L_{\rm{av}} $$ \bar H $的非线性函数, 优化问题(17)和(20)不能保证得到全局最优解. 对此, 策略3 (方案4)得到的解析解可作为数值优化的初始解进行寻优.

    图 2  最优扩张组合矩阵$\bar H$的求解步骤
    Fig. 2  Procedure for solving the optimal extended combination matrix $\bar H$

    本节研究一个带副反应的间歇反应器, 主副反应分别为$ A+B\rightarrow C $$ 2B\rightarrow D $, 其中反应物$ A $在初始时刻投放完毕, $ B $在反应过程中实时投放, 实时流量为操纵变量$ u(t) $. 体系的模型方程为

    $$ \frac{{\rm{d}}c_A}{{\rm{d}}t} = -k_1c_Ac_B-\frac{c_Au}{V},\quad c_A(0) = c_{A0} $$ (28)
    $$\begin{split}& \frac{{\rm{d}}c_B}{{\rm{d}}t} = -k_1c_Ac_B-2k_2c_B^2-(c_B-c_{Bin})\frac{u}{V}, \\ & c_B(0) = c_{B0} \end{split} $$ (29)
    $$ \frac{{\rm{d}}V}{{\rm{d}}t} = u, \quad V(0) = V_0 $$ (30)
    $$c_C = \frac{c_{A0}V_0-c_AV}{V} $$ (31)
    $$ c_D = \frac{c_A+c_{Bin}-c_B}{2}-\frac{c_{A0}+c_{Bin}-c_{B0}}{2V} $$ (32)

    式中, $ c_X $表示物料$ X $的浓度, $ V $为持液量, 其他符号含义及标称值列于表1.

    表 1  间歇反应器参数及标称值
    Table 1  Parameters for the reactor model and nominal values
    符号 物理含义 标称值
    $ k_1 $ 主反应的反应常数 0.053 L·mol/min
    $ k_2 $ 副反应的反应常数 0.128 L·mol/min
    $ u_L $ $ u $下限 0 L/min
    $ u_U $ $ u $上限 0.001 L/min
    $ c_{Bin} $ B 进料浓度 5 mol/L
    $ c_{Ao} $ A 初始浓度 0.72 mol/L
    $ c_{Bo} $ B 初始浓度 0.0614 mol/L
    $ V_o $ V 初始值 1 L
    $ t_f $ 批次运行时间 250 min
    下载: 导出CSV 
    | 显示表格

    操作目标为在 $ [0, t_f] $操作时段内最大化产物产量$ C $的同时减少副产物$ D $, 即表示为如下优化问题

    $$ \begin{split} \max\limits_{u(t)} J& = [c_C(t_f)-c_D(t_f)]V(t_f) \\ {\rm{s.t}}. \quad & 0\leq u(t)\leq 0.001 \;{\rm{L/min}} \end{split} $$ (33)

    表1所示的标称工况下, 使用数值优化方法求解式(33)可得到$ u(t) $的最优输入轨迹(图3). 可以看到, 此时$ u(t) $整个轨线处于可行域内, 最优值$ J^{\rm{opt}} $ = 0.271687 mol. 反应常数$ k_1 $$ k_2 $为不确定扰动, 变化范围为其标称值的$ \pm $40%. 当$ k_1 $$ k_2 $变化时, $ u(t) $的最优输入轨迹随之改变.

    图 3  标称点的最优输入轨迹
    Fig. 3  Optimal input trajectory at the nominal point

    为更清晰地阐述本文方法, 以$ N = 2 $为例(即$ [0, t_f] $被均匀离散为两段), 介绍如何使用第2节中的方法求解不同被控变量. 离散后的优化变量个数$ n_{\bar u} = 2 $, 对式(33)进行重优化后得到Hessian矩阵和$ V $矩阵

    $$ \begin{split} & J_{\bar u\bar u} = \left[\begin{array}{cc} 3.70 & 1.74 \\ 1.74 & 3.47 \end{array}\right] \times 10^{5}\\ & V = \left[\begin{array}{cc} 532.2 & 0 \\ 294.9 & 589.0 \end{array}\right] \end{split} $$ (34)

    考虑使用$ c_A $$ c_B $构造被控变量, 对离散系统进行线性化, 得到

    $$ {\boldsymbol{\bar{y}}} = G_{y}{\boldsymbol{\bar{u}}}+G_{yd}{\boldsymbol{d}} $$ (35)

    式中

    $$ \begin{split} & G_{y} = \left[\begin{array}{cc} 0 & 0 \\ 0 & 0 \\ -264.45 & 0 \\ 88.27 & 0 \\ -210.43 & -181.20 \\ 10.48 & 98.16 \end{array}\right] \\ & G_{y d} = \left[\begin{array}{cc} 0 & 0 \\ 0 & 0 \\ -2.07 & 0.32 \\ -0.41 & -0.15 \\ -2.90 & 0.52 \\ -0.21 & -0.19 \end{array}\right]\\ & F = \left[\begin{array}{cc} 0 & 0 \\ 0 & 0 \\ -4.03 & 0.81 \\ 0.24 & -0.31 \\ -4.99 & 1.02 \\ 0.16 & -0.27 \end{array}\right] \end{split} $$ (36)

    其中, 测量变量${\boldsymbol{\bar{y}}}^{\rm{T}} = \left[y^{\rm{T}}(0)\;\; y^{\rm{T}}(1)\;\; y^{\rm{T}}(2)\right]$$ c_A $$ c_B $分别在0, 125 min及250 min时刻的量组成. 得到上述矩阵后, 可以构造式(17)和式(20)所示的优化问题来求解被控变量, 结果如下.

    1) 策略2 (方案1): $ H = [-0.0026\;\;0.0035] $, 即整个时间段内都控制被控变量$ c(t) = -0.0026 c_A+ 0.0035 c_B $. 经计算, 前125 min的设定值为$ c_s(1) = -0.000303 $, 后125 min的设定值为$ c_s(2) = -0.000059 $.

    2)策略2 (方案2): 求解得到的扩张组合矩阵$ \bar H $

    $$ \bar{H} = \left[\begin{array}{cccccc} 0 & 0 & -1.11 & 2.70 & 0 & 0 \\ 0 & 0 & \,\;\;0.51 & 1.93 & -1.11 & 2.70 \end{array}\right] $$

    即整个时间段内, 被控变量为$ c(t) = -1.11 c_A+ 2.70 c_B $. 前125 min的设定值为$ c_s(1) = -0.33 $, 后125 min设定值为$ c_s(2) = 0.20-0.51 c_A(1)-1.93 c_B(1) $.

    3)策略3 (方案3): $ H(1) = [-0.0019\;\;\;0.0057] $, $H(2) = [-0.0015\;\;\;0.0074]$, 即前125 min 被控变量$ c(1) = -0.0019 c_A+0.0057 c_B $, 后125 min被控变量$ c(2) = -0.0015 c_A+0.0074 c_B $, 其设定值分别为$c_s(1) =-0.00048$$c_s(2) = -0.000034$.

    4)策略3 (方案4): 根据定理2, 求得扩张矩阵$ \bar H $

    $$ \bar{H} = \left[\begin{array}{cccccc} 0 & 0 & -1.06 & 2.85 & 0 & 0 \\ 0 & 0 &\;\;\, 0.88 & 2.07 & -1.48 & 3.27 \end{array}\right] $$

    即前125 min被控变量$ c(1) = -1.06 c_A+ 2.85 c_B $, 设定值$ c_s(1) = -0.29 $; 后125 min被控变量$c(2) = -1.48 c_A+3.27 c_B$, 设定值$c_s(2) = 0.31 - 0.88 c_A(1)- 2.07 c_B(1)$.

    由于$ N = 2 $难以逼近整个间歇操作过程, 后文设置$ N = 20 $并以相同的方法重新求解被控变量, 同时, 在测量变量中加入体积变量$ V $提高优化效果. 从表2可观察到:

    表 2  损失函数$ L_{\rm{av}} $
    Table 2  Loss function $ L_{\rm{av}} $
    策略及方案 $ N = 2 $ $ N = 20 $
    策略 2 (方案 1) 0.0371 0.0083
    策略 2 (方案 2) 0.03423 0.0024
    策略 3 (方案 3) 0.0368 0.0069
    策略 3 (方案 4) 0.03420 0.0022
    下载: 导出CSV 
    | 显示表格

    1) 4种方案的损失$ L_{\rm{av}} $$N=20 $时, 相比$ N = 2 $都大幅度降低;

    2) 策略2 (方案1)的损失函数为0.0083, 策略2 (方案2)通过在线设定值修正, 进一步将损失减少到0.0024;

    3) 策略3 (方案3)的损失为0.0069, 略低于策略2 (方案1);

    4) 策略2 (方案3)的损失为 0.0024, 与策略3 (方案4)的损失0.0022很接近, 表明不切换被控变量也能得到较好的优化控制效果.

    基于表2的结果, 策略2 (方案2)与策略3 (方案4)效果接近, 但前者无需在线切换被控变量, 更易于在线控制, 因此考虑使用策略2 (方案2)对该反应器进行批内自优化控制. 此外, 动态仿真中将与策略2 (方案1)的结果进行对比, 有助于进一步理解本文方法.

    策略2 (方案1)的被控变量为$ c_1(t) = 0.0062 c_A+ 0.002 c_B+0.0831 V $, 设定值轨线如图4所示. 为进一步获取平滑的设定值轨线, 使操作更为平稳, 对这些离散点进行回归分析, 得到平滑的设定值轨迹方程$ c_s(t) = 0.0877+3.705\times 10^{-5}t-1.97\times 10^{-8}t^2 $, 为一条随时间$ t $变化的连续曲线, 如图4所示. 对该系统可以采用普通的PI控制器对被控变量$ c_1(t) $进行跟踪控制.

    图 4  策略2 (方案1)的设定值轨线
    Fig. 4  Setpoint trajectory for Strategy 2 (Scheme 1)

    策略2 (方案2)的被控变量为$ c_2(t) = 0.0026 c_A+ 0.00032 c_B+0.0830 V $, 设定值轨线在每批次运行过程中采集测量值进行在线修正. 为增强操作平稳性, 在$ t_k $时刻计算得到 $ t_{k+1} $时刻的设定点后, 在$ [t_k,t_{k+1}] $时间段内设置斜坡形设定值轨线, 使设定轨线维持连续性. 同样使用PI控制器跟踪控制得到的被控变量$ c_2(t) $.

    不确定参数$ k_1 $$ k_2 $分别改变 +20%和 −20%时的优化控制效果如图5所示, 从图5(a)中可以看到, 两种方法分别对$ c_1(t) $$ c_2(t) $都实现了较好的闭环跟踪控制, 其中, $ c_2(t) $的设定轨线根据批内采集到的测量值进行了调整, 相比自身的标称轨线有一定程度的上移; 图5(b)显示不同方法的控制输入$ u(t) $轨迹, 其中, 控制$ c_1(t) $时的$ u(t) $轨迹相比标称操作更靠近当前工况真实的最优轨线, 性能指标$ J $有所提高$( J = 0.34374 \rightarrow 0.34505 )$, 显示出一定的优化控制效果. 控制$ c_2(t) $时的$ u(t) $轨迹更靠近最优轨线, 其性能指标$ J = 0.34701 $和最优值$ J^{\rm{opt}} = 0.34755 $差别不大. 同时注意到控制$ c_2(t) $时的$ u(t) $轨迹振荡更加剧烈, 这是因为$ c_2(t) $的设定轨线不断在线修正, 为了得到满意的控制效果, 使用了高增益PI控制器$( K_p = 20) $. 这并不影响最终得到满意的优化效果$( L = 0.00054) $, 从另一个角度说明了间歇过程中控制关键变量的重要性.

    图 5  批内自优化控制效果 $( k_1 $: +20%, $ k_2 $: −20%)
    Fig. 5  Within-batch self-optimizing performance $ (k_1 $: +20%, $ k_2 $: −20%)

    不确定参数$ k_1 $$ k_2 $分别改变 −40%和 +40%时的优化控制效果如图6所示, 此时系统的不确定性向另一个方向变化, 并且幅度更大. 从图6(a)中可以看到, 两种方法同样对$ c_1(t) $$ c_2(t) $都实现了较好的闭环跟踪控制, 其中, $ c_1(t) $的设定轨线不变, 而$ c_2(t) $的设定轨线相比自身的标称轨线有一定程度的下移. 从图6(b)来看, 虽然控制$ c_1(t) $能将$ u(t) $轨迹向着真实的最优轨线的方向调节, 其性能指标$ J $从标称操作的0.09646提高到0.10312, 但作用有限, 距离最优值$ J^{{\rm{opt}}} = 0.12252 $仍有较大差距. 控制$ c_2(t) $进一步提高了优化控制效果, 其性能指标为$ J = 0.11602 $, 相比最优性能只有0.006的损失(此时$ k_1 $, $ k_2 $的变化较大, 该损失在一定程度上由系统的非线性导致). 此外, 控制$ c_2(t) $时的$ u(t) $轨迹同样振荡较为剧烈, 但随反应进行, $ u(t) $大致围绕着最优轨线上下波动.

    图 6  批内自优化控制效果 $( k_1 $: +40%, $ k_2 $: −40%)
    Fig. 6  Within-batch self-optimizing performance $( k_1 $: +40%, $ k_2 $: −40%)

    表3进一步统计了100组随机扰动下各方法的非线性损失, 其中随机扰动$ [k_1\; k_2] $均匀分布在各自的变化范围. 可以看到, 相比标称操作(平均损失0.0036)和以单变量$ c_B $(平均损失0.0042)为被控变量的情形, 两种批内自优化控制方法有效提高了经济性能, 其中, 策略2 (方案1)中控制$ c_1(t) $将平均损失减少到0.0026, 策略2 (方案2)中控制$ c_2(t) $进一步将平均损失减少到0.0007, 几乎可以忽略不计. 此外, 最大损失和标准差等统计量也呈现出相同的变化趋势, 如表3所示.

    表 3  100组随机扰动下的非线性损失统计量
    Table 3  Statistics of nonlinear losses for 100 groups of random disturbances
    方案 平均损失 最大损失 标准差
    标称操作 0.0036 0.0227 0.0068
    控制$ c_B $ 0.0042 0.0165 0.0054
    策略 2 (方案 1) 0.0026 0.0167 0.0050
    策略 2 (方案 2) 0.0007 0.0053 0.0016
    下载: 导出CSV 
    | 显示表格

    本文研究了间歇过程的批内自优化控制问题, 在单批次运行过程中控制一组虚拟的被控变量(输出变量的线性组合), 实现间歇过程的实时优化. 对此, 给出了两种自优化控制策略(被控变量恒定但设定值时变; 被控变量和设定值均时变). 对它们的设定值选取问题又分别提出两种方案(设定值轨线固定不变; 设定值轨线在线修正), 共计4种方法. 通过引入扩张组合矩阵$ \bar H $, 将这4种方法统一描述为具有不同结构约束的最优$ \bar H $求解问题, 并推导得到了策略3 (方案4)的$ \bar H $解析解计算方法(定理2).

    本文提出的4种被控变量选择方法, 其对应的闭环控制系统具有不同的复杂度和优化性能. 针对一般的实际间歇过程, 应综合考虑这两个因素并取得合理权衡. 间歇反应器的仿真研究中, 采用策略2 (方案2) (恒定被控变量:$ c_2(t)) $得到的控制结构较为简单, 并且能通过在线修正$ c_2(t) $的设定值增强优化效果, 是较为合理的方案.


  • 本文责任编委 刘青山
  • 图  1  传统人脸识别技术的安全性缺陷

    Fig.  1  Vulnerability of conventional face recognition system

    图  2  不同类别假体人脸示例

    Fig.  2  Examples of spoofing faces

    图  3  Replay-Attack数据集中的假体人脸

    Fig.  3  Spoofing faces of Replay-Attack

    图  4  人脸活体检测方法分类

    Fig.  4  Classification of face anti-spoofing methods

    图  5  各类人脸活体检测方法性能分布图

    Fig.  5  Performance comparison of different category of face anti-spoofing methods

    表  1  主流人脸活体检测方法总览

    Table  1  Brief overview of face anti-spoofing methods

    一级类别 二级类别 分类特征 防范的假体人脸 算法优点 算法缺点
    交互式人脸活体检测 基于随机动作的方法 用户配合的动作: 点头、抬头、眨眼、闭眼、遮挡眼睛、扬眉、皱眉、笑脸、吐舌头、张嘴[8, 12] 照片、视频 对二维类假体人脸准确率高, 通用性强 需要用户配合, 用户体验差, 不能防止眼部、嘴部挖洞的面具攻击, 适用范围窄
    基于唇语声音混合的方法 朗读一个数字串、一段文字时的唇语与声音[10-11]
    非交互式人脸活体检测 基于图像纹理的方法 LBP、HOG、Gabor等描述符从灰度图中抽取的灰度纹理特征[15-17, 21, 23, 30-33] 照片、视频、面具 容易实现, 计算量少, 单张图片可预测结果, 速度快 容易被拍摄设备、光照条件、图像质量影响, 跨数据集通用能力不强
    LBP、LPQ等描述符从HSV, YCbCr颜色空间图像中抽取的颜色纹理特征[20, 35, 39]
    基于图像质量的方法 手工设计特征抽取图像镜面反射、颜色分布、清晰度方面的图像质量特征[43-45] 照片、视频 针对单类假体人脸的跨数据集通用能力相对强, 速度快 需要根据假体人脸的类别设计具体特征, 跨假体类型的通用能力不强, 需要高质量图像, 难以抵御高清哑光照片视频攻击
    基于生命信息的方法 光流法、运动成分分解检测活体不自主地眨脸部、唇部的微运动[48, 51-52, 56] 照片 对照片类假体人脸准确率高, 通用性高 需要视频为输入
    计算量大, 速度慢
    难以防范视频攻击
    对假体制造的微运动鲁棒性不强
    远程光学体积描记术(rPPG)信息检测待测 面具 特定约束条件下准确率高 需要视频为输入
    鲁棒性不强, 受外界光照、个体运动的影响大
    基于其他硬件的方法 近红外图像特征[62-68] 照片、视频、面具 准确率高 需要增加新的昂贵硬件
    设备采集、处理图像的时间增加
    短波红外图像特征[69]
    热红外图像特征[70]
    400 nm至1 000 nm的多个波段图像特征[71-72]
    光场图像信息[73-74]
    深度图像信息[75-78]
    基于深度特征的方法 从头训练CNN抽取深度特征分类[79-80, 83]、利用预训练的ResNet-50、VGG等模型抽取特征[8485, 87] 照片、视频、面具 相对来说, 准确率较高 模型参数多, 计算量大, 训练时间长
    过拟合问题
    对数据量和数据丰富性上有高要求
    深度特征与手工特征融合[85, 95-97]
    三维卷积抽取时空深度特征[93-94]
    混合特征类方法 纹理信息和运动生命信息的混合[17-19, 25, 85, 93-94, 97, 99-101] 照片、视频、面具 融合多特征的优点
    提升识别准确率和通用性
    计算量、存储增大, 相对识别时间增长
    算法实现和维护的工作量增加
    纹理信息和人脸结构信息的混合[76, 80, 83, 98, 102]
    人脸结构信息与运动生命信息的混合[89]
    图像质量与运动生命信息的混合[95]
    背景信息[27]和其他特征的混合[79, 81, 84, 87, 93, 98, 100]
    下载: 导出CSV

    表  2  主流人脸活体检测数据集总览

    Table  2  Brief overview of face anti-spoofing datasets

    数据集 年份 假体人脸 个体数 数据量 姿态、表情、光照等录制场景 录制设备与图像分辨率
    NUAA[116] 2010 三种打印照片 15 12 641张图像 三个不同光照的外界环境 网络摄像头–可见光图像640 × 480像素
    Yale Recaptured[33] 2011 LCD屏显示的照片 10 2 560张图像 64种不同光照 Kodak C813 8.2与Samsung Omnia i900的摄像头–裁剪后的灰度图 64 × 64像素
    Print-Attack Database[117] 2011 手持照片、固定照片 50 200个视频 两种不同光照 可见光图像
    苹果笔记本内置摄像头– 320 × 240像素
    CASIA MFSD[34] 2012 弯曲照片、挖眼照片、视频 50 600个视频 室内光照 可见光图像
    使用时间长的USB摄像头– 640 × 480像素; 新USB摄像头– 480 × 640像素; Sony NEX-5摄像头– 1 920 × 1 080像素
    Replay Attack[16] 2012 手持或者固定的照片与视频 50 1 300个视频 两种不同光照 可见光图像
    苹果笔记本内置摄像头– 320 × 240像素
    MSU MFSD[45] 2015 高分辨率照片与视频 35 280个视频 一个场景 可见光图像
    MacBook Air 13内置摄像头– 640 × 480像素
    Google Nexus 5前置摄像头– 720 × 480像素
    UVAD[31] 2015 6种设备拍摄的人脸视频 404 17 076个视频 不同背景光照的室内室外场景 索尼摄像头–可见光图像1 366 × 768像素
    REPLAY MOBILE[118] 2016 高分辨率照片与视频 40 1 200个视频 五种不同光照 iPad Mini2 (iOS) 以及LG-G4
    前置摄像头–可见光图像720 × 1 280像素
    MSU USSA[119] 2016 高分辨率照片与视频 1 000 9 000张 一个场景 可见光图像
    Google Nexus 5前置摄像头– 1 280 × 960像素; 后置摄像头– 3 264 × 2 448像素
    Oulu-NPU[120] 2017 照片与视频 55 5 940个视频 三种不同光照场景 六种智能手机的前置摄像头–可见光图像1 920 × 1 080像素
    SiW[89] 2018 高低两种分辨率的照片, 弯曲照片与高分辨率视频 165 4 478个视频 活体人脸录制了距离、姿态、表情、光照差异 Canon EOST6, Logitech C920摄像头–可见光图像1 920 × 1 080像素
    GUC LiFFAD[21] 2015 激光、喷墨打印的照片, iPad显示的照片 80 4 826张图像 不同焦距的图像, 室内室外场景 光场相机
    Msspoof[121] 2016 可见光与近红外光谱的黑白照片 22 4 704张图片 7种不同的室内室外环境 uEye摄像头以及近红外滤波器
    可见光与近红外图像– 1 280 × 1 024像素
    EMSPAD[122] 2017 激光打印的照片, 喷墨打印的照片 50 10 500张图像 2个场景 多光谱摄像头7个波段的图像
    裁剪对齐后120 × 120像素
    3DMAD[37] 2013 定制三维人脸面具 17 76 500张图像 3种不同场景 Kinect深度摄像头–深度图 640 × 480像素; 可见光摄像头–可见光图像640 × 480像素
    HKBU MARsV2[123] 2016 两种三维人脸面具 12 1 008个视频 7种不同光照 可见光图像, 三种传统摄像头:
    Logitech C920网络摄像头– 1 280 × 720像素; 工业摄像头– 800 × 600像素; Canon EOS M3-1 280 × 720像素; 可见光图像, 4种移动设备摄像头:
    Nexus 5, iPhone6, Samsung S7, Sony Tablet S;
    SMAD[92] 2017 硅胶三维人脸面具 130个视频 不同光照, 不同录制背景环境
    MLFP[124] 2017 挖去眼部的二维照片, 乳胶三维人脸面具 10 1 350个视频 室内室外场景 Android智能手机–可见光图像1 280 × 720像素; FLIR ONE热像仪安卓版–热红外图像640 × 480像素; 微软Kinect –近红外图像424 × 512像素
    下载: 导出CSV

    表  3  CASIA-MFSD与Replay-Attack数据集单数据集测试性能数据(%)

    Table  3  The performance of intra-test on CASIA-MFSD and Replay-Attack datasets (%)

    方法 CASIA-MFSD Replay-Attack
    EER EER HTER
    LBP[16] 18.2 13.9 13.8
    DoG[34] 17.0
    Motion Magn[55] 14.4 0.0 1.25
    IDA[43] 32.4 15.2
    LBP-TOP[17] 10.0 7.9 7.6
    CNN[79] 7.4 6.1 2.1
    DMD + LBP[56] 21.8 5.3 3.8
    IDA and motion[95] 5.8 0.83 0.0
    Colour LBP[20] 2.1 0.4 2.8
    VLBC[127] 6.5 1.7 0.8
    3D CNN[94] 5.2 0.16 0.04
    FD-ML-LPQ-FS[41] 4.6 5.6 4.8
    patch + depthCNN[80] 2.7 0.8 0.7
    SURF[39] 2.8 0.1 2.2
    PreDRS + LSTM[84] 1.22 1.03 1.18
    ST Mapping[82] 1.1 0.78 0.80
    DDGL[92] 1.3 0.0
    LiveNet[88] 4.59 5.74
    Color texture[35] 4.6 1.2 4.2
    DSGN[90] 3.42 0.13 0.63
    deep LBP[85] 2.3 0.1 0.9
    3D CNN + geneloss[93] 1.4 0.3 1.2
    SSD + SPMT[98] 0.04 0.04 0.06
    下载: 导出CSV

    表  4  Oulu数据集单数据集测试性能数据(%)

    Table  4  The performance of intra-test on Oulu dataset (%)

    协议 方法 APCER BPCER ACER
    1 GRADIANTex[128] 7.1 5.8 6.5
    1 CPq[128] 2.9 10.08 6.9
    1 GRADIANT[128] 1.3 12.5 6.9
    1 Auxiliary[89] 1.6 1.6 1.6
    1 Noise Modeling[129] 1.2 1.7 1.5
    1 TDI[130] 2.5 0.0 1.3
    2 GRADIANT[128] 3.1 1.9 2.5
    2 GRADIANTex[128] 6.9 2.5 4.7
    2 MixedFASNet[128] 9.7 2.5 6.1
    2 Auxiliary[89] 2.7 2.7 2.7
    2 Noise Modeling[129] 4.2 4.4 4.3
    2 TDI[130] 1.7 2.0 1.9
    3 GRADIANT[128] 2.6±3.9 5.0±5.3 3.8±2.4
    3 GRADIANTex[128] 2.4±2.8 5.6±4.3 4.0±1.9
    3 MixedFASNet[128] 5.3±6.7 7.8±5.5 6.5±4.6
    3 Auxiliary[89] 2.7±1.3 3.1±1.7 2.9±1.5
    3 Noise Modeling[129] 4.0±1.8 3.8±1.2 3.6±1.6
    3 TDI[130] 5.9±1.0 5.9±1.0 5.9±1.0
    4 GRADIANT[128] 5.0±4.5 15.0±7.1 10.0±5.0
    4 GRADIANTex[128] 27.5±24.2 3.3±4.1 15.4±11.8
    4 Massy HNU[128] 35.8±35.3 8.3±4.1 22.1±17.6
    4 Auxiliary[89] 9.3±5.6 10.4±6.0 9.5±6.0
    4 Noise Modeling[129] 5.1±6.3 6.1±5.1 5.6±5.7
    4 TDI[130] 14.0±3.4 4.1±3.4 9.2±3.4
    下载: 导出CSV

    表  5  SiW数据集单数据集测试性能数据(%)

    Table  5  The performance of intra-test on SiW dataset (%)

    评价协议 方法 APCER BPCER ACER
    1 Auxiliary[89] 3.58 3.58 3.58
    1 TDI[130] 0.96 0.50 0.73
    2 Auxiliary[89] 0.57±0.69 0.57±0.69 0.57±0.69
    2 TDI[130] 0.08±0.14 0.21±0.14 0.15±0.14
    3 Auxiliary[89] 8.31±3.81 8.31±3.80 8.31±3.81
    3 TDI[130] 3.10±0.81 3.09±0.81 3.10±0.81
    下载: 导出CSV

    表  6  3DMAD、SMAD与HKBU-MARsV2数据集单数据集测试性能数据(%)

    Table  6  The performance of intra-test on 3DMAD, SMAD and HKBU-MARsV2 datasets (%)

    方法 3DMAD SMAD HKBU-MARsV2
    HTER HTER EER HTER
    LBPs[38] 0.1 20.8 22.5 24.0±25.6
    deep and color[37] 0.95
    IDA motion[95] 0
    Color texcure[20] 23.0 23.4±20.5
    videolet agg[101] 0 20.4
    GrPPG[57] 7.94 16.4 16.1±20.5
    LBP-TOP[92] 21.5
    DBN[92] 0.5 19.2
    DDGL[92] 0 13.1
    CFrPPG[60] 6.82±12.1 4.04 4.42±5.1
    下载: 导出CSV

    表  7  CASIA-MFSD与Replay-Attack数据集间跨数据集测试性能数据HTER (%)

    Table  7  The performance of inter-test between CASIA-MFSD and Replay-Attack (%)

    训练 CASIA-MFSD Replay-Attack
    测试 Replay-Attack CASIA-MFSD
    LBP[126] 55.9 57.6
    Motion[126] 50.2 47.9
    Motion Magn[55] 50.1 47.0
    LBP-TOP[126] 49.7 60.6
    CNN[79] 48.5 45.5
    Color LBP[20] 30.3 37.7
    texture+Motion[99] 12.4 31.6
    FD-ML-LPQ-FS[41] 50.25 42.59
    ST Mapping[82] 35.05 40.22
    SURF[39] 26.9 23.2
    DDGL[92] 22.8 27.4
    Noise Modeling[129] 28.5 41.1
    DeepImg+rPPG[89] 27.6 28.4
    Domain Adapt[91] 27.4 36.0
    Color texture[35] 9.6 39.2
    LiveNet[88] 8.39 19.12
    下载: 导出CSV

    表  8  3DMAD与HKBU-MARsV2数据集间跨数据集测试性能数据HTER (%)

    Table  8  The performance of inter-test between 3DMAD and HKBU-MARsV2 (%)

    训练 3DMAD HKBU-MARsV2
    测试 HKBU-MARsV2 3DMAD
    Color texcure[20] 40.1±7.8 47.7±5.4
    LBPs[38] 53.0±3.6 32.8±11.5
    pretrain CNN[60] 50.0±0.0 50.0±0.0
    GrPPG[57] 24.3±7.1 15.7±6.8
    CFrPPG[60] 2.51±0.1 2.55±0.1
    下载: 导出CSV
  • [1] 中华人民共和国公安部. 安防人脸识别应用防假体攻击测试方法, GA/T 1212-2014, 2014.

    Ministry of Public Security of the People's Republic of China. Face Recognition Applications in Security Systems-Testing Methodologies for Anti-Spoofing, GA/T 1212-2014, 2014.
    [2] Li Y, Xu K, Yan Q, Li Y J, Deng R H. Understanding OSN-based facial disclosure against face authentication systems. In: Proceedings of the 9th ACM Symposium on Information, Computer and Communications Security. Kyoto, Japan: ACM, 2014. 413-424
    [3] Chakraborty S, Das D. An overview of face liveness detection. International Journal on Information Theory, 2014, 3(2): Article No. 2
    [4] Souza L, Oliveira L, Pamplona M, Papa J. How far did we get in face spoofing detection? Engineering Applications of Artificial Intelligence, 2018, 72: 368-381 doi: 10.1016/j.engappai.2018.04.013
    [5] Ramachandra R, Busch C. Presentation attack detection methods for face recognition systems: A comprehensive survey. ACM Computing Surveys, 2017, 50(1): Article No. 8
    [6] 郑河荣, 褚一平, 潘翔, 赵小敏. 基于人脸姿态控制的交互式视频活体检测方法及其系统. CN 201510764681, 中国, 2016-01-20

    Zheng He-Rong, Chu Yi-Ping, Pan Xiang, Zhao Xiao-Min. Interactive Video in Vivo Detection Method Based on Face Attitude Control and System Thereof. CN Patent 201510764681, China, January 20, 2016
    [7] 薛炳如, 卜习栓, 王金凤. 一种基于动作识别的活体人脸识别方法及系统. CN 201611129097, 中国, 2017-05-10

    Xue Bing-Ru, Bu Xi-Shuan, Wang Jin-Feng. Action Recognition Based Living Body Face Recognition Method and System. CN Patent 201611129097, China, May 10, 2017
    [8] 王先基, 陈友斌. 一种活体人脸检测方法与系统. CN 201310384 572, 中国, 2013-12-11

    Wang Xian-Ji, Chen You-Bin. Method and System for Detecting Living Body Human Face. CN Patent 2013103845 72, China, December 11, 2013
    [9] 徐光柱, 刘鸣, 尹潘龙, 雷帮军, 李春林. 基于人眼区域活动状态的活体检测方法和装置. CN 201510472931, 中国, 2015-12-09

    Xu Guang-Zhu, Liu Ming, Yin Pan-Long, Lei Bang-Jun, Li Chun-Lin. Living Body Detection Method and Apparatus Based on Active State of Human Eye Region. CN Patent 201510472931, China, December 9, 2015
    [10] 汪铖杰, 李季檩, 倪辉, 吴永坚, 黄飞跃. 人脸识别方法及识别系统. CN 201510319470, 中国, 2015-10-07

    Wang Cheng-Jie, Li Ji-Lin, Ni Hui, Wu Yong-Jian, Huang Fei-Yue. Face Recognition Method and Recognition System. CN Patent 201510319470, China, October 7, 2015
    [11] Kollreider K, Fronthaler H, Faraj M I, Bigun J. Real-time face detection and motion analysis with application in "liveness" assessment. IEEE Transactions on Information Forensics and Security, 2007, 2(3): 548-558 doi: 10.1109/TIFS.2007.902037
    [12] Ng E S, Chia Y S. Face verification using temporal affective cues. In: Proceedings of the 21st International Conference on Pattern Recognition. Tsukuba, Japan: IEEE, 2012. 1249-1252
    [13] Chetty G, Wagner M. Liveness verification in audio-video authentication. In: Proceedings of the 10th Australian International Conference on Speech Science and Technology. Sydney, Australia: Australian Speech Science and Technology Association Inc, 2004. 358-363
    [14] Frischholz R W, Werner A. Avoiding replay-attacks in a face recognition system using head-pose estimation. In: Proceedings of the 2013 IEEE International SOI Conference. Nice, France: IEEE, 2003. 234-235
    [15] Määttä J, Hadid A, Pietikäinen M. Face spoofing detection from single images using micro-texture analysis. In: Proceedings of the 2011 International Joint Conference on Biometrics. Washington, USA: IEEE, 2011. 1-7
    [16] Chingovska I, Anjos A, Marcel S. On the effectiveness of local binary patterns in face anti-spoofing. In: Proceedings of the 11th International Conference of Biometrics Special Interest Group. Darmstadt, Germany: IEEE, 2012. 1-7
    [17] De Freitas Pereira T, Komulainen J, Anjos A, De Martino J M, Hadid A, Pietikäinen M, et al. Face liveness detection using dynamic texture. EURASIP Journal on Image and Video Processing, 2014, 2014(1): Article No. 2
    [18] De Freitas Pereira T, Anjos A, De Martino J M, Marcel S. LBP-TOP based countermeasure against face spoofing attacks. In: Proceedings of the 2012 Asian Conference on Computer Vision. Daejeon, Korea (South): Springer, 2012. 121-132
    [19] Komulainen J, Hadid A, Pietikäainen M. Face spoofing detection using dynamic texture. In: Proceedings of the 2012 Asian Conference on Computer Vision. Daejeon, Korea (South): Springer, 2012. 146-157
    [20] Boulkenafet Z, Komulainen J, Hadid A. Face spoofing detection using colour texture analysis. IEEE Transactions on Information Forensics and Security, 2016, 11(8): 1818-1830 doi: 10.1109/TIFS.2016.2555286
    [21] Raghavendra R, Raja K B, Busch C. Presentation attack detection for face recognition using light field camera. IEEE Transactions on Image Processing, 2015, 24(3): 1060-1075 doi: 10.1109/TIP.2015.2395951
    [22] Kose N, Dugelay J L. Classification of captured and recaptured images to detect photograph spoofing. In: Proceedings of the 2012 International Conference on Informatics, Electronics and Vision. Dhaka, Bangladesh: IEEE, 2012. 1027-1032
    [23] Yang J W, Lei Z, Liao S C, Li S Z. Face liveness detection with component dependent descriptor. In: Proceedings of the 2013 International Conference on Biometrics. Madrid, Spain: IEEE, 2013. 1-6
    [24] Raghavendra R, Busch C. Robust 2D/3D face mask presentation attack detection scheme by exploring multiple features and comparison score level fusion. In: Proceedings of the 17th International Conference on Information Fusion. Salamanca, Spain: IEEE, 2014. 1-7
    [25] Arashloo S R, Kittler J, Christmas W. Face spoofing detection based on multiple descriptor fusion using multiscale dynamic binarized statistical image features. IEEE Transactions on Information Forensics and Security, 2015, 10(11): 2396-2407 doi: 10.1109/TIFS.2015.2458700
    [26] Määttä J, Hadid A, Pietikäinen M. Face spoofing detection from single images using texture and local shape analysis. IET Biometrics, 2012, 1(1): 3-10 doi: 10.1049/iet-bmt.2011.0009
    [27] Komulainen J, Hadid A, Pietikäinen M. Context based face anti-spoofing. In: Proceedings of the 6th IEEE International Conference on Biometrics: Theory, Applications and Systems. Arlington, USA: IEEE, 2013. 1-8
    [28] Schwartz W R, Rocha A, Pedrini H. Face spoofing detection through partial least squares and low-level descriptors. In: Proceedings of the 2011 International Joint Conference on Biometrics. Washington, USA: IEEE, 2011. 1-8
    [29] Yang J W, Lei Z, Yi D, Li S Z. Person-specific face antispoofing with subject domain adaptation. IEEE Transactions on Information Forensics and Security, 2015, 10(4): 797-809 doi: 10.1109/TIFS.2015.2403306
    [30] Da Silva Pinto A, Pedrini H, Schwartz W, Rocha A. Video-based face spoofing detection through visual rhythm analysis. In: Proceedings of the 25th SIBGRAPI Conference on Graphics, Patterns and Images. Ouro Preto, Brazil: IEEE, 2012. 221-228
    [31] Pinto A, Schwartz W R, Pedrini H, De Rezende Rocha A. Using visual rhythms for detecting video-based facial spoof attacks. IEEE Transactions on Information Forensics and Security, 2015, 10(5): 1025-1038 doi: 10.1109/TIFS.2015.2395139
    [32] Waris M A, Zhang H L, Ahmad I, Kiranyaz S, Gabbouj M. Analysis of textural features for face biometric anti-spoofing. In: Proceedings of the 21st European Signal Processing Conference. Marrakech, Morocco: IEEE, 2013. 1-5
    [33] Peixoto B, Michelassi C, Rocha A. Face liveness detection under bad illumination conditions. In: Proceedings of the 18th IEEE International Conference on Image Processing. Brussels, Australia: IEEE, 2011. 3557-3560
    [34] Zhang Z W, Yan J J, Liu S F, Lei Z, Yi D, Li S Z. A face antispoofing database with diverse attacks. In: Proceedings of the 5th IARR International Conference on Biometrics. New Delhi, India: IEEE, 2012. 26-31
    [35] Boulkenafet Z, Komulainen J, Hadid A. On the generalization of color texture-based face anti-spoofing. Image and Vision Computing, 2018, 77: 1-9 doi: 10.1016/j.imavis.2018.04.007
    [36] Kose N, Dugelay J L. Countermeasure for the protection of face recognition systems against mask attacks. In: Proceedings of the 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Shanghai, China: IEEE, 2013. 1-6
    [37] Erdogmus N, Marcel S. Spoofing in 2D face recognition with 3D masks and anti-spoofing with kinect. In: Proceedings of the 6th IEEE International Conference on Biometrics: Theory, Applications and Systems. Arlington, USA: IEEE, 2013. 1-6
    [38] Erdogmus N, Marcel S. Spoofing face recognition with 3D masks. IEEE Transactions on Information Forensics and Security, 2014, 9(7): 1084-1097 doi: 10.1109/TIFS.2014.2322255
    [39] Boulkenafet Z, Komulainen J, Hadid A. Face antispoofing using speeded-up robust features and fisher vector encoding. IEEE Signal Processing Letters, 2017, 24(2): 141-145
    [40] Chan P P K, Liu W W, Chen D N, Yeung D S, Zhang F, Wang X Z, et al. Face liveness detection using a flash against 2D spoofing attack. IEEE Transactions on Information Forensics and Security, 2018, 13(2): 521-534 doi: 10.1109/TIFS.2017.2758748
    [41] Benlamoudi A, Aiadi K E, Ouafi A, Samai D, Oussalah M. Face antispoofing based on frame difference and multilevel representation. Journal of Electronic Imaging, 2017, 26(4): Article No. 043007
    [42] Mohan K, Chandrasekhar P, Jilani S A K. Object face liveness detection with combined HOGlocal phase quantization using fuzzy based SVM classifier. Indian Journal of Science and Technology, 2017, 10(3): 1-10
    [43] Galbally J, Marcel S, Fierrez J. Image quality assessment for fake biometric detection: Application to iris, fingerprint, and face recognition. IEEE Transactions on Image Processing, 2014, 23(2): 710-724 doi: 10.1109/TIP.2013.2292332
    [44] Galbally J, Marcel S. Face anti-spoofing based on general image quality assessment. In: Proceedings of the 22nd International Conference on Pattern Recognition. Stockholm, Sweden: IEEE, 2014. 1173-1178
    [45] Wen D, Han H, Jain A K. Face spoof detection with image distortion analysis. IEEE Transactions on Information Forensics and Security, 2015, 10(4): 746-761 doi: 10.1109/TIFS.2015.2400395
    [46] Li H L, Wang S Q, Kot A C. Face spoofing detection with image quality regression. In: Proceedings of the 6th International Conference on Image Processing Theory, Tools and Applications. Oulu, Finland: IEEE, 2016. 1-6
    [47] Akhtar Z, Foresti G L. Face spoof attack recognition using discriminative image patches. Journal of Electrical and Computer Engineering, 2016, 2016: Article No. 4721849
    [48] Pan G, Sun L, Wu Z H, Lao S H. Eyeblink-based anti-spoofing in face recognition from a generic webcamera. In: Proceedings of the 11th IEEE International Conference on Computer Vision. Rio de Janeiro, Brazil: IEEE, 2007. 1-8
    [49] Sun L, Pan G, Wu Z H, Lao S H. Blinking-based live face detection using conditional random fields. In: Proceedings of the 2007 International Conference on Biometrics. Seoul, Korea (South): Springer, 2007. 252-260
    [50] Li J W. Eye blink detection based on multiple Gabor response waves. In: Proceedings of the 2008 International Conference on Machine Learning and Cybernetics. Kunming, China: IEEE, 2008. 2852-2856
    [51] Bharadwaj S, Dhamecha T I, Vatsa M, Singh R. Face Anti-Spoofing via Motion Magnification and Multifeature Videolet Aggregation, Technology Report, IIITD-TR2014-002, Indraprastha Institute of Information Technology, New Delhi, India, 2014.
    [52] Bao W, Li H, Li N, Jiang W. A liveness detection method for face recognition based on optical flow field. In: Proceedings of the 2009 International Conference on Image Analysis and Signal Processing. Linhai, China: IEEE, 2009. 233 -236
    [53] Kollreider K, Fronthaler H, Bigun J. Verifying liveness by multiple experts in face biometrics. In: Proceedings of the 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. Anchorage, USA: IEEE, 2008. 1-6
    [54] Kollreider K, Fronthaler H, Bigun J. Non-intrusive liveness detection by face images. Image and Vision Computing, 2009, 27(3): 233-244 doi: 10.1016/j.imavis.2007.05.004
    [55] Bharadwaj S, Dhamecha T I, Vatsa M, Singh R. Computationally efficient face spoofing detection with motion magnification. In: Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Portland, USA: IEEE, 2013. 105-110
    [56] Tirunagari S, Poh N, Windridge D, Iorliam A, Suki N, Ho A T S. Detection of face spoofing using visual dynamics. IEEE Transactions on Information Forensics and Security, 2015, 10(4): 762-777 doi: 10.1109/TIFS.2015.2406533
    [57] Li X B, Komulainen J, Zhao G Y, Yuen P C, Pietikäinen M. Generalized face anti-spoofing by detecting pulse from face videos. In: Proceedings of the 23rd International Conference on Pattern Recognition. Cancun, Mexico: IEEE, 2016. 4244-4249
    [58] Nowara E M, Sabharwal A, Veeraraghavan A. PPGSecure: Biometric presentation attack detection using photopletysmograms. In: Proceedings of the 12th IEEE International Conference on Automatic Face & Gesture Recognition. Washington, USA: IEEE, 2017. 56-62
    [59] Hernandez-Ortega J, Fierrez J, Morales A, Tome P. Time analysis of pulse-based face anti-spoofing in visible and NIR. In: Proceedings of the 2018 Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City, USA: IEEE, 2018. 544-552
    [60] Liu S Q, Lan X Y, Yuen P C. Remote photoplethysmography correspondence feature for 3D mask face presentation attack detection. In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018. 558-573
    [61] Wang S Y, Yang S H, Chen Y P, Huang J W. Face liveness detection based on skin blood flow analysis. Symmetry, 2017, 9(12): Article No. 305
    [62] Yi D, Lei Z, Zhang Z W, Li S Z. Face anti-spoofing: Multi-spectral approach. Handbook of Biometric Anti-Spoofing. London: Springer, 2014.
    [63] Kim Y S, Na J, Yoon S, Yi J. Masked fake face detection using radiance measurements. Journal of the Optical Society of America A, 2009, 26(4): 760-766 doi: 10.1364/JOSAA.26.000760
    [64] Zhang Z W, Yi D, Lei Z, Li S Z. Face liveness detection by learning multispectral reflectance distributions. In: Proceedings of the 2011 IEEE International Conference on Automatic Face and Gesture Recognition. Santa Barbara, CA, USA: IEEE, 2011. 436-441
    [65] Sun X D, Huang L, Liu C P. Context based face spoofing detection using active near-infrared images. In: Proceedings of the 23rd International Conference on Pattern Recognition. Cancun, Mexico: IEEE, 2016. 4262-4267
    [66] Sun X D, Huang L, Liu C P. Multispectral face spoofing detection using VIS-NIR imaging correlation. International Journal of Wavelets, Multiresolution and Information Processing, 2018, 16(2): Article No. 1840003
    [67] Kose N, Dugelay J L. Reflectance analysis based countermeasure technique to detect face mask attacks. In: Proceedings of the 18th International Conference on Digital Signal Processing. Fira, Greece: IEEE, 2013. 1-6
    [68] Dowdall J, Pavlidis I, Bebis G. Face detection in the near-IR spectrum. Image and Vision Computing, 2003, 21(7): 565-578 doi: 10.1016/S0262-8856(03)00055-6
    [69] Steiner H, Kolb A, Jung N. Reliable face anti-spoofing using multispectral SWIR imaging. In: Proceedings of the 2016 International Conference on Biometrics. Halmstad, Sweden: IEEE, 2016. 1-8
    [70] Kant C, Sharma N. Fake face recognition using fusion of thermal imaging and skin elasticity. International Journal of Computer Science and Communications, 2013, 4(1): 65 -72 http://pdfs.semanticscholar.org/83f7/9d370cbfaebeb363c4300ae61968ccf04bf8.pdf
    [71] Raghavendra R, Raja K B, Marcel S, Busch C. Face presentation attack detection across spectrum using time-frequency descriptors of maximal response in laplacian scale-space. In: Proceedings of the 6th International Conference on Image Processing Theory, Tools, and Applications. Oulu, Finland: IEEE, 2016. 1-6
    [72] Raghavendra R, Raja K B, Venkatesh S, Busch C. Face presentation attack detection by exploring spectral signatures. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Honolulu, USA: IEEE, 2017. 672-679
    [73] Kim S, Ban Y, Lee S. Face liveness detection using a light field camera. Sensors, 2014, 14(12): 22471-22499 doi: 10.3390/s141222471
    [74] Xie X H, Gao Y, Zheng W S, Lai J H, Zhu J Y. One-snapshot face anti-spoofing using a light field camera. In: Proceedings of the 12th Chinese Conference on Biometric Recognition. Shenzhen, China: Springer, 2017. 108-117
    [75] Wang Y, Nian F D, Li T, Meng Z J, Wang K Q. Robust face anti-spoofing with depth information. Journal of Visual Communication and Image Representation, 2017, 49: 332-337 doi: 10.1016/j.jvcir.2017.09.002
    [76] Raghavendra R, Busch C. Novel presentation attack detection algorithm for face recognition system: Application to 3D face mask attack. In: Proceedings of the 2014 IEEE International Conference on Image Processing. Paris, France: IEEE, 2014. 323-327
    [77] Lagorio A, Tistarelli M, Cadoni M, Fookes C, Sridharan S. Liveness detection based on 3D face shape analysis. In: Proceedings of the 2013 International Workshop on Biometrics and Forensics. Lisbon, Portugal: IEEE, 2013. 1-4
    [78] Tang Y H, Chen L M. 3D facial geometric attributes based anti-spoofing approach against mask attacks. In: Proceedings of the 12th IEEE International Conference on Automatic Face and Gesture Recognition. Washington, DC, USA: IEEE, 2017. 589-595
    [79] Yang J W, Lei Z, Li S Z. Learn convolutional neural network for face anti-spoofing. arXiv Preprint arXiv: 1408. 5601, 2014.
    [80] Atoum Y, Liu Y J, Jourabloo A, Liu X M. Face anti-spoofing using patch and depth-based CNNs. In: Proceedings of the 2017 IEEE International Joint Conference on Biometrics. Denver, Colorado, USA: IEEE, 2017: 319-328
    [81] Alotaibi A, Mahmood A. Deep face liveness detection based on nonlinear diffusion using convolution neural network. Signal, Image and Video Processing, 2017, 11(4): 713-720 doi: 10.1007/s11760-016-1014-2
    [82] Lakshminarayana N N, Narayan N, Napp N, Setlur S, Govindaraju V. A discriminative spatio-temporal mapping of face for liveness detection. In: Proceedings of the 2017 IEEE International Conference on Identity, Security and Behavior Analysis. New Delhi, India: IEEE, 2017. 1-7
    [83] Li L, Feng X Y, Boulkenafet Z, Xia Z Q, Li M M, Hadid A. An original face anti-spoofing approach using partial convolutional neural network. In: Proceedings of the 6th International Conference on Image Processing Theory, Tools and Applications. Oulu, Finland: IEEE, 2016. 1-6
    [84] Tu X K, Fang Y C. Ultra-deep neural network for face anti-spoofing. In: Proceedings of the 24th International Conference on Neural Information Processing. Guangzhou, China: Springer, 2017. 686-695
    [85] Li L, Feng X Y, Jiang X Y, Xia Z Q, Hadid A. Face anti-spoofing via deep local binary patterns. In: Proceedings of the 2017 IEEE International Conference on Image Processing. Beijing, China: IEEE, 2017. 101-105
    [86] Lucena O, Junior A, Moia V, Souza R, Valle E, Lotufo R. Transfer learning using convolutional neural networks for face anti-spoofing. In: Proceedings of the 14th International Conference Image Analysis and Recognition. Montreal, Canada: Springer, 2017. 27-34
    [87] Nagpal C, Dubey S R. A performance evaluation of convolutional neural networks for face anti spoofing. arXiv Preprint arXiv: 1805.04176, 2018.
    [88] Rehman Y A U, Po L M, Liu M Y. LiveNET: Improving features generalization for face liveness detection using convolution neural networks. Expert Systems with Applications, 2018, 108: 159-169 doi: 10.1016/j.eswa.2018.05.004
    [89] Liu Y J, Jourabloo A, Liu X M. Learning deep models for face anti-spoofing: Binary or auxiliary supervision. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 389-398
    [90] Ning X, Li W J, Wei M L, Sun L J, Dong X L. Face anti-spoofing based on deep stack generalization networks. In: Proceedings of the 2018 International Conference on Pattern Recognition Applications and Methods. Funchal, Madeira, Portugal: SCITEPRESS, 2018.
    [91] Li H L, Li W, Cao H, Wang S Q, Huang F Y, Kot A C. Unsupervised domain adaptation for face anti-spoofing. IEEE Transactions on Information Forensics and Security, 2018, 13(7): 1794-1809 doi: 10.1109/TIFS.2018.2801312
    [92] Manjani I, Tariyal S, Vatsa M, Singh R, Majumdar A. Detecting silicone mask-based presentation attack via deep dictionary learning. IEEE Transactions on Information Forensics and Security, 2017, 12(7): 1713-1723 doi: 10.1109/TIFS.2017.2676720
    [93] Li H L, He P S, Wang S Q, Rocha A, Jiang X H, Kot A C. Learning generalized deep feature representation for face anti-spoofing. IEEE Transactions on Information Forensics and Security, 2018, 13(10): 2639-2652 doi: 10.1109/TIFS.2018.2825949
    [94] Gan J Y, Li S L, Zhai Y K, Liu C Y. 3D convolutional neural network based on face anti-spoofing. In: Proceedings of the 2nd International Conference on Multimedia and Image Processing. Wuhan, China: IEEE, 2017. 1-5
    [95] Feng L T, Po L M, Li Y M, Xu X Y, Yuan F, Cheung T C H, et al. Integration of image quality and motion cues for face anti-spoofing: A neural network approach. Journal of Visual Communication and Image Representation, 2016, 38: 451-460 doi: 10.1016/j.jvcir.2016.03.019
    [96] Asim M, Ming Z, Javed M Y. CNN based spatio-temporal feature extraction for face anti-spoofing. In: Proceedings of the 2nd International Conference on Image, Vision and Computing. Chengdu, China: IEEE, 2017. 234-238
    [97] Shao R, Lan X Y, Yuen P C. Deep convolutional dynamic texture learning with adaptive channel-discriminability for 3D mask face anti-spoofing. In: Proceedings of the 2017 IEEE International Joint Conference on Biometrics. Denver, Colorado, USA: IEEE, 2017. 748-755
    [98] Song X, Zhao X, Fang L J, Lin T W. Discriminative representation combinations for accurate face spoofing detection. Pattern Recognition, 2019, 85: 220-231 doi: 10.1016/j.patcog.2018.08.019
    [99] Patel K, Han H, Jain A K. Cross-database face antispoofing with robust feature representation. In: Proceedings of the 11th Chinese Conference on Biometric Recognition. Chengdu, China: Springer, 2016. 611-619
    [100] Tronci R, Muntoni D, Fadda G, Pili M, Sirena N, Murgia G, et al. Fusion of multiple clues for photo-attack detection in face recognition systems. In: Proceedings of the 2011 International Joint Conference on Biometrics. Washington, DC, USA: IEEE, 2011. 1-6
    [101] Siddiqui T A, Bharadwaj S, Dhamecha T I, Agarwal A, Vatsa M, Singh R, et al. Face anti-spoofing with multifeature videolet aggregation. In: Proceedings of the 23rd International Conference on Pattern Recognition. Cancun, Mexico: IEEE, 2016. 1035-1040
    [102] Kose N, Dugelay J L. Mask spoofing in face recognition and countermeasures. Image and Vision Computing, 2014, 32(10): 779-789 doi: 10.1016/j.imavis.2014.06.003
    [103] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987 doi: 10.1109/TPAMI.2002.1017623
    [104] Haralick R M, Shanmugam K, Dinstein I. Textural features for image classification. IEEE Transactions on Systems, Man, and Cybernetics, 1973, SMC-3(6): 610-621 doi: 10.1109/TSMC.1973.4309314
    [105] Poh M Z, McDuff D J, Picard R W. Advancements in noncontact, multiparameter physiological measurements using a webcam. IEEE Transactions on Biomedical Engineering, 2011, 58(1): 7-11 doi: 10.1109/TBME.2010.2086456
    [106] Adelson E H, Wang J Y A. Single lens stereo with a plenoptic camera. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1992, 1(2): 99-106 http://doi.ieeecomputersociety.org/resolve?ref_id=doi:10.1109/34.121783&rfr_id=trans/tg/2009/02/ttg2009020221.htm
    [107] Perona P, Malik J. Scale-space and edge detection using anisotropic diffusion. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(7): 629-639 doi: 10.1109/34.56205
    [108] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. 770-778
    [109] Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780 doi: 10.1162/neco.1997.9.8.1735
    [110] Wolpert D H. Stacked generalization. Neural Networks, 1992, 5(2): 241-259 doi: 10.1016/S0893-6080(05)80023-1
    [111] Ting K M, Witten I H. Stacked generalization: When does it work? In: Proceedings of the 15th International Joint Conference on Artifical Intelligence. San Francisco, USA: Morgan Kaufmann Publishers Inc, 1997. 866-871
    [112] Tran D, Bourdev L, Fergus R, Torresani L, Paluri M. Learning spatiotemporal features with 3D convolutional networks. In: Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015. 4489-4497
    [113] Parkhi O M, Vedaldi A, Zisserman A. Deep face recognition. In: Proceedings of the 2015 British Machine Vision Conference. Swansea, UK: BMVA Press, 2015. 41.1-41.12
    [114] Zhao G Y, Pietikainen M. Dynamic texture recognition using local binary patterns with an application to facial expressions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 915-928 doi: 10.1109/TPAMI.2007.1110
    [115] Liu W, Anguelov D, Erhan D, Szegedy C, Reed S, Yang F C, et al. SSD: Single shot MultiBox detector. In: Proceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherlands: Springer, 2016. 21-37
    [116] Tan X Y, Li Y, Liu J, Jiang L. Face liveness detection from a single image with sparse low rank bilinear discriminative model. In: Proceedings of the 11th European Conference on Computer Vision. Crete, Greece: Springer, 2010. 504-517
    [117] Anjos A, Marcel S. Counter-measures to photo attacks in face recognition: A public database and a baseline. In: Proceedings of the 2011 International Joint Conference on Biometrics. Washington, DC, USA: IEEE, 2011. 1-7
    [118] Costa-Pazo A, Bhattacharjee S, Vazquez-Fernandez E, Marcel S. The replay-mobile face presentation-attack database. In: Proceedings of the 2016 International Conference of the Biometrics Special Interest Group. Darmstadt, Germany: IEEE, 2016. 1-7
    [119] Patel K, Han H, Jain A K. Secure face unlock: Spoof detection on smartphones. IEEE Transactions on Information Forensics and Security, 2016, 11(10): 2268-2283 doi: 10.1109/TIFS.2016.2578288
    [120] Boulkenafet Z, Komulainen J, Li L, Feng X Y, Hadid A. OULU-NPU: A mobile face presentation attack database with real-world variations. In: Proceedings of the 12th IEEE International Conference on Automatic Face and Gesture Recognition. Washington, DC, USA: IEEE, 2017. 612-618
    [121] Chingovska I, Erdogmus N, Anjos A, Marcel S. Face recognition systems under spoofing attacks. Face Recognition Across the Imaging Spectrum. Cham: Springer, 2016.
    [122] Raghavendra R, Raja K B, Venkatesh S, Cheikh F A, Busch C. On the vulnerability of extended multispectral face recognition systems towards presentation attacks. In: Proceedings of the 2017 IEEE International Conference on Identity, Security and Behavior Analysis. New Delhi, India: IEEE, 2017. 1-8
    [123] Liu S Q, Yang B Y, Yuen P C, Zhao G Y. A 3D mask face anti-spoofing database with real world variations. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Las Vegas, USA: IEEE, 2016. 100-106
    [124] Agarwal A, Yadav D, Kohli N, Singh R, Vatsa M, Noore A. Face presentation attack with latex masks in multispectral videos. In: Proceedings of the 2017 Computer Vision and Pattern Recognition Workshops. Honolulu, USA: IEEE, 2017. 275-283
    [125] International Organization for Standardization. ISO/IEC 30107-3. Biometrics, Information Technology-Biometric Presentation Attack Detection — Part 1: Framework, 2016.
    [126] De Freitas Pereira T, Anjos A, De Martino J M, Marcel S. Can face anti-spoofing countermeasures work in a real world scenario? In: Proceedings of the 2013 International Conference on Biometrics. Madrid, Spain: IEEE, 2013. 1-8
    [127] Zhao X C, Lin Y P, Heikkilä J. Dynamic texture recognition using volume local binary count patterns with an application to 2D face spoofing detection. IEEE Transactions on Multimedia, 2018, 20(3): 552-566 doi: 10.1109/TMM.2017.2750415
    [128] Boulkenafet Z, Komulainen J, Akhtar Z, Benlamoudi A, Samai D, Bekhouche S E, et al. A competition on generalized software-based face presentation attack detection in mobile scenarios. In: Proceedings of the 2017 IEEE International Joint Conference on Biometrics. Denver, Colorado, USA: IEEE, 2017. 688-696
    [129] Jourabloo A, Liu Y J, Liu X M. Face de-spoofing: Anti-spoofing via noise modeling. In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018.
    [130] Wang Z Z, Zhao C X, Qin Y X, Zhou Q S, Lei Z. Exploiting temporal and depth information for multi-frame face anti-spoofing. arXiv Preprint arXiv: 1811.05118, 2018.
  • 期刊类型引用(29)

    1. 王飞跃. 我国生成式人工智能的发展现状与趋势. 人民论坛. 2025(02): 21-26 . 百度学术
    2. Fei-Yue Wang,Qinghai Miao,Lingxi Li,Qinghua Ni,Xuan Li,Juanjuan Li,Lili Fan,Yonglin Tian,Qing-Long Han. When Does Sora Show:The Beginning of TAO to Imaginative Intelligence and Scenarios Engineering. IEEE/CAA Journal of Automatica Sinica. 2024(04): 809-815 . 必应学术
    3. Juanjuan Li,Rui Qin,Sangtian Guan,Xiao Xue,Peng Zhu,Fei-Yue Wang. Digital CEOs in Digital Enterprises: Automating, Augmenting, and Parallel in Metaverse/CPSS/TAOs. IEEE/CAA Journal of Automatica Sinica. 2024(04): 820-823 . 必应学术
    4. 缪青海,王兴霞,杨静,赵勇,王雨桐,陈圆圆,田永林,俞怡,林懿伦,鄢然,马嘉琪,那晓翔,王飞跃. 从基础智能到通用智能:基于大模型的GenAI和AGI之现状与展望. 自动化学报. 2024(04): 674-687 . 本站查看
    5. 田永林,王兴霞,王雨桐,王建功,郭超,范丽丽,沈甜雨,武万森,张红梅,朱正秋,王飞跃. RAG-PHI:检索增强生成驱动的平行人与平行智能. 智能科学与技术学报. 2024(01): 41-51 . 百度学术
    6. 林飞,王飞跃,田永林,丁显廷,倪清桦,王静,申乐. 平行药物系统:基于大语言模型和三类人的框架与方法. 智能科学与技术学报. 2024(01): 88-99 . 百度学术
    7. 李娟娟,管桑田,秦蕊,侯家琛,王飞跃. 智能区块链与区块链智能:构筑DePIN的基础设施智能. 智能科学与技术学报. 2024(01): 5-16 . 百度学术
    8. 范丽丽,郭超,田永林,张慧,张俊,王飞跃. 基于Sora的平行智能基础机器人:三个世界模型,三种机器人系统(英文). Frontiers of Information Technology & Electronic Engineering. 2024(07): 917-924 . 百度学术
    9. 张腾超,田永林,林飞,倪清桦,宋平,戴星原,李娟娟,伍乃騏,李鼎烈,王飞跃. 平行旅游:基础智能驱动的智慧出游服务. 智能科学与技术学报. 2024(02): 164-178 . 百度学术
    10. 胡学敏,黄婷玉,余雅澜,任佳佳,谢微,陈龙. 仿真到现实环境的自动驾驶决策技术综述. 中国图象图形学报. 2024(11): 3173-3194 . 百度学术
    11. Fei-Yue Wang,Qinghai Miao,Xuan Li,Xingxia Wang,Yilun Lin. What Does ChatGPT Say:The DAO from Algorithmic Intelligence to Linguistic Intelligence. IEEE/CAA Journal of Automatica Sinica. 2023(03): 575-579 . 必应学术
    12. Fei-Yue Wang,Jing Yang,Xingxia Wang,Juanjuan Li,Qing-Long Han. Chat with ChatGPT on Industry 5.0:Learning and Decision-Making for Intelligent Industries. IEEE/CAA Journal of Automatica Sinica. 2023(04): 831-834 . 必应学术
    13. Qinghai Miao,Wenbo Zheng,Yisheng Lv,Min Huang,Wenwen Ding,Fei-Yue Wang. DAO to HANOI via DeSci:AI Paradigm Shifts from AlphaGo to ChatGPT. IEEE/CAA Journal of Automatica Sinica. 2023(04): 877-897 . 必应学术
    14. 卢经纬,郭超,戴星原,缪青海,王兴霞,杨静,王飞跃. 问答ChatGPT之后:超大预训练模型的机遇和挑战. 自动化学报. 2023(04): 705-717 . 本站查看
    15. 田永林,陈苑文,杨静,王雨桐,王晓,缪青海,王子然,王飞跃. 元宇宙与平行系统:发展现状、对比及展望. 智能科学与技术学报. 2023(01): 121-132 . 百度学术
    16. 李娟娟,秦蕊,丁文文,王戈,王坛,王飞跃. 基于Web3的去中心化自治组织与运营新框架. 自动化学报. 2023(05): 985-998 . 本站查看
    17. Xingxia Wang,Jing Yang,Yutong Wang,Qinghai Miao,Fei-Yue Wang,Aijun Zhao,Jian-Ling Deng,Lingxi Li,Xiaoxiang Na,Ljubo Vlacic. Steps Toward Industry 5.0: Building “6S” Parallel Industries With Cyber-Physical-Social Intelligence. IEEE/CAA Journal of Automatica Sinica. 2023(08): 1692-1703 . 必应学术
    18. Fei-Yue Wang. New Control Paradigm for Industry 5.0:From Big Models to Foundation Control and Management. IEEE/CAA Journal of Automatica Sinica. 2023(08): 1643-1646 . 必应学术
    19. 王飞跃. 平行医生与平行医院:ChatGPT与通用人工智能技术对未来医疗的冲击与展望. 协和医学杂志. 2023(04): 673-679 . 百度学术
    20. 阳东升,卢经纬,李强,王飞跃. 超大预训练模型在指挥控制领域的应用与挑战. 指挥与控制学报. 2023(02): 146-155 . 百度学术
    21. 鲁越,郭超,潘晴,倪清桦,李华飙,王春法,王飞跃. 平行博物馆系统:框架、平台、方法及应用. 模式识别与人工智能. 2023(07): 575-589 . 百度学术
    22. Yutong Wang,Xiao Wang,Xingxia Wang,Jing Yang,Oliver Kwan,Lingxi Li,Fei-Yue Wang. The ChatGPT After: Building Knowledge Factories for Knowledge Workers with Knowledge Automation. IEEE/CAA Journal of Automatica Sinica. 2023(11): 2041-2044 . 必应学术
    23. 秦蕊,梁小龙,李娟娟,丁文文,侯家琛,王雨桐,田永林,文丁. 平行科研院所:从数字化转型到智能化变革. 智能科学与技术学报. 2023(02): 212-221 . 百度学术
    24. 赵毅飞,申乐,叶佩军,王静,王飞跃. 平行麻醉:从麻醉自动化走向智慧型全周期麻醉平台. 智能科学与技术学报. 2023(02): 234-246 . 百度学术
    25. 陈晓光,韩金朋,杨满智,王晓,刘昕,王震,王飞跃. 灵境卫士:基于ACP的网络安全平行监管研究. 智能科学与技术学报. 2023(02): 247-253 . 百度学术
    26. 皮佩定,倪清桦,杨静,康孟珍,李宣昊,杜应昆,王飞跃. 平行夏尔希里:生态资源智能管护及其可持续发展新途径. 智能科学与技术学报. 2023(03): 283-292 . 百度学术
    27. 王惠珍,张捷,俞怡,赵琳,李葵南,马慧颖,祁肖静,王静,王雨桐,林懿伦,许力,申乐,李汉忠,王飞跃. 平行手术室:围术期护理流程与智慧手术平台管理的新模式. 模式识别与人工智能. 2023(10): 867-876 . 百度学术
    28. 崔华宁,王飞跃,李娟娟,秦蕊,王戈,梁小龙,侯家琛,管桑田. 平行财务预算:复杂业财的深度融合与智能服务. 智能科学与技术学报. 2023(04): 446-453 . 百度学术
    29. 卢经纬,程相,王飞跃. 求解微分方程的人工智能与深度学习方法:现状及展望. 智能科学与技术学报. 2022(04): 461-476 . 百度学术

    其他类型引用(1)

  • 加载中
  • 图(5) / 表(8)
    计量
    • 文章访问数:  2646
    • HTML全文浏览量:  2270
    • PDF下载量:  802
    • 被引次数: 30
    出版历程
    • 收稿日期:  2018-12-12
    • 录用日期:  2019-04-19
    • 刊出日期:  2021-08-20

    目录

    /

    返回文章
    返回