2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

车牌识别系统的黑盒对抗攻击

陈晋音 沈诗婧 苏蒙蒙 郑海斌 熊晖

陈晋音, 沈诗婧, 苏蒙蒙, 郑海斌, 熊晖. 车牌识别系统的黑盒对抗攻击. 自动化学报, 2021, 47(1): 121−135 doi: 10.16383/j.aas.c190488
引用本文: 陈晋音, 沈诗婧, 苏蒙蒙, 郑海斌, 熊晖. 车牌识别系统的黑盒对抗攻击. 自动化学报, 2021, 47(1): 121−135 doi: 10.16383/j.aas.c190488
Chen Jin-Yin, Shen Shi-Jing, Su Meng-Meng, Zheng Hai-Bin, Xiong Hui. Black-box adversarial attack on license plate recognition system. Acta Automatica Sinica, 2021, 47(1): 121−135 doi: 10.16383/j.aas.c190488
Citation: Chen Jin-Yin, Shen Shi-Jing, Su Meng-Meng, Zheng Hai-Bin, Xiong Hui. Black-box adversarial attack on license plate recognition system. Acta Automatica Sinica, 2021, 47(1): 121−135 doi: 10.16383/j.aas.c190488

车牌识别系统的黑盒对抗攻击

doi: 10.16383/j.aas.c190488
基金项目: 国家自然科学基金(62072406), 浙江省自然科学基金(LY19F020025), 宁波市“科技创新2025”重大专项(2018B10063)资助
详细信息
    作者简介:

    陈晋音:浙江工业大学信息工程学院副教授. 分别于2004年, 2009年获得浙江工业大学学士, 博士学位. 2005年和2006年, 在日本足利工业大学学习进化计算. 主要研究方向为进化计算, 数据挖掘和深度学习算法. 本文通信作者.E-mail: chenjinyin@zjut.edu.cn

    沈诗婧:浙江工业大学信息工程学院硕士研究生. 主要研究方向为深度学习, 计算机视觉.E-mail: 201407760128@zjut.edu.cn

    苏蒙蒙:浙江工业大学信息工程学院硕士研究生. 2017年获得浙江工业大学学士学位. 主要研究方向为智能计算, 人工免疫和工业安全.E-mail: sumengmeng1994@163.com

    郑海斌:浙江工业大学信息工程学院硕士研究生. 2017年获得浙江工业大学学士学位. 主要研究方向为数据挖掘与应用, 生物信息学.E-mail: haibinzheng320@gmail.com

    熊晖:浙江工业大学信息工程学院硕士研究生. 主要研究方向为图像处理, 人工智能.E-mail: bearlight080329@gmail.com

Black-box Adversarial Attack on License Plate Recognition System

Funds: Supported by National Natural Science Foundation of China (62072406), the Natural Science Foundation of Zhejiang Province (LY19F020025), the Major Special Funding for “Science and Technology Innovation 2025” of Ningbo (2018B10063)
  • 摘要:

    深度神经网络(Deep neural network, DNN)作为最常用的深度学习方法之一, 广泛应用于各个领域. 然而, DNN容易受到对抗攻击的威胁, 因此通过对抗攻击来检测应用系统中DNN的漏洞至关重要. 针对车牌识别系统进行漏洞检测, 在完全未知模型内部结构信息的前提下展开黑盒攻击, 发现商用车牌识别系统存在安全漏洞. 提出基于精英策略的非支配排序遗传算法(NSGA-II)的车牌识别黑盒攻击方法, 仅获得输出类标及对应置信度, 即可产生对环境变化较为鲁棒的对抗样本, 而且该算法将扰动控制为纯黑色块, 可用淤泥块代替, 具有较强的迷惑性. 为验证本方法在真实场景的攻击可复现性, 分别在实验室和真实环境中对车牌识别系统展开攻击, 并且将对抗样本用于开源的商业软件中进行测试, 验证了攻击的迁移性.

  • 深度学习因其强大的特征提取和建模能力为人工智能的发展提供了巨大的机遇[1]. 其中, 深度神经网络(Deep neural network, DNN)作为最常用的深度学习方法之一, 在计算机视觉[2]、自然语言处理[3]、工业控制[4]、生物信息[5]等众多研究领域获得成功. 同时DNN广泛应用于实际生活中, 如面部识别[6]、语音识别[7]、车牌识别等, 与我们的日常生活密不可分.

    随着DNN的应用普及, 其安全问题也日益凸显, 已有研究表明DNN容易受到对抗样本的攻击[8], 即在正常样本上添加精心设计的微小对抗扰动后, DNN将以较高的置信度输出错误类标. 更糟糕的是, 对抗样本可同时欺骗多种不同的DNN模型[9]. 根据攻击者是否已知目标模型的内部结构, 攻击可分为白盒攻击和黑盒攻击; 根据实施攻击的应用场景不同, 攻击可分为数字空间攻击和物理空间攻击[10]. 虽然数字空间中的白盒攻击产生的对抗扰动是人眼不可见的, 但是攻击时需要获取模型内部结构信息且对抗扰动难以精确打印, 因此难以应用于实际系统[11].

    基于DNN的车牌识别系统已广泛应用于生活, 如不停车收费系统(ETC)、停车场自动收费管理、道路电子警察等. 本文首次提出了物理空间中车牌识别系统的黑盒攻击方法, 即在未知模型内部结构信息的前提下生成有效的对抗样本, 实现对商业车牌识别系统的物理攻击. 本文通过对抗攻击发现系统漏洞, 为进一步提高车牌识别系统的鲁棒性提供研究基础.

    在物理空间中对车牌识别系统展开攻击, 除了需要考虑扰动尽可能小的限制条件外, 还需要克服以下几个困难: 1)物理空间中的攻击成功率易受拍摄环境的影响(如角度、距离、光线等); 2)添加的扰动应具有迷惑性, 即人眼虽然能观测到, 但不认为是一种攻击手段; 3)制作扰动时受现实条件制约, 例如打印出来的扰动存在色差, 导致对抗样本在物理空间中失效.

    针对以上物理空间攻击存在的困难, 本文提出基于精英策略的非支配排序遗传算法(NSGA-II)[12]的黑盒攻击, 通过模型的输出类标及对应置信度生成对抗样本. 此外, 本文对样本进行角度、距离、光线等模拟变换, 并将变换后的攻击效果作为优化目标之一, 提高了对抗样本对环境因素的鲁棒性. 本文将扰动控制为纯黑色块, 可用车子行驶过程中飞溅的淤泥块代替. 扰动可被摄像头捕获导致系统错误识别, 但人将其视为正常污渍.

    为验证本方法在物理环境中的可实现性, 分别在实验室和真实环境中对车牌识别系统展开攻击. 在实验室环境中, 通过改变角度、距离、光线等环境因素, 验证本文攻击具有较强的鲁棒性; 在真实环境中, 分别对三种车牌识别场景(躲避公路上探头抓拍、躲避车牌尾号限行措施、冒充出入库车辆)进行攻击. 此外, 本文还将对抗样本用于开源的商业软件中进行测试, 验证了攻击方法的迁移性.

    综上所述, 本文的主要创新点包括:

    1)首次提出物理空间中车牌识别系统的黑盒攻击方法, 仅通过模型的输出类标和对应置信度即可造成有效攻击, 并成功攻击商用车牌识别系统.

    2)提出基于NSGA-II多目标优化的黑盒攻击方法, 在对抗样本生成过程中引入角度、距离、光线等环境因素, 提高了对抗样本的鲁棒性.

    3)提出多种真实场景中的车牌识别攻击方案, 实现了对商用车牌识别系统的漏洞检测.

    深度学习的对抗攻击是指在模型测试阶段, 攻击者通过在正常样本上添加精心设计的微小扰动得到对抗样本, 使得DNN误判的恶意攻击[10]. 已有的对抗攻击方法主要包括:

    白盒攻击. Goodfellow等[13]提出快速梯度符号法(Fast gradient sign method, FGSM), 通过梯度方向搜索快速产生对抗攻击效果的扰动. Kurakin等[14]提出基本迭代法, 采用小的搜索步长进行迭代计算扰动, 并将BIM扩展为迭代极小可能类法, 得到具有更强的对抗攻击性和较弱迁移性的对抗样本. Moosavi-Dezfooli等[15]提出DeepFool方法, 能够以更小的扰动实现与FGSM相近的攻击效果. Carlini等[16]提出C&W攻击, 通过限制不同的范数实现了较强的攻击效果. Papernot等[17]提出了基于雅可比的显著图的攻击, 通过限制扰动范数L0, 得到扰动数量最少的对抗样本. Lyu等[18]构建了对抗样本的正则化项, 并提出了三种基于梯度的攻击方法.

    黑盒攻击. Su等[19]提出了单像素点攻击方法, 利用差分进化概念仅通过修改单个像素点即可生成对抗样本. Brendel等[20]提出了基于决策的边界攻击算法Boundary, 从较大的对抗性扰动开始, 在保持对抗性的同时逐渐减少扰动. Chen等[21]提出了一种基于零阶优化的攻击方法ZOO, 通过直接估计目标模型的梯度来生成对抗性的例子. Tu等[22]提出了ZOO的改进方法AutoZOO, 利用基于自编码的零阶优化算法大大减少了对目标模型的访问次数. Chen等[23]提出了Boundary++, 通过将Boundary与ZOO相结合的方法弥补了Boundary算法中模型访问次数过多的缺陷. Chen等[24]提出了基于进化计算的黑盒攻击方法, 实现有效的黑盒攻击. Bhagoji等[25]提出一种新的基于梯度估计的黑盒攻击方法, 该方法需要对目标模型的类概率进行查询访问, 并具有不依赖于攻击对象的迁移性.

    物理空间的攻击. Kurakin等[14]首次证明了现实世界中攻击的存在. 在物理空间中的对抗攻击是指在现实环境中对系统进行攻击, 目标模型大多为落地服役模型, 攻击手段为现实可操作手段. 与上文介绍的数字空间中的攻击相比, 其主要困难在于误导实际应用系统的攻击者往往不能精确控制系统的输入. 相反, 攻击者可能只能控制它们的物理外观. 将物理场景转换为数字输入的过程不受攻击者的控制, 且转换过程易受光照、姿态和距离等因素的影响. 因此, 在实际操作方面, 物理攻击的攻击者更难以操纵或制造可能错误分类的输入. 基于深度学习模型的识别系统通常采用两步完成功能, 即第一步利用检测器定位待识别的对象, 第二步利用分类器识别定位到的对象. 根据攻击对象的不同, 物理攻击可分为针对检测器的物理攻击(定位错误)和针对分类器的物理攻击(识别错误).

    1)针对检测器的物理攻击: Chen等[26]提出了针对Faster R-CNN[27]的物理对抗攻击, 通过在停车标志上添加对抗扰动使Faster R-CNN错误检测. Eykholt等[28]提出了一种消失攻击, 通过在停车标志的红色区域内填充一个图案使得YOLO-v2[29]检测器无法检测到该停车标志, 并且该攻击可以转移到Faster R-CNN. Thys等[30]提出了一种基于补丁的对抗攻击, 攻击者只需要在人身上放置一块补丁, 就能使检测器无法检测到此人.

    2)针对分类器的物理攻击: Sharif等[31]提出了针对人脸识别系统的面部攻击, 攻击者只需戴上一副特制的眼镜, 分类器就会作出攻击者预期的错误判断. Eykholt等[32]提出了针对路牌识别系统的物理攻击, 攻击者只需在路牌上添加一些不引人注意的涂鸦或者替换路牌背景, 路牌识别系统就会作出错误的判断. Sitawarin等[33]通过在现实环境中修改无害的标志和广告, 使它们被分类为攻击者所期望的具有高度置信度的交通标志, 该攻击扩大了对自驾车领域的威胁范围, 因为攻击者不只是局限于修改现有的交通标志. Athalye等[34]利用3D打印技术制作出了第一个物理对抗样本, 证明了三维对抗对象在物理世界中的存在. Li等[35]通过在相机镜头上放置一个精心制作的半透明贴纸, 使得拍摄到的图像具有对抗性, 并且镜头上的扰动为物理攻击中的通用扰动.

    针对真实场景中的车牌识别系统, 本文提出了一种基于NSGA-II的黑盒攻击方法, 通过模型的输出类标及对应置信度生成对抗样本. 此外, 本文对样本进行角度、距离、光线等模拟变换, 并将变换后的攻击效果作为优化目标之一, 提高了对抗样本对环境因素的鲁棒性. 本文将扰动控制为纯黑色块, 可用车子行驶过程中飞溅的淤泥块代替. 扰动可被摄像头捕获导致系统错误识别, 但人将其视为正常污渍. 本文方法的整体框图如图1所示.

    图 1  车牌识别系统的黑盒攻击方法整体框图
    Fig. 1  The main block diagram of the proposed method against license plate recognition system

    车牌识别系统的黑盒攻击方法主要步骤包括:

    1)对正常车牌从不同距离、角度拍摄一段视频, 截取其中若干帧作为正常车牌图像数据集;

    2)在正常车牌图像上分别添加随机扰动像素块, 生成多张不同的初始对抗样本, 构成初始种群;

    3)分别考虑攻击效果、扰动大小、环境影响等因素, 设计多目标优化函数, 并计算种群中每个样本的适应度值;

    4)对种群中的样本进行非支配排序和拥挤度排序, 选取一定数量的样本构成父代样本种群P;

    5)判断是否达到迭代终止条件, 如果是, 执行步骤8); 如果否, 执行步骤6);

    6)对于父代种群P, 使用交叉操作产生子代种群$Q$;

    7)将父代种群P与子代种群Q合并为一个整体种群R, 跳转到步骤3);

    8)选取符合要求的最优样本(原类标置信度小于0.2且扰动最小);

    9)将扰动复现在真实车牌上, 实现物理攻击.

    为产生黑盒攻击, 在正常车牌数据集中选取一张车牌图像样本x, 在x上添加随机扰动块, 构成初始对抗样本. 为保证生成的扰动可在实际车牌识别系统中有效, 本文利用扰动像素块代替一般图像对抗样本中的单个像素的扰动, 即每张车牌图像上添加若干个一定大小的初始黑色扰动块, 每个扰动块的大小可根据车牌所占像素大小进行调节, 初始扰动块的参数敏感性分析可见第3.6.1节. 扰动块位置随机分布, 为了在物理空间中准确复刻对抗扰动, 本文将扰动设置为块状且为纯黑色.

    为实现车牌识别系统的成功攻击, 对抗样本需要满足两个优化目标: 添加的对抗扰动受限、识别类标错误. 本文提出多目标优化的适应度函数设计.

    对抗扰动受限. 计算每张车牌图像样本中扰动总数的面积, 即所有扰动的像素点个数总和, 记为${{S = }}\;{\left\| {{{x' - x}}} \right\|_0}$, 其中$x'$表示车牌对抗样本, x表示车牌正常样本. 将S作为优化目标F1, F1越小, 则表示对抗样本的添加扰动越小.

    识别类标错误. 为了实现车牌识别系统的错误识别, 本文引入目标函数$\min f{(x')_y}$, 其中$f{(x')_y}$表示对抗样本$x'$被分为第y类的置信度, y表示正常样本$x$的正确分类结果. $f{(x')_y}$越小, 表示车牌对抗样本$x'$被错误分类的概率越高.

    为提高车牌对抗样本在物理场景中的攻击成功率, 克服环境因素变换对攻击效果的影响, 本文利用图像处理技术模拟真实拍摄场景下的三种变换, 并将变换后的分类结果加入优化目标. 三种变换分别是: 利用图像缩放变换模拟不同拍摄距离; 利用图像亮度变换模拟不同拍摄光线; 利用图像透视变换模拟不同拍摄角度. 三种变换的幅度选取方式分为固定幅度和随机幅度两种.

    图2列举了两种幅度选取方式的变换效果图. 图2 (a)展示了固定幅度时的变换效果图. 第一行模拟了距离变换, 分别将图像尺寸(长宽)缩小至0.5倍, 放大至2倍; 第二行模拟了亮度变换, 分别将图像像素值增大30, 减小30; 第三行模拟了角度变换, 分别向右倾30度, 向左倾30度.

    图 2  模拟场景变换效果图
    Fig. 2  Scene simulation change effect diagram

    图2 (b)展示了随机幅度时的变换效果图. 第一行模拟了距离变换, 分别将图像尺寸(长宽)随机缩小至0.34倍, 放大至2.3倍; 第二行模拟了亮度变换, 分别将图像像素值随机增大65, 减小36; 第三行模拟了角度变换, 分别向右随机倾斜60度, 向左随机倾斜17度.

    将模拟变换后样本的识别结果作为优化目标的一部分, 则设计目标函数F2的计算公式如下:

    $${F_2} = f{(x')_y} + \frac{{\sum\limits_{i = 1}^{{{Num}}} {f{{({T_i}(x'))}_y}} }}{{{{Num}}}}$$ (1)

    其中, ${{Num}}$表示图像变换种类; $ {T_i}(x')$表示变换形态后的对抗样本, $i = 1,\;2,\cdots,\;Num$; $f{({T_i}(x'))_y}$表示变换后的样本被分为第y类的置信度; y表示正常样本x的正确分类结果. F2越小, 则表示攻击效果越好.

    图3的两张车牌对抗样本为例, 两张样本均被识别为“浙AS7065”. 经计算, 样本(a)的F1 = 156.0, F2 = 0.197; 样本(b)的 F1 = 237.0, F2 = 0.015. 两张样本对原车牌“浙A87065”均攻击成功, 但是样本(a)的扰动小于样本(b), 样本(b)的攻击鲁棒性强于样本(a).

    图 3  车牌对抗样本
    Fig. 3  License plate adversarial examples

    本文采取基于NSGA-II的算法构成父代样本种群. 首先将子代车牌对抗样本与父代车牌对抗样本合并为一个种群R, 然后分别进行非支配排序和拥挤度排序, 选出前N个优秀对抗样本作为父代个体进行第2.4节的交叉操作.

    非支配排序. 当车牌样本${x'_{ {A}}}$中所有目标都优于或等于车牌样本${x'_{ {B}}}$时(即${x'_{ {A}}}$中的F1F2均小于等于${x'_{ {B}}}$中的F1F2), 则定义为${x'_{ {A}}}$支配了${x'_{ {B}}}$, 否则${x'_{ {A}}}$${x'_{ {B}}}$是一种非支配关系. 非支配排序的整体思路是对种群R中的车牌样本进行等级划分, 即分为$Rank_0,\;Rank_1,\;Rank_2, \cdots.$ 其中, Rank0中的车牌样本均优于Rank1中的车牌样本, 以此类推. 快速非支配排序算法如下:

    1)计算每张车牌样本${x'_{ {i}}}$的两个参数${n_i}$${s_i},$ 其中${n_i}$表示种群R中支配${x'_{ {i}}}$的车牌样本数目, ${s_i}$表示种群R中被${x'_{ {i}}}$支配的车牌样本集合;

    2) k = 0, k表示划分的等级;

    3)寻找种群R中所有${n_i}$= 0的车牌样本${x'_{ {i}}},$ 保存在等级Rankk中;

    4)对于Rankk中的每张车牌样本${x'_{ {i}}}$, 遍历${s_i}$中的每张车牌样本${x'_{ {l}}}$, 执行${n_{ {l}}}$=${n_{ {l}}}$– 1, 若${n_{ {l}}}$等于0, 则将${x'_{ {l}}}$保存在集合Rankk + 1中;

    5) k = k + 1, 进入下一等级的划分;

    6)重复步骤4)和步骤5), 直到整个种群R被划分完毕.

    拥挤度排序. 为了判定同一个Rank层中车牌样本的优劣, 将每张车牌样本的拥挤度作为评价标准. 拥挤度越大表示该车牌样本与其他样本之间的差异性越大, 也意味着该车牌样本越优. 拥挤度排序用于保持每代车牌样本的多样性. 每个样本的拥挤度计算方式如下:

    $${i_d} = \sum\limits_{j = 1}^m {(|f_j^{i + 1} - f_j^{i - 1}|)} $$ (2)

    其中, ${i_d}$表示第i个车牌样本的拥挤度, m表示有m个目标函数(本文m = 2, 即扰动总面积与原类标置信度), $f_j^{i + 1}$表示第i + 1个车牌样本的第j个目标函数值.

    非支配排序与拥挤度排序计算完毕, 进入车牌样本选择过程. 设定每次迭代种群中需要选择的车牌样本数量为N, 每次挑选时, 先挑选表现最好的样本, 即Rank0中的车牌样本, 接着Rank1, Rank2, Rank3$,\cdots .$但是总会出现以下情况: $\displaystyle\sum\nolimits_{{{k}} = 0}^{n - 1} {Ran{k_{{k}}} < N}$$\displaystyle\sum\nolimits_{{{k}} = 0}^n {Ran{k_{{k}}} > N}$, 此时需要通过拥挤度排序选出Rankn层中较优的车牌样本, 即计算Rankn层中每张车牌样本的拥挤度, 再根据拥挤度从大到小排序, 选出拥挤度大的车牌样本. 最终两种排序方式选出的个体总数为N, 构成下一次迭代的父代种群.

    本文以车牌“浙A87065”排序过程为例, 说明选择算子的具体操作过程. 图4为车牌“浙A87065”第10次攻击迭代中子代加父代种群的非支配排序结果. 在进行非支配排序时, 为节省时间成本, 不需要将种群全部划分, 本次排序只划分到Rank3, 因为$\displaystyle\sum\nolimits_{{{k}} = 0}^2 {Ran{k_{{k}}} < N}$$\displaystyle\sum\nolimits_{{{k}} = 0}^3 {Ran{k_{{k}}} > N},$ 所以需要先计算Rank3中车牌样本的拥挤度(如图4, 样本${{x'}}$的拥挤度为d1 + d2); 然后进行拥挤度排序, 选出Rank3中拥挤度大的样本, 将这些样本与Rank0Rank1Rank2中的样本共同组成下一代父代种群.

    图 4  车牌样本第10次迭代非支配排序结果
    Fig. 4  License plate example in 10th iteration non-dominated sorting result

    本文采用随机交叉算法生成新的子代个体. 从父代车牌样本种群中随机选取两个样本, 记录两个样本的扰动块数量分别为n1n2, 从两个样本中随机选取$a \in (0,\;{n_1})$$b \in (0,\;{n_2})$个扰动块, 将ab个扰动合成一个子代, 余下的n1 an2 b个扰动合成另一个子代. 随机交叉过程示意图如图5所示, 其中黑色区域表示扰动块. 图6表示车牌样本的交叉示例, 黑点小块表示扰动.

    图 5  随机交叉过程示意图
    Fig. 5  Schematic diagram of the random cross process
    图 6  车牌样本随机交叉示例
    Fig. 6  Example of random intersection of license plate examples

    当达到最大迭代次数时, 从最后一代种群的Rank0中选取最优对抗样本. 最优对抗样本的选取可根据攻击情景决定, 对扰动隐蔽性要求高的可选取攻击成功中扰动较小的对抗样本; 对样本鲁棒性要求高的可选取原类标置信度较小的对抗样本. 如图7表示对车牌“浙A87065”中数字 “8” 攻击结果的帕累托曲线, 其中k表示第k次迭代, 每条曲线表示该次迭代中的最优样本群体(Rank0). 本文将最优对抗样本定义为原类标置信度小于0.2时(以较高的置信度攻击成功)扰动最小的样本, 即图中 “#” 所指的位置.

    图 7  数字“8”攻击结果的帕累托曲线
    Fig. 7  Pareto curve of the number “8” attack result

    本节内容分别从数据集与识别模型、评价指标、车牌图像攻击算法对比、环境模拟变换中的车牌图像对抗样本、实验室环境的车牌识别系统攻击、参数敏感性分析、现实场景中商用车牌识别系统的攻击等方面展开.

    CCPD[36]是国内用于车牌识别的大型数据集, 由中科大构建, 该数据集绝大多数为“皖A”车牌. 本文为扩充完善各个省份的车牌, 将另一公开数据集1中的车牌数据与CCPD组合, 作为本文的车牌数据集, 共5000张车牌样本. 此外, 本文又在5000张车牌样本上作了旋转、模糊和亮度调节等图片数据增强操作, 再次扩充了数据集的数量, 达到20000张图片数据集.

    现阶段应用较广的中国车牌识别开源模型包括三种: HyperLPR2、EasyPR3、基于PaddlePaddle的OCR车牌识别4. 为比较三者的有效性, 本文利用上述公开车牌数据集分别对三种模型进行了训练验证检测, 并统计其识别准确率, 如表1所示. (注: HyperLPR存在预训练模型, 本文主要对预训练模型进行微调.)

    表 1  三种模型的识别准确率
    Table 1  Recognition accuracy of the three models
    模型名称训练准确率测试准确率
    HyperLPR96.7%96.3%
    EasyPR85.4%84.1%
    PaddlePaddle - OCR车牌识别87.9%86.5%
    下载: 导出CSV 
    | 显示表格

    车牌识别对比实验设置为1)数据集: 公开数据集20000张车牌图像; 2)实验平台及环境: i7-7700K 4.20GHzx8 (CPU), TITAN Xp 12GiBx2 (GPU), 16GBx4 memory (DDR4), Ubuntu 16.04 (OS), Python 3.6, Tensorflow-gpu-1.3.

    表1可知, HyperLPR模型的识别准确率远高于其他两种模型, 因此本文将HyperLPR模型作为本文攻击算法的目标模型, 验证本文攻击方法的有效性.

    此外, 本文将HyperLPR模型生成的对抗样本对百度AI开放平台中的车牌识别板块5及商业软件OpenALPR6进行测试, 验证了本文提出的黑盒攻击具有较强的攻击迁移性.

    本文利用攻击成功率(Attack success rate, ASR)、扰动大小、样本鲁棒性(原类标置信度)和收敛时的迭代次数来评价实验的性能.

    攻击成功率计算方式如式(3)所示:

    $${{{\rm{ASR}} = }}\;\frac{{{{sumNum}}({{label}}(x') \ne {{{y}}_0})}}{{{{sumNum}}({{label}}(x) = {{{y}}_0})}}$$ (3)

    其中, ${{sumNum}}(·)$表示样本数量, ${{x}}$表示原图, ${{x'}}$表示对抗样本, $label(·)$表示输出的类标, ${y_0}$表示正常车牌的正确类标.

    扰动大小用来评价对抗样本中扰动的隐蔽性. 本文采用平均L0范数(${\tilde L_0} $)和平均L2范数(${\tilde L_2} $)两种扰动计算方式. 本文算法生成的对抗样本中的扰动为纯黑色, 重点关注扰动的区域面积, 所以${\tilde L_0}$范数是本文衡量扰动大小的主要指标. ${\tilde L_0}$${\tilde L_2}$的计算方式如式(4)和式(5)所示:

    $${\tilde L_0} = \frac{{\sum\limits_{i = 1}^h {\sum\limits_{j = 1}^w {\sum\limits_{k = 1}^c {{\rm{sign}}({{x'}_{ijk}} - {x_{ijk}})} } } }}{{h\times w\times c}}$$ (4)
    $${\tilde L_2} = \frac{{\sqrt {\sum\limits_{i = 1}^h {\sum\limits_{j = 1}^w {\sum\limits_{k = 1}^c {{{({{x'}_{ijk}} - {x_{ijk}})}^2}} } } } }}{{h\times w\times c}}$$ (5)

    其中, h、wc分别表示图像中的高度、宽度、通道数, ${x'_{ijk}}$表示对抗样本在第k个通道上坐标为(i, j)的像素点的值, ${x_{ijk}}$表示原始图像在第k个通道上坐标为(i, j)的像素点的值, 图像的像素值范围是0到255.

    样本鲁棒性用原类标置信度表示, 对抗样本被识别成原类标的置信度越低, 表示该样本越鲁棒.

    收敛时的迭代次数主要用来衡量一次攻击所需要的时间成本和访问代价. 本文算法对模型的访问次数 = 迭代次数 × 种群大小.

    在基于深度学习的计算机视觉领域, 现已有多种对抗攻击的算法. 其中, 白盒攻击中较为典型的有FGSM和基于2-norm的攻击方法, 黑盒攻击中较为典型的有ZOO和AutoZOO攻击方法. 本文针对车牌识别系统提出一种基于NSGA-II的黑盒攻击方法, 实现了物理空间的对抗攻击.

    NSGA-II算法参数设置如下: 种群规模为50张车牌样本, 初始扰动所占总面积比为1: 80, 扰动块数量为30, 形状为矩形, 进化停止代数为50代, 交叉概率为0.8.

    本文面向车牌数据集, 分别采用4种性能较优的白盒与黑盒攻击算法对每张图像上的7个字符展开对抗攻击, 目标模型为HyperLPR, 并将攻击结果同本文算法的攻击结果进行对比, 如表2所示. 为了配合FGSM等主流攻击算法中的扰动计算方式, 表2中的扰动大小用平均L2范数(${\tilde L_2}$)和平均L0范数(${\tilde L_0}$)计算.

    表 2  车牌图像攻击算法对比结果
    Table 2  Comparison results of plate images attack algorithms
    攻击算法攻击成功率${\tilde L_2}$${\tilde L_0}$访问次数
    白盒FGSM89.3%0.0670.93732
    2-norm92.8%0.0510.9233
    黑盒ZOO85.7%0.0870.95374356
    AutoZOO87.1%0.0690.9384256
    本文算法98.6%0.0350.0041743
    下载: 导出CSV 
    | 显示表格

    表2可知, 在指定攻击车牌上的某一个字符时, 本文算法的攻击成功率高于其他4种攻击方法, 并且${\tilde L_2}$扰动也相应更小一点, 其中一张车牌的对抗样本如图8所示. ${\tilde L_0}$扰动主要衡量扰动的像素点个数, 即扰动区域. 由于本文算法重点限制扰动区域, 而其他4种攻击方法在整张车牌上添加扰动, 所以本文算法的${\tilde L_0}$扰动小于其他4种攻击方法. 就黑盒攻击而言, 本文算法对模型的访问次数远小于其他两种攻击算法, 这得益于本文算法只需较少的迭代次数. 此外, 白盒攻击对模型的访问次数远小于黑盒攻击对模型的访问次数, 基于2-norm的攻击方法在各项指标上均优于FGSM, AutoZOO在各项指标上也均优于ZOO.

    图 8  不同攻击算法攻击同一张车牌样本的不同位置的对抗样本图
    Fig. 8  Adversarial examples graph of different attack algorithms attacking different positions of the same license plate sample

    图8的对抗样本生成结果可知, 前4种攻击算法得到的对抗扰动基本都是全局分散的, 而且每个扰动的像素值几乎都不相同, 有的扰动甚至肉眼无法观测到. 很显然前4种攻击方法得到的车牌对抗样本难以在物理空间中复现, 即使通过打印纸质车牌, 依旧存在打印色差的问题. 但是本文算法只需要在真实车牌的相同位置贴上相同形状的黑色小纸片即可完成复现, 甚至粘上黑色泥土也能达到一定的攻击效果.

    为提高对抗样本在物理攻击中的成功率, 本文利用NSGA-II自动生成数字“0”到“9”的对抗样本, 并在不同数字模拟环境中测试鲁棒性. 本文采取三套不同的幅度变换策略生成对抗样本, 分别是固定1、固定2、随机变换.

    1)固定1: 将原始对抗样本尺寸缩小至0.5倍和放大至2倍; 将原始对抗样本像素值增加30和减小30; 将原始对抗样本向右倾斜30度和向左倾斜30度.

    2)固定2: 将原始对抗样本尺寸缩小至0.3倍和放大至3倍; 将原始对抗样本像素值增加50和减小50; 将原始对抗样本向右倾斜50度和向左倾斜50度.

    3)随机变换: 将原始对抗样本尺寸随机缩小至${S_1} \!\in\! (0.2,\;1)$倍和放大至${S_2} \!\in \!(1,\;5)$倍; 将原始对抗样本像素值随机增加${P_1} \!\in\! (0,\;100)$和减小${P_2} \!\in \!(0,\;100);$将原始对抗样本随机向右倾斜${A_1} \in (0,\;60)$度和向左倾斜${A_2} \in (0,\;60)$度.

    本文使用的车牌图像大小约为350 × 100个像素点, 当尺寸缩小倍数小于0.2时, 会对图像的可视性造成较大的影响; 当尺寸放大倍数大于5时, 会导致模型识别准确率的下降; 改变的像素值超过(−100, 100)这个范围时, 会导致图像过暗或过亮, 降低模型的识别准确率; 倾斜角的阈值设定与文献[32] 一致, 超过该阈值后, 模型的识别准确率会大大降低.

    实验结果如表3所示. 其中, 左边第1列表示对对抗样本进行不同的环境模拟变换; 左边第2列表示三套不同的幅度变换策略; 第3列到第12列具体列举了数字“0”到“9”的攻击成功率, 每一个数字都生成了三种不同环境模拟策略的对抗样本, 所以每一个数字对应的每一种环境下, 都有三个攻击成功率, 分别是策略“固定1”、“固定2”和“随机变换”. 原始对抗样本表示不对样本作模拟变换, 对于这种情况, “固定1”策略的攻击成功率最高, 这得益于“固定1”策略中环境变换幅度较小; “尺寸(× 0.5)、光线(+ 30)、角度(右30度)”和“尺寸(× 2)、光线(– 30)、角度(左30度)”这两种环境模拟变换与“固定1”策略中的变换相同, 所以由“固定1”生成的对抗样本的攻击成功率高于其他两种; “尺寸(× 0.3)、光线(+ 50)、角度(右50度)”和“尺寸(× 3)、光线(– 50)、角度(左50度)”这两种环境模拟变换与“固定2”策略中的变换相同, 所以由“固定2”生成的对抗样本的攻击成功率高于其他两种, 并且在这种情况下“随机变换”策略优于“固定1”; “尺寸(× 0.7)、光线(+ 20)、角度(右42度)”和“尺寸(× 1.3)、光线(– 75)、角度(左15度)”这两种环境模拟变换是随机选取的, 在这种情况下, “随机变换”策略优于前两种, 并且“固定2”优于“固定1”. 由此可知, 当环境模拟变换与进化时的模拟策略一致时, 固定幅度的攻击成功率会相应提升, 并且固定的幅度越大, 对外界环境的适应能力越好, 但是生成对抗样本时的成功率会略微下降. 当外界环境变换不可知时, “随机变换”策略生成的对抗样本的攻击鲁棒性更高, 由此可知随机幅度变换更适用于本文算法.

    表 3  不同环境模拟策略在不同模拟环境下的攻击成功率
    Table 3  The attack success rate of different simulation strategies in different simulation environments
    环境因素攻击成功率 (%)平均成功
    率 (%)
    0123456789
    原始对抗样本 固定1 100 96 100 100 100 100 100 100 100 100 99.6
    固定2 100 94 96 98 94 100 100 96 100 100 98.0
    随机变换 100 94 98 100 94 100 100 98 100 100 98.4
    尺寸 (× 0.5) 固定1 100 80 90 92 90 94 98 90 96 100 93.8
    光线 (+ 30) 固定2 98 76 90 84 88 92 94 86 92 98 90.4
    角度 (右 30 度) 随机变换 100 76 92 92 90 94 96 88 92 98 92.8
    尺寸 (× 2) 固定1 100 80 90 92 92 94 98 90 96 100 93.6
    光线 (– 30) 固定2 100 78 90 86 86 88 92 82 90 96 89.2
    角度 (左 30 度) 随机变换 100 78 92 90 88 90 96 84 92 96 91.4
    尺寸 (× 0.3) 固定1 92 76 80 86 82 84 88 84 90 88 85.0
    光线 (+ 50) 固定2 98 82 92 92 90 94 96 90 96 98 93.4
    角度 (右 50 度) 随机变换 96 80 90 88 86 90 94 92 92 94 90.8
    尺寸 (× 3) 固定1 90 74 80 86 82 82 90 82 88 88 84.2
    光线 (– 50) 固定2 98 80 90 92 90 92 96 92 94 98 92.8
    角度 (左 50 度) 随机变换 96 78 88 88 84 92 92 92 94 94 90.6
    尺寸 (× 0.7) 固定1 92 76 80 88 84 82 90 82 92 90 85.6
    光线 (+ 20) 固定2 94 76 86 90 86 84 92 86 90 92 88.4
    角度 (右 42 度) 随机变换 96 78 90 92 90 92 94 90 94 96 92.2
    尺寸 (× 1.3) 固定1 92 76 78 86 82 84 90 82 88 84 84.2
    光线 (– 75) 固定2 92 74 82 86 82 86 92 88 90 90 88.0
    角度 (左 15 度) 随机变换 94 76 88 90 86 92 92 90 92 94 91.0
    各种环境平均攻击成功率 固定1 95.1 79.7 85.4 90.0 87.4 88.6 93.4 87.1 92.9 92.9 89.3
    固定2 97.1 79.4 89.4 89.4 88.0 90.9 94.6 88.3 93.1 96.0 90.8
    随机变换 97.4 79.7 90.6 90.6 88.3 92.6 94.9 90.0 93.7 96.0 91.6
    下载: 导出CSV 
    | 显示表格

    表3的“各种环境平均攻击成功率”可知, 不同数字的对抗样本的鲁棒性并不相同. 在不同的环境变换下, 数字 “0” 的三种对抗样本的攻击成功率均为最高, 数字 “1” 的三种对抗样本的攻击成功率均为最低. 换言之, 在物理攻击中数字 “0” 比数字 “1” 更容易被攻击.

    表 4  车牌对抗样本识别结果及其置信度、扰动等展示
    Table 4  License plate against sample identification results and their confidence, disturbance display
    环境因素识别结果 (固定1/固定2/随机变换)
    原始对抗样本C/C/QH/5/5Z/Z/Z5/5/2J/6/Z3/3/33/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.92/0.87/0.86
    尺寸 (× 0.5)
    光线 (+ 30)
    角度 (右 30 度)
    C/C/QH/5/5Z/Z/35/5/2J/X/Z3/3/33/3/3T/1/ZG/S/S2/2/2
    平均置信度: 0.90/0.86/0.83
    尺寸 (× 2)
    光线 (– 30)
    角度 (左 30 度)
    C/C/QH/7/5Z/Z/Z5/5/2J/6/Z3/3/33/5/5T/T/ZG/S/G2/2/2
    平均置信度: 0.89/0.83/0.86
    尺寸 (× 0.3)
    光线 (+ 50)
    角度 (右 50 度)
    C/C/Q1/5/12/Z/X5/5/54/6/X3/3/33/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.84/0.90/0.85
    尺寸 (× 3)
    光线 (– 50)
    角度 (左 50 度)
    C/C/Q1/5/7Z/Z/Z5/5/2J/6/43/3/33/5/51/T/1G/S/S2/2/2
    平均置信度: 0.84/0.88/0.86
    尺寸 (× 0.7)
    光线 (+ 20)
    角度 (右 42 度)
    C/C/QH/1/5Z/Z/Z5/5/2J/6/Z3/3/35/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.81/0.87/0.85
    尺寸 (× 1.3)
    光线 (– 75)
    角度 (左 15 度)
    C/C/01/1/7Z/2/Z5/5/54/6/Z3/3/33/5/57/T/ZS/G/S2/2/2
    平均置信度: 0.87/0.82/0.83
    下载: 导出CSV 
    | 显示表格

    表4展现了表3中数字“0”到“9”每类对抗样本中的其中一张样本的分类结果. 由表4可知, 同一张对抗样本在进行不同的环境模拟变换后, 错误分类的结果会不全相同, 这意味着本文算法在车辆逃逸场景中有更高的适用性. 此外, 三种策略下的数字“1”均有被正确分类的情况, 该结果也进一步验证了本文算法中数字“1”较难被攻击的结论, 其原因是本文算法在车牌上添加的扰动为黑色扰动块, 数字“1”对黑色扰动块的敏感性较低, 与之相反, 对白色扰动块的敏感性较高. 最后, 无论是哪种策略的对抗样本, 在经过不同的变换后, 其识别置信度均有一定程度的下降, 且下降幅度的趋势与变换幅度呈正相关. 这一结果也从侧面反映了在现实场景中, 模型的识别结果易受到环境因素的影响.

    完成数字空间中的车牌图像攻击后, 将车牌对抗样本按车牌真实比例放大后打印, 然后将扰动裁剪下来, 按对应位置粘贴在真实车牌上, 测试本文算法在实验室环境中的物理攻击效果, 调整实验室环境的距离、光线、角度, 检测对抗样本的鲁棒性. 实验结果如表5所示. 本实验的车牌识别模型是HyperLPR, 原始正常车牌为“苏AN4D79”.

    表 5  实验室环境的车牌对抗攻击
    Table 5  License plate adversarial attack in the laboratory environment
    环境因素0度, 1 m, 白天0度, 1 m, 夜晚0度, 5 m, 白天0度, 5 m, 夜晚20度, 1 m, 白天20度, 1 m, 夜晚
    物理对抗样本
    正常车牌识别结果苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79
    正常车牌识别置信度0.97510.97410.92420.92140.95780.9501
    对抗样本识别结果苏 AH4072苏 AH4072苏 AH4072苏 AH4072苏 AH4072苏 AH4072
    对抗样本识别置信度0.90410.88620.82480.83100.80450.8424
    下载: 导出CSV 
    | 显示表格

    表5可知, 正常车牌在不同物理环境下均能以0.9以上的置信度被正确识别. 之后, 我们分别在“N”、“D”、“9”上添加扰动(粘上打印后裁剪下来的黑色纸张), 实验结果可得添加扰动后的车牌在不同的物理环境下均被错误识别为“苏AH4072”, 分类置信度有所下降, 但均高于0.8, 属于正常的置信度范畴. 实验验证了数字空间中攻击成功的对抗样本在物理空间中复现后, 也具有较强的攻击能力.

    本文使用基于精英策略的非支配排序遗传算法(NSGA-II), 主要的参数包括: 初始扰动信息、交叉概率、迭代次数. 在本节中, 对以上参数逐个进行敏感性分析.

    3.6.1   初始扰动信息分析

    本文将遗传进化算法作为主要的攻击方法, 初始种群(初始扰动)的信息对本文算法的有效性具有直接影响. 本文将初始扰动设定为若干个扰动块, 每个扰动块由若干个黑色像素点组成, 每个扰动块面积相等.

    以下对初始扰动块所占面积比值、数量、形状进行具体分析. 初始扰动块所占面积比值表示车牌样本中所有扰动块面积之和与车牌面积之比; 扰动的数量表示每张车牌样本中扰动块的数目; 初始扰动的形状被设定为矩形(R)、圆形(C)以及混合方块圆形(R+C).

    本文选取数据集中10张车牌样本, 分别用不同的初始扰动信息对车牌上的7个字符进行攻击, 一共生成70张对抗样本, 统计不同的初始扰动信息对实验结果的影响. 具体实验结果如表6 所示, 其中“最终扰动”列表示攻击得到的最优对抗样本的扰动大小(用平均L0范数计算).

    表 6  初始扰动信息的影响
    Table 6  Influences of initial perturbation information
    面积比值数量形状攻击成功率最终扰动迭代次数
    1: 5010R100%0.006233
    C100%0.005932
    R+C100%0.006335
    30R100%0.005436
    C100%0.005235
    R+C100%0.005434
    50R100%0.004242
    C100%0.004340
    R+C100%0.004344
    1: 8010R100%0.005834
    C100%0.005433
    R+C100%0.005534
    30R100%0.004334
    C100%0.004132
    R+C100%0.004235
    50R96%0.003748
    C94%0.003648
    R+C96%0.003246
    1: 12010R100%0.004232
    C100%0.004531
    R+C98%0.004231
    30R98%0.003536
    C96%0.003336
    R+C96%0.003335
    50R87%0.002756
    C86%0.002558
    R+C87%0.002458
    下载: 导出CSV 
    | 显示表格

    表6可知, 在初始扰动块所占面积比值及数量一定的情况下, 初始扰动块的形状对本文算法攻击效果的影响可以被忽略. 在初始扰动块所占面积比值一定时, 扰动块的数量越多, 最终得到的对抗样本的扰动越小, 但是迭代次数会有所上升. 当初始扰动块的数量一定时, 扰动块所占面积比值越小, 最终扰动相应也会越小, 但是攻击成功率会相应地下降, 迭代次数也会上升.

    不同字符的攻击难易程度也不同, 如汉字和一些数字(“0”、“8”等)更容易受到攻击, 此时我们可以采用面积比值较小的初始扰动来进行攻击. 但是像 “A” 这种字母, 相对更难攻击, 所以我们应该选择面积比值较大的初始扰动来进行攻击. 总之, 初始扰动块所占面积比值大小及数量的选择可以根据实际情况要求作出一些变动. 在没有特殊要求的情况下, 为了同时兼顾攻击成功率、最终扰动大小以及迭代次数, 本文在实验中选择了面积比值比为1: 80、数量为30的矩形扰动块作为初始扰动.

    3.6.2   交叉概率分析

    交叉概率用来判定两个个体是否需要交叉, 其大小决定了进化过程的收敛速度以及收敛的优劣性. 本文利用25组车牌样本中的两个数字或字母测试了交叉概率对本实验的影响, 具体结果如表7所示.

    表 7  交叉概率敏感性分析
    Table 7  Cross-probability sensitivity analysis
    交叉概率迭代次数原类标置信度扰动大小$({\tilde L_0})$
    0.2750.1530.0048
    0.4530.1380.0046
    0.6420.1130.0048
    0.8340.1260.0043
    1320.1400.0045
    下载: 导出CSV 
    | 显示表格

    表7可知, 交叉概率为0.2时, 收敛时的迭代次数为75次; 交叉概率为1时, 收敛时的迭代次数下降到32次. 随着交叉概率的增大, 收敛时的迭代次数逐步下降. 但是交叉概率大于0.8时, 迭代次数的下降幅度大大减缓, 甚至几乎不再改变. 由此可知交叉概率对收敛速度具有较大的影响, 但大于0.8时影响细微. 由表7的后两列可知, 随着交叉概率的增大, 最优样本原类标置信度与扰动在一定范围内波动, 并没有体现出与交叉概率有较大的相关性, 所以最优对抗样本的鲁棒性与扰动大小对交叉概率不敏感. 为了节省时间成本以及保持样本的多样性, 本文选取交叉概率为0.8.

    3.6.3   迭代次数分析

    在进化计算中, 迭代次数的多少直接体现该算法所需要的时间成本; 在黑盒攻击中, 迭代次数的多少直接决定了一次攻击需要访问的模型次数. 本文选取数据集中10张车牌样本, 分别对每张车牌上的7个字符进行攻击, 一共进行70次迭代攻击, 统计每10代最优种群(Rank0)中的平均原类标置信度和平均扰动大小. 实验结果如图9图10所示.

    图 9  平均原类标置信度随迭代次数变化曲线图
    Fig. 9  Curve of the original class standard confidence varying with the number of iterations
    图 10  平均扰动大小随迭代次数变化曲线图
    Fig. 10  Curve of the perturbation varying with the number of iterations

    图9可知, 当迭代次数达到35代左右时, 最优种群(Rank0)中的样本在平均原类标置信度上开始收敛. 在前30代中, 随着迭代次数的增加, 种群中的平均原类标置信度下降速度变缓.

    图10可知, 当迭代次数达到15代左右时, 最优种群(Rank0)中的样本在扰动大小上就已经开始收敛, 且前10代的下降速率很快, 表明对抗样本中扰动数的减少会在前10代产生质的变化.

    结合图9图10可知, 最优种群(Rank0)会在35代左右在两个目标函数上同时收敛. 在前10代中, 同时优化原类标置信度和扰动大小两个指标, 是进化过程中最重要的阶段; 在10代到35代中, 主要优化原类标置信度, 使得对抗样本的鲁棒性增强; 35代以后的最优种群(Rank0)达到收敛, 之后的迭代对种群优化影响不大. 所以本文算法不依赖大量的迭代次数, 大大减少了时间成本以及对目标模型的访问次数.

    最后, 为了更进一步证实本文的攻击方法在现实场景中的可实现性, 我们用泥土代替原先的扰动, 附在车牌的对应位置, 拍摄三种车牌识别场景下的车辆照片, 分别用百度AI开放平台中的车牌识别板块及具有商业性质的OpenALPR进行了检测, 验证本文算法的攻击具有迁移性和可实现性. 由于用泥土代替的扰动无法和打印出来的纸张扰动一样精准, 所以攻击效果较实验室环境有所下降. 本文设置了三种现实攻击场景, 分别为躲避公路上探头抓拍、躲避车牌尾号限行措施、冒充出入库车辆, 如表8 ~ 表10.

    表 8  躲避公路探头抓拍
    Table 8  Avoiding road probe capture
    HyperLPR云 AG7C35HyperLPR新 AG7C65HyperLPR浙 AG7C65
    百度AI浙 AC7C35百度AI浙 AG7C35百度AI浙 AG7C35
    OpenALPR浙 A67C65OpenALPR浙 A67C55OpenALPR浙 A07C35
    下载: 导出CSV 
    | 显示表格
    表 10  冒充出入库车辆
    Table 10  Posing as a warehousing vehicle
    立方浙 AP0F20立方浙 AP0F20
    百度AI浙 AF0F20百度AI浙 AT0F20
    OpenALPR浙 A10F20OpenALPR浙 A10F20
    下载: 导出CSV 
    | 显示表格
    表 9  躲避车牌尾号限行
    Table 9  Avoiding license plate tail number limit
    HyperLPR苏 A14D72HyperLPR苏 AH4D72HyperLPR苏 AH4D72
    百度AI苏 AH4D72百度AI苏 AH4D79百度AI苏 AH4D72
    OpenALPR苏 AM4D78OpenALPR苏 AM4D79OpenALPR苏 AM4D72
    下载: 导出CSV 
    | 显示表格
    3.7.1   躲避公路上探头抓拍

    本实验中正常车牌的识别结果为“浙A87065”, 生成扰动的目标模型为HyperLPR. 本实验在“8”、“0”、“6”三个数字上添加扰动, 实现车辆躲避抓拍攻击. 由表8可知, 对于行驶过程中的车辆, 位置不同对识别结果具有较大的影响. 目标模型HyperLPR对中文字的识别效果较差, 但是对数字和字母的识别效果优于百度AI和OpenALPR. 对于百度AI和OpenALPR而言, 三个添加扰动的数字均被错误识别.

    3.7.2   躲避车牌尾号限行措施

    本实验中正常车牌识别结果为“苏AN4D79”, 生成扰动的目标模型为HyperLPR. 本实验在“N”、“9”上面添加扰动, 实现车辆的逃逸攻击以及躲避尾号限行攻击. 由表9可知, 对于添加了扰动的“N”, 三个模型在不同位置均对“N”识别错误, 实现了现实生活中的车辆逃逸. 对于模型HyperLPR, 尾号“9”均被识别为“2”, 实现了现实生活中的躲避尾号限行. 对于其他两个模型, 大部分情况下, 尾号“9”也被错误识别, 证明针对于尾号的攻击也具有一定的迁移性.

    3.7.3   冒充出入库车辆

    本实验中正常车牌识别结果为“浙AP0P20”, 生成扰动的目标模型为HyperLPR. 本实验在两个“P”上面添加不同的扰动, 实现车辆出入库顶替攻击. 出入库检测时, 拍摄角度较为倾斜, HyperLPR模型无法正确检测出车牌的位置, 所以本文将其替换为学校出入库专用的商用车牌检测系统(立方)的检测结果. 由表10可知, 立方将一个 “P” 错误识别, 百度AI和OpenALPR将两个 “P” 都错误识别, 且三个商用软件都将第二个 “P” 错误识别为 “F”, 所以该扰动可作为迁移攻击的目标攻击.

    本文针对车牌识别系统提出了基于NSGA-II进化计算的黑盒物理攻击方法. 只需知道输出类标及对应置信度, 就能产生对环境变化因素具有较强鲁棒性的扰动, 而且本文算法将扰动控制为纯黑色块, 可用车子行驶过程中飞溅上来的淤泥块代替. 本文分别在实验室环境和真实环境中对生成的对抗样本进行检验, 验证了本文算法的物理可实现性以及对抗样本对真实环境因素的鲁棒性和迁移性.

    除上述优点外, 本文算法也存在两个缺陷: 1)生成的车牌扰动较大, 攻击可能会被外界因素所阻止(如被交警拦下). 所以在之后的研究中, 设想用透明反光材料代替泥土, 大大降低人眼可见度. 2)本文需要知道车牌模型输出的分类置信度, 在某些场合, 这个条件可能不被满足. 所以在之后的研究中, 尝试只用最终的分类类标进行攻击, 但是这可能会大大增加对模型的访问次数.

  • 图  1  车牌识别系统的黑盒攻击方法整体框图

    Fig.  1  The main block diagram of the proposed method against license plate recognition system

    图  2  模拟场景变换效果图

    Fig.  2  Scene simulation change effect diagram

    图  3  车牌对抗样本

    Fig.  3  License plate adversarial examples

    图  4  车牌样本第10次迭代非支配排序结果

    Fig.  4  License plate example in 10th iteration non-dominated sorting result

    图  5  随机交叉过程示意图

    Fig.  5  Schematic diagram of the random cross process

    图  6  车牌样本随机交叉示例

    Fig.  6  Example of random intersection of license plate examples

    图  7  数字“8”攻击结果的帕累托曲线

    Fig.  7  Pareto curve of the number “8” attack result

    图  8  不同攻击算法攻击同一张车牌样本的不同位置的对抗样本图

    Fig.  8  Adversarial examples graph of different attack algorithms attacking different positions of the same license plate sample

    图  9  平均原类标置信度随迭代次数变化曲线图

    Fig.  9  Curve of the original class standard confidence varying with the number of iterations

    图  10  平均扰动大小随迭代次数变化曲线图

    Fig.  10  Curve of the perturbation varying with the number of iterations

    表  1  三种模型的识别准确率

    Table  1  Recognition accuracy of the three models

    模型名称训练准确率测试准确率
    HyperLPR96.7%96.3%
    EasyPR85.4%84.1%
    PaddlePaddle - OCR车牌识别87.9%86.5%
    下载: 导出CSV

    表  2  车牌图像攻击算法对比结果

    Table  2  Comparison results of plate images attack algorithms

    攻击算法攻击成功率${\tilde L_2}$${\tilde L_0}$访问次数
    白盒FGSM89.3%0.0670.93732
    2-norm92.8%0.0510.9233
    黑盒ZOO85.7%0.0870.95374356
    AutoZOO87.1%0.0690.9384256
    本文算法98.6%0.0350.0041743
    下载: 导出CSV

    表  3  不同环境模拟策略在不同模拟环境下的攻击成功率

    Table  3  The attack success rate of different simulation strategies in different simulation environments

    环境因素攻击成功率 (%)平均成功
    率 (%)
    0123456789
    原始对抗样本 固定1 100 96 100 100 100 100 100 100 100 100 99.6
    固定2 100 94 96 98 94 100 100 96 100 100 98.0
    随机变换 100 94 98 100 94 100 100 98 100 100 98.4
    尺寸 (× 0.5) 固定1 100 80 90 92 90 94 98 90 96 100 93.8
    光线 (+ 30) 固定2 98 76 90 84 88 92 94 86 92 98 90.4
    角度 (右 30 度) 随机变换 100 76 92 92 90 94 96 88 92 98 92.8
    尺寸 (× 2) 固定1 100 80 90 92 92 94 98 90 96 100 93.6
    光线 (– 30) 固定2 100 78 90 86 86 88 92 82 90 96 89.2
    角度 (左 30 度) 随机变换 100 78 92 90 88 90 96 84 92 96 91.4
    尺寸 (× 0.3) 固定1 92 76 80 86 82 84 88 84 90 88 85.0
    光线 (+ 50) 固定2 98 82 92 92 90 94 96 90 96 98 93.4
    角度 (右 50 度) 随机变换 96 80 90 88 86 90 94 92 92 94 90.8
    尺寸 (× 3) 固定1 90 74 80 86 82 82 90 82 88 88 84.2
    光线 (– 50) 固定2 98 80 90 92 90 92 96 92 94 98 92.8
    角度 (左 50 度) 随机变换 96 78 88 88 84 92 92 92 94 94 90.6
    尺寸 (× 0.7) 固定1 92 76 80 88 84 82 90 82 92 90 85.6
    光线 (+ 20) 固定2 94 76 86 90 86 84 92 86 90 92 88.4
    角度 (右 42 度) 随机变换 96 78 90 92 90 92 94 90 94 96 92.2
    尺寸 (× 1.3) 固定1 92 76 78 86 82 84 90 82 88 84 84.2
    光线 (– 75) 固定2 92 74 82 86 82 86 92 88 90 90 88.0
    角度 (左 15 度) 随机变换 94 76 88 90 86 92 92 90 92 94 91.0
    各种环境平均攻击成功率 固定1 95.1 79.7 85.4 90.0 87.4 88.6 93.4 87.1 92.9 92.9 89.3
    固定2 97.1 79.4 89.4 89.4 88.0 90.9 94.6 88.3 93.1 96.0 90.8
    随机变换 97.4 79.7 90.6 90.6 88.3 92.6 94.9 90.0 93.7 96.0 91.6
    下载: 导出CSV

    表  4  车牌对抗样本识别结果及其置信度、扰动等展示

    Table  4  License plate against sample identification results and their confidence, disturbance display

    环境因素识别结果 (固定1/固定2/随机变换)
    原始对抗样本C/C/QH/5/5Z/Z/Z5/5/2J/6/Z3/3/33/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.92/0.87/0.86
    尺寸 (× 0.5)
    光线 (+ 30)
    角度 (右 30 度)
    C/C/QH/5/5Z/Z/35/5/2J/X/Z3/3/33/3/3T/1/ZG/S/S2/2/2
    平均置信度: 0.90/0.86/0.83
    尺寸 (× 2)
    光线 (– 30)
    角度 (左 30 度)
    C/C/QH/7/5Z/Z/Z5/5/2J/6/Z3/3/33/5/5T/T/ZG/S/G2/2/2
    平均置信度: 0.89/0.83/0.86
    尺寸 (× 0.3)
    光线 (+ 50)
    角度 (右 50 度)
    C/C/Q1/5/12/Z/X5/5/54/6/X3/3/33/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.84/0.90/0.85
    尺寸 (× 3)
    光线 (– 50)
    角度 (左 50 度)
    C/C/Q1/5/7Z/Z/Z5/5/2J/6/43/3/33/5/51/T/1G/S/S2/2/2
    平均置信度: 0.84/0.88/0.86
    尺寸 (× 0.7)
    光线 (+ 20)
    角度 (右 42 度)
    C/C/QH/1/5Z/Z/Z5/5/2J/6/Z3/3/35/5/5T/T/ZG/S/S2/2/2
    平均置信度: 0.81/0.87/0.85
    尺寸 (× 1.3)
    光线 (– 75)
    角度 (左 15 度)
    C/C/01/1/7Z/2/Z5/5/54/6/Z3/3/33/5/57/T/ZS/G/S2/2/2
    平均置信度: 0.87/0.82/0.83
    下载: 导出CSV

    表  5  实验室环境的车牌对抗攻击

    Table  5  License plate adversarial attack in the laboratory environment

    环境因素0度, 1 m, 白天0度, 1 m, 夜晚0度, 5 m, 白天0度, 5 m, 夜晚20度, 1 m, 白天20度, 1 m, 夜晚
    物理对抗样本
    正常车牌识别结果苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79苏 AN4D79
    正常车牌识别置信度0.97510.97410.92420.92140.95780.9501
    对抗样本识别结果苏 AH4072苏 AH4072苏 AH4072苏 AH4072苏 AH4072苏 AH4072
    对抗样本识别置信度0.90410.88620.82480.83100.80450.8424
    下载: 导出CSV

    表  6  初始扰动信息的影响

    Table  6  Influences of initial perturbation information

    面积比值数量形状攻击成功率最终扰动迭代次数
    1: 5010R100%0.006233
    C100%0.005932
    R+C100%0.006335
    30R100%0.005436
    C100%0.005235
    R+C100%0.005434
    50R100%0.004242
    C100%0.004340
    R+C100%0.004344
    1: 8010R100%0.005834
    C100%0.005433
    R+C100%0.005534
    30R100%0.004334
    C100%0.004132
    R+C100%0.004235
    50R96%0.003748
    C94%0.003648
    R+C96%0.003246
    1: 12010R100%0.004232
    C100%0.004531
    R+C98%0.004231
    30R98%0.003536
    C96%0.003336
    R+C96%0.003335
    50R87%0.002756
    C86%0.002558
    R+C87%0.002458
    下载: 导出CSV

    表  7  交叉概率敏感性分析

    Table  7  Cross-probability sensitivity analysis

    交叉概率迭代次数原类标置信度扰动大小$({\tilde L_0})$
    0.2750.1530.0048
    0.4530.1380.0046
    0.6420.1130.0048
    0.8340.1260.0043
    1320.1400.0045
    下载: 导出CSV

    表  8  躲避公路探头抓拍

    Table  8  Avoiding road probe capture

    HyperLPR云 AG7C35HyperLPR新 AG7C65HyperLPR浙 AG7C65
    百度AI浙 AC7C35百度AI浙 AG7C35百度AI浙 AG7C35
    OpenALPR浙 A67C65OpenALPR浙 A67C55OpenALPR浙 A07C35
    下载: 导出CSV

    表  10  冒充出入库车辆

    Table  10  Posing as a warehousing vehicle

    立方浙 AP0F20立方浙 AP0F20
    百度AI浙 AF0F20百度AI浙 AT0F20
    OpenALPR浙 A10F20OpenALPR浙 A10F20
    下载: 导出CSV

    表  9  躲避车牌尾号限行

    Table  9  Avoiding license plate tail number limit

    HyperLPR苏 A14D72HyperLPR苏 AH4D72HyperLPR苏 AH4D72
    百度AI苏 AH4D72百度AI苏 AH4D79百度AI苏 AH4D72
    OpenALPR苏 AM4D78OpenALPR苏 AM4D79OpenALPR苏 AM4D72
    下载: 导出CSV
  • [1] Goodfellow I J, Bengio Y, Courville A. Deep Learning. Cambridge: MIT Press, 2016. 24−45
    [2] Chen J Y, Zheng H B, Lin X, Wu Y Y, Su M M. A novel image segmentation method based on fast density clustering algorithm. Engineering Applications of Artificial Intelligence, 2018, 73: 92−110 doi: 10.1016/j.engappai.2018.04.023
    [3] Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks. In: Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Quebec, Canada: MIT Press, 2014. 3104−3112
    [4] 代伟, 柴天佑. 数据驱动的复杂磨矿过程运行优化控制方法. 自动化学报, 2014, 40(9): 2005−2014

    Dai Wei, Chai Tian-You. Data-driven optimal operational control of complex grinding processes. Acta Automatica Sinica, 2014, 40(9): 2005−2014
    [5] Chen J Y, Zheng H B, Xiong H, Wu Y Y, Lin X, Ying S Y, et al. DGEPN-GCEN2V: A new framework for mining GGI and its application in biomarker detection. Science China Information Sciences, 2019, 62(9): Article No. 199104 doi: 10.1007/s11432-018-9704-7
    [6] 姚乃明, 郭清沛, 乔逢春, 陈辉, 王宏安. 基于生成式对抗网络的鲁棒人脸表情识别. 自动化学报, 2018, 44(5): 865−877

    Yao Nai-Ming, Guo Qing-Pei, Qiao Feng-Chun, Chen Hui, Wang Hong-An. Robust facial expression recognition with generative adversarial networks. Acta Automatica Sinica, 2018, 44(5): 865−877
    [7] 袁文浩, 孙文珠, 夏斌, 欧世峰. 利用深度卷积神经网络提高未知噪声下的语音增强性能. 自动化学报, 2018, 44(4): 751−759

    Yuan Wen-Hao, Sun Wen-Zhu, Xia Bin, Ou Shi-Feng. Improving speech enhancement in unseen noise using deep convolutional neural network. Acta Automatica Sinica, 2018, 44(4): 751−759
    [8] Szegedy C, Zaremba W, Sutskever I, Bruna J, Erhan D, Goodfellow I J, et al. Intriguing properties of neural networks. In: Proceedings of the 2nd International Conference on Learning Representations (ICLR 2014). Banff, AB, Canada: ICLR, 2014.
    [9] Moosavi-Dezfooli S M, Fawzi A, Fawzi O, Frossard P. Universal adversarial perturbations. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017. 86−94
    [10] Akhtar N, Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey. IEEE Access, 2018, 6: 14410−14430 doi: 10.1109/ACCESS.2018.2807385
    [11] Zeng X H, Liu C X, Wang Y S, Qiu W C, Xie L X, Tai Y W, et al. Adversarial attacks beyond the image space. In: Proceedings of the 2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). California, USA: IEEE, 2019. 4302−4311
    [12] Deb K, Agarwal S, Pratap A, Meyarivan T. A fast and elitist multiobjective genetic algorithm: NSGA-II. IEEE Transactions on Evolutionary Computation, 2002, 6(2): 182−197 doi: 10.1109/4235.996017
    [13] Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples. In: Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015). San Diego, CA, USA: ICLR, 2015.
    [14] Kurakin A, Goodfellow I J, Bengio S. Adversarial examples in the physical world. In: Proceedings of the 5th International Conference on Learning Representations (ICLR 2017). Toulon, France: ICLR, 2017.
    [15] Moosavi-Dezfooli S M, Fawzi A, Frossard P. Deepfool: A simple and accurate method to fool deep neural networks. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE, 2016. 2574−2582
    [16] Carlini N, Wagner D. Towards evaluating the robustness of neural networks. In: Proceedings of the 2017 IEEE Symposium on Security and Privacy. San Jose, USA: IEEE, 2017. 39−57
    [17] Papernot N, McDaniel P, Jha S, Fredrikson M, Celik Z B, Swami A. The limitations of deep learning in adversarial settings. In: Proceedings of the 2016 IEEE European Symposium on Security and Privacy. Saarbrucken, Germany: IEEE, 2016. 372−387
    [18] Lyu C, Huang K Z, Liang H N. A unified gradient regularization family for adversarial examples. In: Proceedings of the 2015 IEEE International Conference on Data Mining. Atlantic City, USA: IEEE, 2015. 301−309
    [19] Su J W, Vargas D V, Sakurai K. One pixel attack for fooling deep neural networks. IEEE Transactions on Evolutionary Computation, 2019, 23(5): 828−841 doi: 10.1109/TEVC.2019.2890858
    [20] Brendel W, Rauber J, Bethge M. Decision-based adversarial attacks: Reliable attacks against black-box machine learning models. In: Proceedings of the 6th International Conference on Learning Representations (ICLR 2018). Vancouver, BC, Canada: ICLR, 2018.
    [21] Chen P Y, Zhang H, Sharma Y, Yi J F, Hsieh C J. Zoo: Zeroth order optimization based black-box attacks to deep neural networks without training substitute models. In: Proceedings of the 10th ACM Workshop on Artificial Intelligence and Security. Dallas, USA: ACM, 2017. 15−26
    [22] Tu C C, Ting P S, Chen P Y, Liu S J, Zhang H, Yi J F, et al. Autozoom: Autoencoder-based zeroth order optimization method for attacking black-box neural networks. In: Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Hawaii, USA: AAAI, 2019. 742−749
    [23] Chen J B, Jordan M I. Boundary attack++: Query-efficient decision-based adversarial attack. arXiv: 1904.02144, 2019.
    [24] Chen J Y, Su M M, Shen S J, Xiong H, Zheng H B. POBA-GA: Perturbation optimized black-box adversarial attacks via genetic algorithm. Computers & Security, 2019, 85: 89−106
    [25] Bhagoji A N, He W, Li B. Exploring the space of black-box attacks on deep neural networks. arXiv: 1712.09491, 2017.
    [26] Chen S T, Cornelius C, Martin J, Chau D H. ShapeShifter: Robust physical adversarial attack on faster R-CNN object detector. In: Proceedings of Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Dublin, Ireland: Springer, 2019. 52−68
    [27] Ren S Q, He K M, Girshick R, Sun J. Faster R-CNN: Towards real-time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137−1149
    [28] Eykholt K, Evtimov I, Fernandes E, Li B, Rahmati A, Tramer F, et al. Physical adversarial examples for object detectors. In: Proceedings of the 12th USENIX Workshop on Offensive Technologies. Baltimore, MD, USA: USENIX Association, 2018.
    [29] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger. In: Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017. 6517−6525
    [30] Thys S, Ranst W V, Goedemé T. Fooling automated surveillance cameras: Adversarial patches to attack person detection. In: Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Long Beach, USA: IEEE, 2019. 49−55
    [31] Sharif M, Bhagavatula S, Bauer L, Reiter M K. Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In: Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security. Vienna, Austria: ACM, 2016. 1528−1540
    [32] Eykholt K, Evtimov I, Fernandes E, Li B, Rahmati A, Xiao C W, et al. Robust physical-world attacks on deep learning visual classification. In: Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 1625−1634
    [33] Sitawarin C, Bhagoji A N, Mosenia A, Mittal P, Chiang M. Rogue signs: Deceiving traffic sign recognition with malicious ads and logos. arXiv: 1801.02780, 2018.
    [34] Athalye A, Engstrom L, Ilyas A, Kwok K. Synthesizing robust adversarial examples. In: Proceedings of the 35th International Conference on Machine Learning. Stockholm, Sweden: PMLR, 2018. 284−293
    [35] Li J C, Schmidt F, Kolter Z. Adversarial camera stickers: A physical camera-based attack on deep learning systems. In: Proceedings of the 36th International Conference on Machine Learning. Long Beach, USA: PMLR, 2019. 3896−3904
    [36] Xu Z B, Yang W, Meng A J, Lu N X, Huang H, Ying C C, et al. Towards end-to-end license plate detection and recognition: A large dataset and baseline. In: Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018. 261−277
  • 期刊类型引用(10)

    1. 王璐瑶,曹渊,刘博涵,曾恩,刘坤,夏元清. 时间序列分类模型的集成对抗训练防御方法. 自动化学报. 2025(01): 144-160 . 本站查看
    2. 杨秀璋,武帅,任天舒,廖文婧,项美玉,于小民,刘建义,陈登建. 基于改进图像增强及CNN的复杂环境车牌识别算法. 计算机科学. 2024(S1): 574-580 . 百度学术
    3. 翔云,韩瑞鑫,陈作辉,李香玉,徐东伟. 一种通用防御物理空间补丁对抗攻击方法. 信息安全学报. 2023(02): 138-148 . 百度学术
    4. 陈先意,顾军,颜凯,江栋,许林峰,付章杰. 针对车牌识别系统的双重对抗攻击. 网络与信息安全学报. 2023(03): 16-27 . 百度学术
    5. 于振华,康建寅,叶鸥. 拓扑自适应粒子群优化的黑盒对抗攻击. 计算机辅助设计与图形学学报. 2023(08): 1239-1248 . 百度学术
    6. 陈晋音,吴长安,郑海斌. 基于softmax激活变换的对抗防御方法. 网络与信息安全学报. 2022(02): 48-63 . 百度学术
    7. 李悄,李垚辰,张玉龙,唐文能,曹鲁光,左良玉. 采用稀疏3D卷积的单阶段点云三维目标检测方法. 西安交通大学学报. 2022(09): 112-122 . 百度学术
    8. 黄世泽,张肇鑫,董德存,秦晋哲. 针对车载环境感知系统的对抗样本生成方法. 同济大学学报(自然科学版). 2022(10): 1377-1384 . 百度学术
    9. 李明慧,江沛佩,王骞,沈超,李琦. 针对深度学习模型的对抗性攻击与防御. 计算机研究与发展. 2021(05): 909-926 . 百度学术
    10. 沈文杰. 面向道路交通场景的车辆违规占道实时检测. 海军工程大学学报. 2021(03): 33-37 . 百度学术

    其他类型引用(16)

  • 加载中
图(10) / 表(10)
计量
  • 文章访问数:  1965
  • HTML全文浏览量:  1054
  • PDF下载量:  332
  • 被引次数: 26
出版历程
  • 收稿日期:  2019-07-01
  • 录用日期:  2019-12-23
  • 网络出版日期:  2021-01-29
  • 刊出日期:  2021-01-29

目录

/

返回文章
返回