2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于动态视觉传感器的铝基盘片表面缺陷检测

马居坡 陈周熠 吴金建

牛宏, 陶金梅, 张亚军. 一种新的数据驱动的非线性自适应切换控制方法. 自动化学报, 2020, 46(11): 2359−2366 doi: 10.16383/j.aas.c190674
引用本文: 马居坡, 陈周熠, 吴金建. 基于动态视觉传感器的铝基盘片表面缺陷检测. 自动化学报, 2024, 50(12): 2407−2419 doi: 10.16383/j.aas.c240307
Niu Hong, Tao Jin-Mei, Zhang Ya-Jun. A new nonlinear adaptive switching control method based on data driven. Acta Automatica Sinica, 2020, 46(11): 2359−2366 doi: 10.16383/j.aas.c190674
Citation: Ma Ju-Po, Chen Zhou-Yi, Wu Jin-Jian. Dynamic vision sensor based defect detection for the surface of aluminum disk. Acta Automatica Sinica, 2024, 50(12): 2407−2419 doi: 10.16383/j.aas.c240307

基于动态视觉传感器的铝基盘片表面缺陷检测

doi: 10.16383/j.aas.c240307 cstr: 32138.14.j.aas.c240307
基金项目: 国家重点研发计划(2023YFA1008500), 陕西省自然科学基础研究计划(2024JC-YBQN-0627), 中央高校基本科研业务费专项资金(XJSJ23079, ZYTS24006)资助
详细信息
    作者简介:

    马居坡:西安电子科技大学人工智能学院讲师. 主要研究方向为仿生动态视觉处理和视觉缺陷检测. E-mail: majupo@xidian.edu.cn

    陈周熠:西安电子科技大学人工智能学院博士研究生. 主要研究方向为仿生动态视觉处理和视觉缺陷检测. E-mail: chenzhouyi@stu.xidian.edu.cn

    吴金建:西安电子科技大学人工智能学院教授. 主要研究方向为高质量成像和图像智能处理. 本文通信作者. E-mail: jinjian.wu@mail.xidian.edu.cn

Dynamic Vision Sensor Based Defect Detection for the Surface of Aluminum Disk

Funds: Supported by National Key Research and Development Program of China (2023YFA1008500), Natural Science Basic Research Program of Shaanxi (2024JC-YBQN-0627), and the Fundamental Research Funds for the Central Universities (XJSJ23079, ZYTS24006)
More Information
    Author Bio:

    MA Ju-Po Lecturer at the School of Artificial Intelligence, Xidian University. His research interest covers bionic dynamic vision processing and visual defect detection

    CHEN Zhou-Yi Ph.D. candidate at the School of Artificial Intelligence, Xidian University. His research interest covers bionic dynamic vision processing and visual defect detection

    WU Jin-Jian Professor at the School of Artificial Intelligence, Xidian University. His research interest covers high-quality imaging and intelligent image processing. Corresponding author of this paper

  • 摘要: 现有视觉缺陷检测技术通常基于传统电荷耦合器件(Charge-coupled device, CCD)或互补金属氧化物半导体(Complementary metal-oxide-semiconductor, CMOS)相机进行缺陷成像和后端检测算法开发. 然而, 现有技术存在成像速度慢、动态范围小、背景干扰大等问题, 难以实现对高反光产品表面弱小瑕疵的快速检测. 针对上述挑战, 创新性地提出了一套基于动态视觉传感器(Dynamic vision sensor, DVS)的缺陷检测新模式, 以实现对具有高反光特性的铝基盘片表面缺陷的高效检测. DVS是一种新型的仿生视觉传感器, 具有成像速度快、动态范围大、运动目标捕捉能力强等优势. 首先开展了面向铝基盘片高反光表面弱小瑕疵的DVS成像实验, 并分析总结了DVS缺陷成像的特性与优势. 随后, 构建了第一个基于DVS的缺陷检测数据集(Event-based defect detection dataset, EDD-10k), 包含划痕、点痕、污渍三类常见缺陷类型. 最后, 针对缺陷形态多变、纹理稀疏、噪声干扰等问题, 提出了一种基于时序不规则特征聚合框架的DVS缺陷检测算法(Temporal irregular feature aggregation framework for event-based defect detection, TIFF-EDD), 实现对缺陷目标的有效检测.
  • 切换控制方法是解决一类难以建立精确数学模型的非线性系统的主要控制方法, 采用多模型切换控制方法的思想可追溯到20世纪70年代[1], 其特点是: 根据被控对象的不确定范围, 以多个模型来逼近对象的全局动态特性, 进而基于多个模型建立相应的控制器, 通过模型(控制器)的调度策略从而达到快速响应外界需要的目的. 自90年代以来, 该方法成为非线性系统控制领域的研究热点[2-5]. Chen和Narendra[6]针对一类零动态渐近稳定的非线性动态系统, 提出了一种带有非线性项估计与补偿的切换控制方法, 并取得了较好的控制效果. 沿着这种切换控制方法的设计思路, 文献[7-11]分别针对一类零动态不稳定的非线性系统, 采用不同的控制策略提出了非线性切换控制方法. 在上述文献中, 为了估计系统的未知非线性项, 分别采用BP (Back propagation)神经网络、高阶神经网络、神经模糊推理系统和模糊逻辑系统等智能工具对非线性项进行估计, 这种估计方法在估计非线性项时往往缺乏考虑非线性项中蕴含的可测数据信息, 造成部分可测数据信息也通过估计算法产生, 存在增大估计误差的可能性. 另外, 在设计线性控制器时, 以往的方法直接忽略非线性项, 并没有充分利用非线性的历史可测数据进行控制器设计, 造成有用数据丢失. 由于数据驱动控制方法是解决机理不明确或含不确定性机理模型的非线性系统建模与控制问题的有效方法[12], 其主要思想是直接利用被控对象的离线、在线数据来描述对象的运行规律和相关模式, 并结合反映系统参数、结构等数据, 实现非线性系统的预报、评价、调度、监控、诊断、决策、优化和控制等的各种期望功能[13-14]. 如文献[15]利用数据驱动方法, 提出了一种新的多状态空间模型状态估计方法. 文献[16]首次提出了一种基于数据驱动的非线性系统交替辨识算法. 另外, 近年来已有不少基于数据驱动的黑箱建模与控制方法(如迭代学习[17]、无模型自适应控制方法[18]和自适应动态规划方法[19-20]等)被提出. 文献[21]把基于模型的控制方法、数据驱动控制方法以及切换控制方法相结合, 优势互补, 提出了基于数据与虚拟未建模动态驱动的非线性切换控制方法, 但该方法在处理系统的虚拟未建模动态时仍然采用了智能估计算法, 该估计方法与文献[7-11]所采用的估计算法本质相同, 有待于进一步改进. 文献[22-24]提出了一种带死区的切换控制方法, 并采用了具有任意切换次数的控制策略. 文献[25-26]采用Backstepping 方法分别研究了一类具有下三角结构的非线性切换控制方法. 文献[27]提出了一种基于神经网络的非线性自适应输出反馈切换控制方法. 上述文献对特定的非线性系统都取得了较好的控制效果, 但仍然存在没有充分利用被控对象过程数据的缺陷. 文献[28-29]对于一类具有全状态约束的非线性系统, 提出一种具有随机切换的自适应智能控制方法, 为研究非线性系统提供了新思路.

    综上, 本文在数据驱动控制方法、非线性切换控制方法的基础上, 提出了一种新的基于数据驱动的非线性自适应切换控制方法. 首先, 考虑到被控对象的非线性项历史数据可测, 本文把非线性项分解为前一时刻可测部分与未知增量的和, 并利用非线性项前一时刻的可测数据信息进行控制器设计, 克服了以往方法中没有充分利用非线性项可测数据信息, 造成有用数据信息丢失的不足. 在上述工作的基础上, 结合文献[9]和文献[21]中的未建模动态估计方法, 提出了一种未建模动态未知增量的估计算法, 在简化估计算法的同时, 提高估计精度. 其次, 分别设计了带有非线性项增量估计与补偿的非线性自适应控制器、带有非线性项前一拍数据补偿的非线性控制器和不带非线性补偿的线性自适应控制器, 三个自适应控制器采用改进文献[6]中的切换策略来协调控制被控对象. 这种控制方法结合了多模型切换控制的优势, 同时也充分利用了被控对象的大数据信息和知识, 通过补偿器的设计, 消除了非线性项对闭环系统的不利影响. 通过切换控制策略既保证了闭环系统的稳定性, 同时提高了闭环系统的瞬态性能. 在此基础上, 分析了闭环切换系统的稳定性和收敛性. 最后, 将所提的控制算法通过实验进行验证, 实验结果说明了该新型切换控制算法的有效性. 综上所述, 本文的主要创新点如下:

    1) 针对一类难以建立精确数学模型的复杂非线性系统, 充分利用被控对象的过程大数据信息和有用知识, 提出了一种新的基于数据驱动的非线性自适应切换控制方法.

    2) 利用数据驱动控制的思想, 将未建模动态的前一时刻可测数据用于控制器设计, 克服了常规切换控制算法没有充分利用数据, 造成有用数据丢失的不足.

    3) 给出了所提的新型切换控制算法的设计方法, 并分析了闭环系统的稳定性和收敛性.

    单输入单输出(Sinple-Input Sinple-Output, SISO)离散时间非线性动态系统可描述为:

    $$ \begin{split} y(k + \tau ) = & f[y(k), \cdots ,y(k - {n_s} + 1),u(k),\\ &u(k - 1), \cdots ,u(k - {m_s})] \end{split} $$ (1)

    其中, $ \tau $为系统的时滞且$1 \le \tau < {n_s},\;$$u(k) \in{\rm{{R} }}$, $y(k) \in {\rm{{R}}}$, 分别为系统在时刻的输入和输出; 系统阶次$ {n_s} $$ {m_s} $已知; $f( \cdot ) \in \rm{R}$是连续可微的非线性函数.

    为简单, 本文研究系统时滞$ \tau = 1 $的一类非线性系统.

    假设原点$ (u,y) = (0,0) $为上述非线性系统的平衡点, 将系统(1)在原点处Taylor展开得到如下等价模型:

    $$ \begin{split} y(k + 1) =\,& - {a_1}y(k) - \cdots - {a_{{n_s}}}y(k - {n_s} + 1) + \\ &{{b_0}u(k)\; \cdots + {b_{{m_s}}}u(k - {m_s}) + v[{{x}}(k)]} \end{split} $$ (2)

    其中, $ {a_i},(i = 1, \cdots ,{n_s}) $, $ {b_j},(j = 0, \cdots ,{m_s}) $为在工作点处的一阶Taylor系数, 分别为

    $$ \begin{split} & {a_{i} = -\left.\frac{\partial f\left[y(k-1), \cdots, u\left(k-1-n_{s}\right)\right]}{\partial y(k-i)}\right|_{y = 0 \atop u = 0}, }\\ & \qquad\qquad\qquad{ i = 0, \cdots, n_s } \end{split} $$
    $$ \begin{split} & {b_{i} = -\left.\frac{\partial f\left[y(k-1), \cdots, u\left(k-1-m_{s}\right)\right]}{\partial u(k-1-j)}\right|_{y = 0 \atop u = 0},}\\ & \qquad\qquad {i = 0, \cdots, m_s } \end{split} $$

    $ {{x}}(k) $为数据向量, 定义

    $$ \begin{split} & {{{x}}(k) = }\\ & {[y(k), \cdots ,y(k - {n_s} + 1),u(k), \cdots ,u(k - {m_s})]^{\rm T}} {} \end{split} $$

    $ v[{{x}}(k)] $是由$ {{x}}(k) $的高阶项组成的光滑非线性函数, 称为未建模动态.

    注1. 若平衡点偏离或远离原点, 可用坐标变换将其移至该点.

    利用单位后移算子$ {z^{ - 1}} $, 系统(2)可等价地写成如下形式:

    $$ A({z^{ - 1}})y(k + 1) = B({z^{ - 1}})u(k) + v[{{x}}(k)] $$ (3)

    其中, $ A({z^{ - 1}}) $$ B({z^{ - 1}}) $是关于单位延迟算子$ {z^{ - 1}} $的多项式, 其阶次分别为$ {n_s} $${m_s} ;\;$$ A({z^{ - 1}}) $$ B({z^{ - 1}}) $的具体表达式如下:

    $$ A({z^{ - 1}}) = 1 + {a_1}{z^{ - 1}} + \cdots + {a_{{n_s}}}{z^{ - {n_s}}} $$
    $$ B({z^{ - 1}}) = {b_0} + {b_1}{z^{ - 1}} + \cdots + {b_{{m_s}}}{z^{ - {m_s}}} $$

    在上述非线性系统(3)中, 由于非线性项$ v[{{x}}(k)] $未知, 因此, 基于此模型设计的控制器无法实现.

    由式(3)可知:

    $$ v[{{x}}(k - 1)] = A({z^{ - 1}})y(k) - B({z^{ - 1}})u(k - 1) $$ (4)

    从式(4)可以看出, $ A({z^{ - 1}}) $$ B({z^{ - 1}}) $可通过系统的历史数据信息获得, 从而可间接获得未建模动态前一拍的数据$ v[{{x}}(k - 1)] $, 因此, 可充分利用$ v[{{x}}(k - 1)] $的可测数据信息进行控制器设计. 以往的方法没有考虑该历史数据信息, 从而造成有用数据丢失. 为此, 下面首先将非线性项等价地表示成如下形式:

    $$ v[{{x}}(k)] = v[{{x}}(k - 1)] + \Delta v[{{x}}(k)] $$ (5)

    其中, $ {\Delta = 1} - {z^{ - 1}} $,

    $$ \Delta v\left[ {{{x}}(k)} \right] = v\left[ {{{x}}(k)} \right] - v\left[ {{{x}}(k - 1)} \right] $$

    则系统(3)可进一步地表示为如下形式:

    $$ \begin{split} A({z^{ - 1}})y(k + 1) =\,& B({z^{ - 1}})u(k) +\\ & {v[{{x}}(k - 1)] + {\Delta }v[{{x}}(k)]} \end{split} $$ (6)

    假设1. 对任意的$k ,\;$非线性项 $ v[{{x}}(k)] $的增量$ \Delta v[{{x}}(k)] $全局有界, 即

    $$ \left| {\Delta v[{{x}}(k)]} \right| \le M $$ (7)

    其中, $ M > 0 $为已知正数.

    注2. 事实上, 假设1要求未建模动态的变化率有界, 实际物理系统, 如水箱液位控制系统、倒立摆控制系统, pendubot 欠驱动机械臂控制系统等, 由于受到传感器、执行器以及电子元件等物理特性的限制, 如限幅、饱和特性等, 系统的输入输出信号是有界的, 未建模动态也是有界的, 因此, 假设1是合理的.

    控制目标为设计控制器使得:

    1)闭环系统的输入输出信号有界, 即闭环系统BIBO (Bounded-input bounded-output)稳定.

    2)系统输出渐近跟踪预先给定的有界参考信号的变化.

    由于系统运行的过程中不可避免地存在某种干扰的影响, 导致系统的工作点会偏离平衡点, 此时未建模动态如果过大将会对系统的控制精度以及稳定性和收敛性造成影响, 甚至导致系统不稳定, 因此, 须采用前馈补偿的策略抑制其对闭环系统的影响. 为此, 针对被控对象(6), 设计如图1所示的带有非线性项$ v[{{x}}(k)] $前一拍数据及其未知增量补偿的非线性控制器.

    图 1  带有$v[{{x}}(k)]$前一拍数据及其未知增量补偿的非线性控制器
    Fig. 1  Nonlinear controller with $v[{{x}}(k)]$ previous step data and its unknown incremental compensation

    图1可知, 该非线性控制器$ u(k) $可表示为

    $$\begin{split} & {H({z^{ - 1}})u(k) + G({z^{ - 1}})y(k) = }\\ & \quad {R({z^{ - 1}})w(k + 1) -}\\ & \quad {K({z^{ - 1}})\{ v[{{x}}(k - 1)] + {\Delta }v[{{x}}(k)]\}}\\ \end{split} $$ (8)

    给控制器方程(8)乘以$ B({z^{ - 1}}) $, 可得:

    $$ \begin{split} & {H({z^{ - 1}})B({z^{ - 1}})u(k) + B({z^{ - 1}})G({z^{ - 1}})y(k) = }\\ & \quad {B({z^{ - 1}})R({z^{ - 1}})w(k + 1) -}\\ & \quad {B({z^{ - 1}})K({z^{ - 1}})\{ v[{{x}}(k - 1)] + {\Delta }v[{{x}}(k)]\} } \end{split} $$ (9)

    由式(6)可得:

    $$ \begin{split} B({z^{ - 1}})u(k) =\,& A({z^{ - 1}})y(k + 1) - v[{{x}}(k - 1)] -\\ & { \Delta v[{{x}}(k)]} \end{split} $$ (10)

    将式(10)代入式(9), 整理可得闭环系统

    $$\begin{split} & {\left[A\left(z^{-1}\right) H\left(z^{-1}\right)+z^{-1} B\left(z^{-1}\right) G\left(z^{-1}\right)\right]y(k+1)}=\\ & \quad {B({z^{ - 1}})R({z^{ - 1}})w(k + 1) + [H({z^{ - 1}}) - }\\ & \quad {B({z^{ - 1}})K({z^{ - 1}})]{\kern 1pt} \{ v[{{x}}(k - 1)] + \Delta v[{{x}}(k)]\}}\\[-10pt] \end{split} $$ (11)

    分析闭环系统方程(11)可以看出, 适当选择$ H({z^{ - 1}}),G({z^{ - 1}}),R({z^{ - 1}}) $可以使闭环系统的特征多项式$ \dfrac{{B({z^{ - 1}})R({z^{ - 1}})}}{{H({z^{ - 1}})A({z^{ - 1}}) + {z^{ - 1}}B({z^{ - 1}})\bar G({z^{ - 1}})}} $的稳态增益为1. 通过选择$ K({z^{ - 1}}) $可以使$ H({z^{ - 1}}) $$B({z^{ - 1}}) K({z^{ - 1}})$的差尽可能的小, 以减小未建模动态$ v[{{x}}(k)] $对被控对象输出的影响, 从而使被控对象的输出尽可能地跟踪理想输出.

    针对控制器(8), 选择控制器加权多项式$ H({z^{ - 1}}) $$ G({z^{ - 1}}) $的原则是在保证闭环系统稳定的前提下, 使闭环系统的输出$ y(k + 1) $能够很好地跟踪$ w(k + 1) $, 即:

    $$ {A({z^{ - 1}})H({z^{ - 1}}) + {z^{ - 1}}B({z^{ - 1}})G({z^{ - 1}}) \ne 0,} \;\;{\left| z \right| \ge 1} $$ (12)

    $$ {\mathop {\lim }\limits_{k \to \infty } {e_g}(k + 1) = \mathop {\lim }\limits_{k \to \infty } [y(k + 1) - w(k + 1)]} { = 0 } $$ (13)

    其中, $ {e_g}(k + 1) $为系统的跟踪误差, 定义为:

    $$ {e_g}(k + 1) = y(k + 1) - w(k + 1) $$

    从闭环系统方程(11)还可以看出, 设计补偿器$ K({z^{ - 1}}) $是非线性控制器的关键, 如果系统是零动态渐近稳定的, 则选择补偿器的形式为:

    $$ K({z^{ - 1}}) = \frac{H({z^{ - 1}})} {B({z^{ - 1}})} $$ (14)

    如果系统是零动态不稳定的, 则选择补偿器$ K({z^{ - 1}}) $为使得$ H({z^{ - 1}}) $$ B({z^{ - 1}})K({z^{ - 1}}) $近似相等的最小二乘解.

    对上述非线性控制器(8), 如果未建模动态的变化不是十分剧烈, 此时非线性项的增量$ \Delta v[{{x}}(k)] $比较小, 可将其忽略, 直接采用前一时刻未建模动态的可测信息补偿当前时刻的未建模动态, 因此, 设计非线性控制器为

    $$ \begin{split} & {H({z^{ - 1}})u(k) + G({z^{ - 1}})y(k) = }\\ & \quad {R({z^{ - 1}})w(k + 1) - K({z^{ - 1}})v[{{x}}(k - 1)]} \end{split} $$ (15)

    如果被控对象在工作点处运行时, 那么线性化的模型将能表示整个非线性模型的主体部分, 此时可设计不带补偿的控制器作用于被控对象. 故, 将非线性控制器(8)中的$ v[{{x}}(k)] $完全忽略, 直接设计不带非线性项补偿的线性控制器:

    $$ {H({z^{ - 1}})u(k) + G({z^{ - 1}})y(k) =} {R({z^{ - 1}})w(k + 1)} $$ (16)

    考虑到系统的阶次$ {n_s} $, $ {m_s} $和时滞$ \tau $已知, 但组成$ A({z^{ - 1}}) $, $ B({z^{ - 1}}) $的参数未知, 由式(6)以及$ A({z^{ - 1}}) $, $ B({z^{ - 1}}) $多项式的定义, 利用后移算子$ {z^{ - 1}} $可将式(6)改写成如下等价形式:

    $$ \begin{split} & {y(k) = - {a_1}y(k - 1) - {a_2}y(k - 2) - \cdots - }\\ & \quad {{a_{{n_s}}}y(k - {n_s}) + {b_1}u(k - 1)+ {b_2}u(k - 2) + }\\ & \quad {\cdots - {b_{{m_s}}}u(k - {m_s}) + v[{{x}}(k - 1)] + \Delta v[{{x}}(k)]}=\\ & \quad { [ - y(k - 1), \cdots , - y(k - 2),u(k - 1), \cdots ,}\\ & \quad {u(k - {m_s})] {[{a_1}, \cdots ,{a_{{n_s}}},{b_1}, \cdots ,{b_{{m_s}}}]^{\rm T}} +}\\ & \quad {v[{{x}}(k - 1)] + \Delta v[{{x}}(k - 1)]}=\\ & \quad { {{\varphi }}{(k - 1)^{\rm T}}{{\theta }} + v[{{x}}(k - 1)] +}\\ & \quad {\Delta v[{{x}}(k - 1)]}\\[-10pt] \end{split} $$ (17)

    其中,

    $$ \begin{split} {{\varphi }}^{\rm T}{(k - 1)} =& [ - y(k - 1), \cdots , - y(k - 2), \\ & u(k - 1), \cdots ,u(k - {m_s})] \end{split} $$
    $$ {{{\theta }}^{\rm T}} = [{a_1}, \cdots ,{a_{{n_s}}},{b_1}, \cdots ,{b_{{m_s}}}] $$
    2.2.1   线性自适应控制算法

    由式(17)可知, 当采用线性控制器时, 系统的参数辨识方程定义为

    $$ {\hat y_1}(k + 1) = {{\varphi }}^{\rm T}{(k)}{{\hat{{\theta }}}_1}(k) $$ (18)

    其中,

    $$ \begin{split} {{\hat{{\theta }}}_1^{\rm T}}{(k)} =\,&[ - {a_{1,1}}(k), \cdots , - {a_{1, {n_s}}}(k),\\ & {{b_{1,1}}(k), \cdots ,{b_{1,{m_s}}}(k)]} \end{split} $$ (19)

    表示在$ k $时刻对参数$ {{\theta }} $的估计. 采用下面改进的投影算法[6, 30]进行辨识:

    $$ {{\hat{{\theta }}}_1}(k) = {{\hat{{\theta }}}_1}(k - 1) + \frac{{{\mu _1}(k){{\varphi }}(k - 1){e_1}(k)}}{{1 + {{{\varphi }}^{\rm T}}(k - 1){{\varphi }}(k - 1)}} $$ (20)
    $$ {\mu _1}(k) = \left\{ {\begin{array}{*{20}{l}} {1,}&{{\mkern 1mu} |{e_1}(k)| > 2M}\\ {0,}&{\text{其他}} \end{array}} \right. $$ (21)
    $$ {e_1}(k) = y(k) - {\hat y_1}(k) $$ (22)

    由式(16)可知, 线性自适应控制器通过下式获得:

    $$ \begin{split} & {{\hat H_1}(k,{z^{ - 1}})u(k) + {\hat G_1}(k,{z^{ - 1}})y(k) =}\\ & \quad {{\hat R_1}(k,{z^{ - 1}})w(k + 1)} \end{split} $$ (23)

    其中, $ {\hat H_1}(k,{z^{ - 1}}) $$ {\hat G_1}(k,{z^{ - 1}}) $$ {\hat R_1}(k,{z^{ - 1}}) $通过下式在线计算:

    $$ \begin{split} & {{\hat H_1}(k,{z^{ - 1}}){\hat A_1}(k,{z^{ - 1}}) + {z^{ - 1}}{\hat B_1}(k,{z^{ - 1}}){\hat G_1}(k,{z^{ - 1}})}\ne 0,\\ & \quad {\left| z \right| \ge 1}\\[-10pt] \end{split} $$ (24)
    $$\begin{split} &{{\hat R}_1}(k,{z^{ - 1}}) \!=\\ &\dfrac{{{\hat H}_1}(k,{z^{ \!-\! 1}}){{\hat A}_1}(k,{z^{ \!-\! 1}}) \!+\! {z^{ \!-\! 1}}{{\hat B}_1}(k,{z^{ \!-\! 1}}){{\hat G}_1}(k,{z^{ \!-\! 1}})}{{{\hat B}_1}(k,{z^{ \!-\! 1}})} \end{split} $$ (25)
    2.2.2   带有$ v[{{x}}(k - 1)] $补偿的的非线性自适应控制算法

    系统(17)的参数辨识方程定义为

    $$ {\hat y_2}(k + 1) = {{\varphi }}^{\rm T}{(k)}{{\hat{{\theta }}}_2}(k) + v[{{x}}(k - 1)] $$ (26)

    其中,

    $$ \begin{split} {{\hat{{\theta }}} _2^{\rm T}}{(k)} =\,& [ - {a_{2,1}}(k), \cdots , - {a_{2,{n_s}}}(k), \\ &{{b_{2,1}}(k), \cdots ,{b_{2,{m_s}}}(k)]} \end{split} $$ (27)

    表示在$ k $时刻对参数$ {{\theta }} $的估计. 采用类似于(18) ~ (22)的辨识算法[6, 30]得到, 不同的是辨识误差为

    $$ {e_2}(k) = y(k) - {\hat y_2}(k) $$ (28)

    由式(15)和辨识模型(26)可知, 非线性自适应控制器通过下式获得:

    $$ \begin{split} & {{\hat H_2}(k,{z^{ - 1}})u(k) + {\hat G_2}(k,{z^{ - 1}})y(k) =}\\ & \quad {{\hat R_2}(k,{z^{ - 1}})w(k + 1) -}\\ & \quad {{\hat K_2}(k,{z^{ - 1}})v[{{x}}(k - 1)]} \end{split} $$ (29)

    其中, $ {\hat H_2}(k,{z^{ - 1}}) $$ {\hat G_2}(k,{z^{ - 1}}) $$ {\hat R_2}(k,{z^{ - 1}}) $是非线性自适应控制器参数, 采用类似于式(24) ~ (25)的方式计算. 补偿器$ {\hat K_2}(k,{z^{ - 1}}) $通过下式在线计算:

    $$ {\hat K_2}(k,{z^{ - 1}}) =\frac {{{\hat H}_2}(k,{z^{ - 1}})} {{{\hat B}_2}(k,{z^{ - 1}})} $$ (30)
    2.2.3   带有非线性项未知增量估计的非线性自适应控制算法

    由式(17)可知, 带有非线性项增量$ \Delta v[{{x}}(k)] $估计的参数辨识方程为

    $$ \begin{split} \hat y(k + 1) =\,& {{\varphi }}^{\rm T}{(k)}{{\hat{{\theta}}}} _{\bf{3}}(k) + v[{{x}}(k - 1)] + \\] & {\Delta \hat v[{{x}}(k)]} \end{split} $$ (31)

    其中, $ {\hat{{\theta }}}_3 $表示在$ k $时刻对参数$ {{\theta }} $的估计. 定义为

    $$ \begin{split} {{\hat{{\theta }}} _3^{\rm T}}{(k)} =\,& [ - {a_{3,1}}(k), \cdots , - {a_{3,{n_s}}}(k),\\ & {{b_{3,1}}(k), \cdots ,{b_{3,{m_s}}}(k)]} \end{split} $$ (32)

    采用类似于$ {\hat{{\theta }}} _1 $的辨识算法来估计$ {\hat{{\theta }}} _3 $, 其中

    $$ {e_3}(k) = y(k) - {\hat y_3}(k) $$ (33)

    $ \Delta \hat v[{{x}}(k)] $$ \Delta v[{{x}}(k)] $的估计值.

    采用文献[6]和文献[21]提出的估计算法对$ \Delta v[{{x}}(k)] $进行估计. 于是, 由式(8)可知, 非线性自适应控制器为:

    $$ \begin{split} & {{\hat H_3}(k,{z^{ - 1}})u(k) + {\hat G_3}(k,{z^{ - 1}})y(k) = }\\ & \quad {{\hat R_3}(k,{z^{ - 1}})w(k + 1) -}\\ & \quad {{\hat K_3}(k,{z^{ - 1}})\left\{ {v[{{x}}(k - 1)] + \Delta \hat v[{{x}}(k)]} \right\}} \end{split} $$ (34)

    其中, $ {\hat H_3}(k,{z^{ - 1}}) $$ {\hat G_3}(k,{z^{ - 1}}) $${\hat R_3}(k,{z^{ - 1}})$${\hat K_3} (k, \;{z^{ - 1}})$是非线性自适应控制器参数, 采用类似于式(24)~(25)的方式计算. $\Delta \hat v[{{x}}(k)] $ 的值通过估计算法获得.

    上述线性自适应控制器(23)、非线性自适应控制器(29)以及带有非线性项估计和补偿的非线性自适应控制器(34) 通过下面的切换函数来协调控制被控对象(7), 从而形成一种闭环切换控制系统. 由式(22), (28)和(33)可知, 模型误差越小, 那么以该模型所设计的控制器将会使得闭环系统的输出与理想输出之间的跟踪误差越小, 同时也表明该控制器能更快收敛到以实际被控对象模型为控制器设计模型所设计的控制器. 因此将模型误差$ {e_1}(k) $${e_2}(k) \;$$ {e_3}(k) $引入切换机制, 在某一时刻, 选择较小切换指标所对应的控制器作用于被控对象. 为此, 提出如图2所示的由$ {C_1} $(线性自适应控制器), $ {C_2} $(带有非线性项前一拍补偿的非线性自适应控制器), $ {C_3} $(带有非线性项增量估计器和补偿器的非线性自适应控制器)和切换函数组成的切换控制方法, 其中, $ {C_1} $$ {C_2} $$ {C_3} $分别由(23)、(29)和(34)决定.

    图 2  切换控制结构
    Fig. 2  Switching control structure

    图2中的切换函数为:

    $$ \begin{split} {J_j}[{{ e}_j}(k)] =\,& \sum\limits_{l = 1}^k {\frac{{{\mu _j}(l)[{ e}_j^2(l) - 4{M^2}]}}{{2[1 + {{\varphi }}^{\rm T}{{(l - 1)}}{{\varphi }}(l - 1)]}}} +\\ &{c\sum\limits_{l = k - N + 1}^k {[1 - {\mu _j}(l)]{e}_j^2(l} ) } \end{split} $$ (35)
    $$ {\mu _j}(k) = \left\{ \begin{array}{*{20}{l}} \begin{aligned} & {1,}\quad {|{{ e}_j}(k)| > 2M}\\ & {0,}\quad {\text{其他}} \end{aligned}&{j{\rm{ = 1,2,3}}} \end{array} \right. $$ (36)

    其中, $ {\mu _j}(k),\;(j = 1,2,3) $表示死区函数; 当$ j = 1 $时, ${{ e}_1}(k)$表示采用模型(18)时的误差; $ j = 2 $时, ${{ e}_2}(k)$表示采用非线性模型(26)时的误差; $ j = 3 $时, ${{ e}_3}(k)$表示采用非线性模型(31)时的误差. $ N $是正整数, $ c \ge 0 $是一个常数.

    任意时刻$k ,\;$切换机制选择最小的切换函数所对应的控制器来控制系统, 即

    $$ {J^*}(k) ={\rm{ {min}}}\,[{J_j}[{{e}_j}(k)]],j = 1,2,3 $$ (37)

    如果${J^*}(k) = {J_1}[{{ e}_1}(k)]$, 选择控制器(23);

    如果${J^*}(k) = {J_2}[{{ e}_2}(k)]$, 选择控制器(29);

    如果${J^*}(k) = {J_3}[{{ e}_3}(k)]$, 选择控制器(34).

    注3. 整个切换函数分为两部分, 第一部分为$\displaystyle\sum\nolimits_{l = 1}^k {\dfrac{{{\mu _j}(l)[{ e}_j^2(l) - 4{M^2}]}}{{2[1 + {{\varphi }}^{\rm T}{{(l - 1)}}{{\varphi }}(l - 1)]}}}$, 用来区分不同信号的增长速度, 可以用来保证闭环系统的鲁棒性; 第二部分为$c\displaystyle\sum\nolimits_{l = k - N + 1}^k {[1 - {\mu _j}(l)]{ e}_j^2(l} )$, 是有限时间内辨识误差的累积, 这部分主要用于提高系统的性能. 因此, 该切换机制在保证闭环系统稳定的同时提高系统的性能.

    下面给出运用上述非线性自适应控制器设计算法时闭环切换系统的稳定性和收敛性分析.

    定理1. 当被控对象(7)满足如下条件1) ~ 3)时具有稳定性和收敛性.

    1)系统(1)的零动态渐近稳定;

    2)非线性项满足假设条件1;

    3)根据式(23) ~ (25)和(30)给出的参数选择方案来适当选择自适应控制器(23)、(29)和(34)中的参数加权多项式$ {\hat H_i}(k,{z^{ - 1}}) $$ {\hat G_i}(k,{z^{ - 1}}) $$ {\hat R_i}(k,{z^{ - 1}}) $$ {\hat K_i}(k,{z^{ - 1}}) $, $ i = 1,2,3 $, $ ({\hat K_1}(k,{z^{ - 1}}) = 0) $. 则把辨识算法(18) ~ (22), 非线性项增量的估计算法以及线性自适应控制器(23)、带有非线性项前一拍补偿的非线性自适应控制器(29)、非线性自适应控制器(34)作用于被控对象(7), 并采用本文的切换控制算法时, 闭环切换系统具有如下特性:

    1) 闭环系统BIBO稳定, 即:

    $$ \left| {u(k)} \right| < \infty ,{\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \left| {y(k)} \right| < \infty $$

    2) 当$ k \to \infty $时, 系统的跟踪误差有界. 即:

    $$ \left| {{e_g}(k)} \right| \le \delta $$

    其中, 定义系统的跟踪误差为:

    $$ {{e_g}(k) = y(k) - w(k), }\;{\delta \ge 0} $$

    证明. 采用类似于文献[9]与文献[21]的方法可得结论(1) ~ (2)成立, 这里不再赘述.

    将本文所提的方法应用在多功能过程控制实验平台上进行水箱的液位控制实验. 如图3所示, 控制目标是通过调节水泵电压占空比, 使得水箱的液位输出值保持在预设定的高度. 实验中, 液位的指定高度为8 cm. 我们针对水箱液位系统进行物理实验, 采样周期为0.1秒. 选择切换函数中的参数$ N = 2 $, $ c = 1 $. 实验结果如图3 ~ 6 所示.

    图 3  水箱液位控制系统图
    Fig. 3  Diagram of tank level control system
    图 6  切换序列
    Fig. 6  Switching sequence
    图 4  采用本文方法时水箱液位的实际响应曲线(输出y)
    Fig. 4  The actual response curve of tank level by the proposed method (output y)
    图 5  采用本文切换控制方法时水箱液位的控制输入u
    Fig. 5  The actual input of tank level by the proposed method in this paper (input u)

    图4为采用本文切换控制方法时水箱液位的实际响应曲线. 由图中可以看出, 系统的跟踪特性较好, 所设计的控制器可以达到控制目标. 由于实际系统是动态变化, 可能受到一些高频干扰或者噪声的影响, 所以系统的跟踪误差收敛到原点的小邻域内. 图5为相对应的同一时间范围内的系统输入的情况. 图6为控制器的切换序列, 从图中可以看出, 大部分时间是非线性自适应控制器在工作, 说明带有补偿的非线性自适应控制器能有效抑制未建模动态对闭环系统的影响.

    本文针对一类离散时间非线性动态系统, 提出了一种新的非线性自适应切换控制算法, 该算法在设计控制器时, 充分利用了非线性项的历史数据设计了非线性项前一拍补偿的非线性自适应控制器以及带有非线性项增量估计器和补偿器的非线性自适应控制器, 通过切换机制来协调控制系统. 理论分析表明本文提出的控制方法不仅具有稳定性和收敛性, 而且使得闭环系统具有良好的动静态特性. 通过水箱液位控制系统的物理实验, 实验结果进一步验证了所提方法的有效性和优越性.


  • 11 1微米 = 10000
  • 32 由于在事件可视化时采用了同样大小的时间窗口, 快速运动的目标会产生更多的事件. 因此, 图6(c)比图6(a)具有更粗的边缘或拖影.
  • 23 某些缺陷盘片表面可能同时具有多种缺陷, 因此表1中不同类别的总事件流数量相加之后大于116.
  • 图  1  DVS缺陷成像机理说明

    Fig.  1  Explanation of the mechanism of DVS-based defect imaging

    图  2  事件产生数量与光强变化大小的关系示意图

    Fig.  2  Relationship diagram between the number of generated events and the magnitude of light intensity variations

    图  3  缺陷检测实验平台示意图

    Fig.  3  Diagram of the defect detection experimental platform

    图  4  弱小缺陷、环境倒影的成像效果对比

    Fig.  4  Comparison of imaging effects of small defects and environmental reflections

    图  5  大动态范围成像效果对比

    Fig.  5  Comparison of high dynamic range imaging effects

    图  6  在不同运动速度下的缺陷成像效果对比

    Fig.  6  Comparison of defect imaging effects under different motion speeds

    图  7  不同缺陷类别的事件图像以及标注框的可视化结果 ((a)点痕; (b)划痕; (c)污渍)

    Fig.  7  Visualization results of event images and annotation boxes for different defect categories ((a) Point; (b) Scratch; (c) Stain)

    图  8  数据集EDD-10k 统计特性

    Fig.  8  Statistical characteristics of the EDD-10k dataset

    图  9  缺陷检测器的主要网络框架

    Fig.  9  Main network framework of the defect detector

    图  10  基于决策级时序预测融合的后处理模块工作流程图

    Fig.  10  The workflow diagram of the post-processing module based on decision-level temporal prediction fusion

    表  1  事件流在训练集和测试集中的数量分布

    Table  1  Quantity distribution of event streams in the training set and testing set

    类别事件流总数训练集事件流数量测试集事件流数量
    点痕35278
    划痕39309
    污渍443410
    合格422
    下载: 导出CSV

    表  2  EDD-10k数据集中每一类缺陷标签的数量

    Table  2  The number of labels for each defect category in the EDD-10k dataset

    类别 事件流总数 训练集事件流数量 测试集事件流数量
    点痕 2865 2381 484
    划痕 2159 1781 378
    污渍 4070 3060 1010
    合格 9094 7222 1872
    下载: 导出CSV

    表  3  与其他算法在EDD-10k数据集上的对比实验

    Table  3  Comparison experiments with other algorithms on the EDD-10k dataset

    方法mAP@0.4AP@点痕AP@划痕AP@污渍
    Faster R-CNN[41]0.2100.0000.5360.095
    YOLOv50.5690.3930.7560.559
    YOLOv7[42]0.5430.4710.6440.514
    RDN[47]0.5120.5530.4760.507
    MEGA[48]0.4010.3560.5090.349
    YOLOV[49]0.5370.1120.6280.670
    SSD-event[40]0.2360.0870.6260.138
    SODformer-event[25]0.3940.3630.1610.495
    TIFF-EDD0.6170.5120.7010.639
    下载: 导出CSV

    表  4  在EDD-10k数据集上的消融实验结果

    Table  4  Ablation experimental results on the EDD-10k dataset

    基线MIFECTAAVFLossDPFmAP@0.4
    TIFF-B$\checkmark$0.577
    TIFF-MIFE$\checkmark$$\checkmark$0.590
    TIFF-CTAA$\checkmark$$\checkmark$$\checkmark$0.607
    TIFF-VF$\checkmark$$\checkmark$$\checkmark$$\checkmark$0.612
    TIFF-EDD$\checkmark$$\checkmark$$\checkmark$$\checkmark$$\checkmark$0.617
    下载: 导出CSV
  • [1] 金侠挺, 王耀南, 张辉, 刘理, 钟杭, 贺振东. 基于贝叶斯CNN和注意力网络的钢轨表面缺陷检测系统. 自动化学报, 2019, 45(12): 2312−2327

    Jin Xia-Ting, Wang Yao-Nan, Zhang Hui, Liu Li, Zhong Hang, He Zhen-Dong. DeepRail: Automatic visual detection system for railway surface defect using Bayesian CNN and attention network. Acta Automatica Sinica, 2019, 45(12): 2312−2327
    [2] 陶显, 侯伟, 徐德. 基于深度学习的表面缺陷检测方法综述. 自动化学报, 2021, 47(5): 1017−1034

    Tao Xian, Hou Wei, Xu De. A survey of surface defect detection methods based on deep learning. Acta Automatica Sinica, 2021, 47(5): 1017−1034
    [3] Chen Y Q, Pan J W, Lei J Y, Zeng D Y, Wu Z Z, Chen C S. EEE-Net: Efficient edge enhanced network for surface defect detection of glass. IEEE Transactions on Instrumentation and Measurement, 2023, 72: Article No. 5029013
    [4] Jiang W B, Liu M, Peng Y N, Wu L H, Wang Y N. HDCB-Net: A neural network with the hybrid dilated convolution for pixel-level crack detection on concrete bridges. IEEE Transactions on Industrial Informatics, 2021, 17(8): 5485−5494 doi: 10.1109/TII.2020.3033170
    [5] Zheng Y J, Zheng L X, Yu Z F, Shi B X, Tian Y H, Huang T J. High-speed image reconstruction through short-term plasticity for spiking cameras. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, USA: IEEE, 2021. 6354−6363
    [6] Xu X Y, Sun D Q, Pan J S, Zhang Y J, Pfister H, Yang M H. Learning to super-resolve blurry face and text images. In: Proceedings of the IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017. 251−260
    [7] 李家宁, 田永鸿. 神经形态视觉传感器的研究进展及应用综述. 计算机学报, 2021, 44(6): 1258−1286

    Li Jia-Ning, Tian Yong-Hong. Recent advances in neuromorphic vision sensors: A survey. Chinese Journal of Computers, 2021, 44(6): 1258−1286
    [8] Pan L Y, Hartley R, Scheerlinck C, Liu M M, Yu X, Dai Y C. High frame rate video reconstruction based on an event camera. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(5): 2519−2533
    [9] Han J, Yang Y X, Duan P Q, Zhou C, Ma L, Xu C, et al. Hybrid high dynamic range imaging fusing neuromorphic and conventional images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(7): 8553−8565 doi: 10.1109/TPAMI.2022.3231334
    [10] Hu Y H, Liu S C, Delbruck T. V2e: From video frames to realistic DVS events. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Nashville, USA: IEEE, 2021. 1312−1321
    [11] 冯维, 徐仕楠, 王恒辉, 熊芝, 王选择, 翟中生. 逐像素调制的高反光表面三维测量方法. 中国光学, 2022, 15(3): 488−497 doi: 10.37188/CO.2021-0220

    Feng Wei, Xu Shi-Nan, Wang Heng-Hui, Xiong Zhi, Wang Xuan-Ze, Zhai Zhong-Sheng. Three-dimensional measurement method of highly reflective surface based on per-pixel modulation. Chinese Optics, 2022, 15(3): 488−497 doi: 10.37188/CO.2021-0220
    [12] 王颖, 倪育博, 孟召宗, 高楠, 郭彤, 杨泽青, 等. 彩色高反光表面自适应编码条纹投影轮廓术. 光学学报, 2024, 44(7): Article No. 0712001

    Wang Ying, Ni Yu-Bo, Meng Zhao-Zong, Gao Nan, Guo Tong, Yang Ze-Qing, et al. Adaptive coding fringe projection profilometry on color reflective surfaces. Acta Optica Sinica, 2024, 44(7): Article No. 0712001
    [13] Lichtsteiner P, Posch C, Delbruck T. A 128 × 128 120db 30mw asynchronous vision sensor that responds to relative intensity change. In: Proceedings of the IEEE International Solid State Circuits Conference-Digest of Technical Papers. San Francisco, USA: IEEE, 2006. 2060−2069
    [14] Chen S S, Guo M H. Live demonstration: CeleX-V: A 1M pixel multi-mode event-based sensor. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Long Beach, USA: IEEE, 2019. 1682−1683
    [15] Brandli C, Muller L, Delbruck T. Real-time, high-speed video decompression using a frame- and event-based DAVIS sensor. In: Proceedings of the IEEE International Symposium on Circuits and Systems (ISCAS). Melbourne, Australia: IEEE, 2014. 686−689
    [16] Gallego G, Delbrück T, Orchard G, Bartolozzi C, Taba B, Censi A, et al. Event-based vision: A survey. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(1): 154−180 doi: 10.1109/TPAMI.2020.3008413
    [17] Lagorce X, Orchard G, Galluppi F, Shi B E, Benosman R B. HOTS: A hierarchy of event-based time-surfaces for pattern recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(7): 1346−1359 doi: 10.1109/TPAMI.2016.2574707
    [18] Lazzaro J, Wawrzynek J, Mahowald M, Sivilotti M, Gillespie D. Silicon auditory processors as computer peripherals. In: Proceedings of the 5th International Conference on Neural Information Processing Systems. Denver, USA: ACM, 1992. 820−827
    [19] 马艳阳, 叶梓豪, 刘坤华, 陈龙. 基于事件相机的定位与建图算法: 综述. 自动化学报, 2021, 47(7): 1484−1494

    Ma Yan-Yang, Ye Zi-Hao, Liu Kun-Hua, Chen Long. Event-based visual localization and mapping algorithms: A survey. Acta Automatica Sinica, 2021, 47(7): 1484−1494
    [20] Li Y Z, Wang H L, Yuan S H, Liu M, Zhao D B, Guo Y W, et al. Myriad: Large multimodal model by applying vision experts for industrial anomaly detection. arXiv preprint arXiv: 2310.19070, 2023.
    [21] Song K C, Yan Y H. Micro surface defect detection method for silicon steel strip based on saliency convex active contour model. Mathematical Problems in Engineering, 2013, 2013: Article No. 429094
    [22] Tabernik D, Šela S, Skvarč J, Skočaj D. Segmentation-based deep-learning approach for surface-defect detection. Journal of Intelligent Manufacturing, 2020, 31(3): 759−776 doi: 10.1007/s10845-019-01476-x
    [23] Bergmann P, Fauser M, Sattlegger D, Steger C. MVTec AD——A comprehensive real-world dataset for unsupervised anomaly detection. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA: IEEE, 2019. 9584−9592
    [24] Wang J L, Xu C Q, Yang Z L, Zhang J, Li X O. Deformable convolutional networks for efficient mixed-type wafer defect pattern recognition. IEEE Transactions on Semiconductor Manufacturing, 2020, 33(4): 587−596 doi: 10.1109/TSM.2020.3020985
    [25] Li D Z, Tian Y H, Li J N. SODFormer: Streaming object detection with transformer using events and frames. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(11): 14020−14037 doi: 10.1109/TPAMI.2023.3298925
    [26] Nguyen A, Do T T, Caldwell D G. Real-time 6DOF pose relocalization for event cameras with stacked spatial LSTM networks. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Long Beach, USA: IEEE, 2019. 1638−1645
    [27] Kim J, Bae J, Park G. N-ImageNet: Towards robust, fine-grained object recognition with event cameras. In: Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Montreal, USA: IEEE, 2021. 2126−2136
    [28] Ge Z, Liu S T, Wang F, Li Z M, Sun J. YOLOX: Exceeding YOLO series in 2021. arXiv preprint arXiv: 2107.08430, 2021.
    [29] Duan K W, Bai S, Xie L X, Qi H G, Huang Q M, Tian Q. CenterNet: Keypoint triplets for object detection. In: Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South): IEEE, 2019. 6568−6577
    [30] Xiong Y, Li Z, Chen Y, Wang F, Zhu X, Luo J, et al. Efficient deformable ConvNets: Rethinking dynamic and sparse operator for vision applications. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2024. 5652−5661
    [31] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection. arXiv preprint arXiv: 2004.10934, 2020.
    [32] Liu S, Qi L, Qin H F, Shi J P, Jia J Y. Path aggregation network for instance segmentation. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 8759−8768
    [33] Wang C Y, Liao H Y M, Wu Y H, Chen P Y, Hsieh J W, Yeh I H. CSPNet: A new backbone that can enhance learning capability of CNN. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Seattle, USA: IEEE, 2020. 1571−1580
    [34] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016. 770−778
    [35] Lin T Y, Dollár P, Girshick R, He K M, Hariharan B, Belongie S. Feature pyramid networks for object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA: IEEE, 2017. 936−944
    [36] Liu B D, Xu C, Yang W, Yu H, Yu L. Motion robust high-speed light-weighted object detection with event camera. IEEE Transactions on Instrumentation and Measurement, 2023, 72: Article No. 5013113
    [37] Li J N, Li J, Zhu L, Xiang X J, Huang T J, Tian Y H. Asynchronous spatio-temporal memory network for continuous event-based object detection. IEEE Transactions on Image Processing, 2022, 31: 2975−2987 doi: 10.1109/TIP.2022.3162962
    [38] Wang X T, Chan K C K, Yu K, Dong C, Loy C C. EDVR: Video restoration with enhanced deformable convolutional networks. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Long Beach, USA: IEEE, 2019. 1954−1963
    [39] Zhang H Y, Wang Y, Dayoub F, Sünderhauf N. VarifocalNet: An IoU-aware dense object detector. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, USA: IEEE, 2021. 8510−8519
    [40] Iacono M, Weber S, Glover A, Bartolozzi C. Towards event-driven object detection with off-the-shelf deep learning. In: Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018. 1−9
    [41] Ren S Q, He K M, Girshick R, Sun J. Faster R-CNN: Towards real-time object detection with region proposal networks. In: Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal, Canada: ACM, 2015. 91−99
    [42] Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Vancouver, Canada: IEEE, 2023. 7464−7475
    [43] Zhu X M, Wang S, Su J J, Liu F, Zeng L. High-speed and accurate cascade detection method for chip surface defects. IEEE Transactions on Instrumentation and Measurement, 2024, 73: Article No. 2506612
    [44] Yuan M H, Zhou Y B, Ren X Y, Zhi H, Zhang J, Chen H J. YOLO-HMC: An improved method for PCB surface defect detection. IEEE Transactions on Instrumentation and Measurement, 2024, 73: Article No. 2001611
    [45] Wang Y R, Song X K, Feng L L. MCI-GLA plug-in suitable for YOLO series models for transmission line insulator defect detection. IEEE Transactions on Instrumentation and Measurement, 2024, 73: Article No. 9002912
    [46] Zhu J, Pang Q W, Li S S. ADDet: An efficient multiscale perceptual enhancement network for aluminum defect detection. IEEE Transactions on Instrumentation and Measurement, 2024, 73: Article No. 5004714
    [47] Deng J J, Pan Y W, Yao T, Zhou W G, Li H Q, Mei T. Relation distillation networks for video object detection. In: Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South): IEEE, 2019. 7022−7031
    [48] Chen Y H, Cao Y, Hu H, Wang L W. Memory enhanced global-local aggregation for video object detection. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, USA: IEEE, 2020. 10334−10343
    [49] Shi Y H, Wang N Y, Guo X J. YOLOV: Making still image object detectors great at video object detection. In: Proceedings of the 37th AAAI Conference on Artificial Intelligence. Washington, USA: AAAI, 2023. 2254−2262
    [50] Jeong J, Park H, Kwak N. Enhancement of SSD by concatenating feature maps for object detection. arXiv preprint arXiv: 1705.09587, 2017.
  • 加载中
  • 图(10) / 表(4)
    计量
    • 文章访问数:  472
    • HTML全文浏览量:  198
    • PDF下载量:  172
    • 被引次数: 0
    出版历程
    • 收稿日期:  2024-06-03
    • 录用日期:  2024-07-23
    • 网络出版日期:  2024-08-28
    • 刊出日期:  2024-12-20

    目录

    /

    返回文章
    返回