-
摘要: 在漫画绘制的过程中,按草稿绘制出线条干净的线稿是很重要的一环.现有的草图简化方法已经具有一定的线条简化能力,然而由于草图的绘制方式的多样性以及画面复杂程度的不同,这些方法适用范围有限且效果不理想.本文提出了一种新颖的草图简化方法,利用条件随机场(Conditional random field,CRF)和最小二乘生成式对抗网络(Least squares generative adversarial networks,LSGAN)理论搭建了深度卷积神经网络的草图简化模型,通过该网络生成器与判别器之间的零和博弈与条件约束,得到更加接近真实的简化线稿图.同时,为了训练对抗模型的草图简化能力,本文建立了包含更多绘制方式与不同内容的草图与简化线稿图对的训练数据集.实验表明,本文算法对于复杂情况下的草图,相比于目前的方法,具有更好的简化效果.
-
关键词:
- 草图简化 /
- 最小二乘生成式对抗网络 /
- 深度学习 /
- 条件随机场
Abstract: Sketch simplification is a critical part of cartoon drawing. To some extent, the existing approaches already have basic ability of sketch cleanup, but still have limitation in some situations because of the diversity of sketch drawing methods and complexity of sketch contents. In this paper, we present a novel approach of building a model for sketch simplification, which is based on the conditional random field (CRF) and least squares generative adversarial networks (LSGAN). Through the zero-sum game of generator and discriminator in the model and the learning restriction of conditional random field, we can obtain simplified images more similar to standard clean images. At the same time, we build a dataset containing a large number of pairs of sketches and clean images in different painting ways and contents. Finally, experiments show that our approach can obtain better results than the state of the art approach for sketch simplification. -
当前, 模拟电路广泛应用于通信、控制、导航等电子系统中, 随着对电子系统可靠性需求的不断提高, 模拟电路的故障诊断技术也已成为当前电路测试领域的研究热点[1].统计数据表明, 在数模混合的复杂电子系统当中, 超过80%的元件故障发生在模拟电路部分[2], 然而模拟电路的故障诊断技术却发展缓慢, 难以达到实际应用的需求.导致这种现象的原因主要有: 1)模拟电路的故障现象十分复杂, 任何一个元件的参数超出容差就属故障, 各类软、硬故障及多重并发故障导致了模拟电路的故障状态是无限的, 故障特征可以是连续的[3-4]; 2)模拟电路的输入—输出关系十分复杂, 电路响应与元件参数往往呈非线性映射关系, 且电路中还存在非线性元件, 使得实际应用中很难建立电路响应的精确数学模型[1, 4-5]; 3)由于各类因素的影响, 模拟电路非故障元件的实际参数值会在标称值上下随机波动, 加之元件的非线性表征误差、测试误差等, 使得诊断过程困难重重[1, 4-6].
为解决上述关键问题, 近年来国内外许多学者对模拟电路的故障诊断方法开展了研究, 研究成果主要集中于模拟电路的故障特征提取和故障模式分类这两个关键环节上.在现阶段故障特征提取的研究中, 模拟电路常用的故障特征主要有: 1)在被测电路(Circuit under test, CUT)的内部测试节点直接测量节点电压作为故障特征[2, 6-8]; 2)通过直流和交流分析从CUT的时频响应中提取的故障特征, 包括峰值增益及对应的频率和相位[9]、直流输出电压和3 dB截止频率等[10]; 3)通过信号处理得到的小波特征[1, 11-12]、信号包络特征[5]及其他高阶统计量特征(如峰度、偏度、熵值等)[1, 13-14].在故障模式分类的研究中, 基于机器学习的故障分类方法是当前研究最多的方向, 所用到的算法主要有:反向传播神经网络(Backward propagation neural network, BPNN)[4, 9, 14]、径向基网络(Radial basis function network, RBFN)[15]、支持向量机(Support vector machine, SVM)[4, 16-17]、超限学习机(Extreme learning machine, ELM)[18]等.此外还有基于故障编码[5]、类间距离[19]、贝叶斯法[16]等的故障分类器.然而, 上述故障诊断方法存在三点不足: 1) SVM、神经网络等分类算法的输出仅仅是故障样本对应的故障类别标签, 无法输出其他诊断信息, 如故障样本属于各故障类别的概率; 2)在高维特征样本的分类器设计中, 故障特征的维数约简与分类器建模是分离进行的, 这样就存在约简后输入到分类器的特征与该分类器可能不是最佳匹配的问题[20]; 3)诊断实验中采用的故障多样性较少, 难以代表实际应用中模拟电路的故障状况[4].
2001年Tipping[21]提出的相关向量机(Relevance vector machine, RVM)是一种基于贝叶斯框架的机器学习算法, 相比SVM具有参数设置简单、稀疏度更高、概率式输出、基函数不受Mercer条件限制等优点.但最初的RVM和SVM一样是为二分类问题设计的, 在多分类问题中需要建立多个RVM分类器. 2010年牛津大学的Psorakis等[22]在传统RVM的基础上提出了直接多分类相关向量机(Multiclass relevance vector machine, mRVM), 通过采用Multinomial probit函数代替传统RVM中的Logistic sigmoid函数从而将单个模型的二分类推广到多分类, 并且能够给出分类结果的后验概率.此外, 鉴于RVM具有良好的稀疏性, 文献[20, 23-24]提出利用RVM进行特征约简, 通过将线性核建立在原始特征空间并对特征维进行幂变换扩展, 使之能对特征空间进行稀疏, 从而得到最适合该RVM分类器的特征向量.然而幂变换扩展虽然保证了分类性能, 但增加了模型训练的复杂度.
本文针对模拟电路故障诊断中的关键问题, 提出了一种基于多核多分类相关向量机(Multi-kernel learning multiclass relevance vector machine, MKL-mRVM)的模拟电路故障诊断方法.所提方法沿用了文献[4]中的故障诊断实施框架, 首先, 通过故障注入技术来生成实际应用中可能出现的各类电路故障; 然后, 从频率响应中提取出用于诊断的最小模糊度特征(Minimum ambiguity features, MAF); 最后, 采用MKL-mRVM算法进行故障模式分类, MKL-mRVM能够对所提取的MAF的每一维建立非线性核, 在保持原有分类能力的同时, 通过约束核系数实现原始特征空间的稀疏化, 得到一组更适合该分类器的稀疏特征向量, 同时基于贝叶斯框架的MKL-mRVM还能够给出诊断结果的后验概率. Sallen-Key带通滤波电路和Biquad低通滤波电路是国际上最常用的两个验证诊断方法性能的基准电路, 本文以这两个电路作为对象, 验证所提方法的实用性.
本文的主要安排如下:第1节介绍了MKL-mRVM算法原理及训练流程, 并分析了算法的计算复杂度; 第2节介绍了模拟电路大规模故障诊断的实施框架, 包括故障电路仿真、特征提取和故障分类的实现; 第3节将所提方法应用到两个CUT的故障诊断实验中, 并与其他方法进行了对比; 第4节对文章进行了总结.
1. MKL-mRVM算法原理
1.1 MKL-mRVM模型
对于训练样本集$\{{\pmb x}_i$, $t_i \}_{i=1}^{N}$, 其中为样本观测值、$D$为特征维数、为观测值对应的类别标签, MKL-mRVM对该样本集建立多核模型的原理如图 1所示.首先, 在样本观测值的每一维特征上建立一个基本核函数; 然后, 通过线性加权得到组合核函数:
$ k(\pmb x_{i}, \pmb x_{j})=\sum\limits_{d=1}^{D} \beta_{d}k^{d}{(x_{i}^{d}, x_{j}^{d})}, ~ \beta_{d}\geq0, ~\sum\limits_{d=1}^{D} \beta_{d} =1 $
(1) 其中, $k^{d}$为建立在每一维特征上的基本核函数, $\beta_{d}$为基本核函数对应的加权系数, $\beta_{d}$的大小反映了该特征对分类结果的贡献度. $\beta_{d}$的值在模型训练中求出, 若$\beta_{d}$很小(如$\beta_{d}<{10^{-10}}$), 则可认为该特征对于分类结果没有贡献, 将其从特征空间中移除.
随后建立核矩阵$\pmb K\in{~{\bf R}}^{N\times N}$, 的每一列反映了在核函数映射下观测值与其他样本的关联性[22]. mRVM引入了辅助变量来实现直接多分类, 的概率分布与传统RVM的回归模型相同, 即 [21], 其中为MKL-mRVM模型的权重. $\pmb Y$的大小可以看作样本所属类别的排位:对于观测值$\pmb x_n$, $y_{cn}$最大值所对应的类别$c$即为所属的类别, 利用Multinomial probit函数[25]表示即为
$ t_n=i, \quad \mbox{若}~~y_{ni}>y_{nj} \quad \forall j\ne i $
(2) 根据贝叶斯框架, 为保持模型稀疏, 为权重设置先验分布$w_{cn}\sim {\rm N}(0, \alpha _{cn}^{-1})$, 并令先验分布中的超参数服从超参数为$\gamma$、$\nu$的伽马分布.通过设置$\gamma$、$\nu$取较小的值, 训练后的权重$\pmb W$被约束在零点附近, 使得模型为由极少数为非零的相关向量(Relevance vectors, RV)组成的稀疏模型.记超参数$\alpha _{cn}$属于矩阵$\pmb A\in{~{\bf R}}^{C\times N}$, 则采用了多层贝叶斯结构MKL-mRVM模型结构由图 2所示, 其中, 和$\pmb W$是训练模型所要求解的变量, $\pmb A$、$\pmb Y$是求解过程的中间变量.由于引入了隐含变量$\pmb Y$, 故参数求解采用了期望最大化(Expectation maximization, EM)算法.
1.2 MKL-mRVM的训练
MKL-mRVM的训练是一个二型最大似然过程, 训练过程迭代更新每个待求参数的值.在每一步迭代得到的更新值后, 采用EM算法估计参数$\pmb W$、、$\pmb Y$的更新值, 其中$M$步估计$\pmb W$、, $E$步估计$\pmb Y$.
首先求令边际似然函数$p(\pmb Y\mid \pmb A)$最大化的超参数$\pmb A$的估计值.假定样本$n$在各类别中共用一个超参数值, 则超参数$\pmb A$的对数边际似然函数可写为:
$ L(\pmb A)=\mathrm{\ln} \int_{-\infty}^{+\infty}{p(\pmb Y\mid \pmb W)p(\pmb W\mid \pmb A)\mathrm{d}\pmb W}= \nonumber\\ \quad -\frac{1}{2}\sum\limits_{c=1}^C[N\mathrm{\ln}2\pi +\mathrm{\ln}\mid \pmb C\mid +y_{c}^\mathrm{T}\pmb C ^{-1}y_c] $
(3) 其中, $\pmb C=\pmb I+\pmb K^\mathrm{T}\pmb A^{-1}\pmb K$, .文献[26]分析了RVM训练单步迭代的计算复杂度, 指出训练时若将包含了所有样本信息的整个核函数矩阵代入模型会使算法的计算复杂度很高, 因此采用了向模型中逐个添加样本的增量训练方式来训练模型.将进行分解, 得到:
$ \mid \pmb C\mid = \mid \pmb C_{-i}\mid \mid 1+\alpha_{i}^{-1}\pmb k_{i}^\mathrm{T}\pmb C_{-i}^{-1}\pmb k_i\mid $
(4) 其中, $\pmb C_{-i}$为隔离样本$i$之后的$\pmb C$, $\alpha_{i}$为样本$i$对应的超参数, 为样本$i$所在的核函数序列.由此从中分解出样本$i$对$L(\pmb A)$的单独贡献值:
$ l(\alpha_{i})=\sum\limits_{c=1}^C\frac{1}{2}\Big[\mathrm{\ln}\alpha_{i}-\mathrm{\ln} (\alpha_{i}+s_i)+\frac{q_{ci}^2}{\alpha_{i}+s_i}\Big] $
(5) 其中, $s_i=\pmb k_{i}^\mathrm{T}\pmb C_{-i}^{-1}\pmb k_i$, 为稀疏因子, 反映了$\pmb k_i$与包含在模型中其他核函数的交叠程度; $q_{ci}^2=\pmb k_{i}^\mathrm{T}\pmb C_{-i}^{-1}\pmb y_{c}$, 为质量因子, 反映了$\pmb k_i$对于类别$c$的描述能力.此时求解关于$\alpha_i$的最大值简化为求的解, 可得$L(\pmb A)$有唯一最大值当
$ \alpha_{i}=\frac{Cs_i^2}{\sum\limits_{c=1}^C q_{ci}^2-Cs_i}, \quad \sum\limits_{c=1}^C q_{ci}^2>Cs_i $
(6) $ \alpha_{i}=\infty, \qquad \qquad \qquad \quad\sum\limits_{c=1}^C q_{ci}^2<Cs_i $
(7) 由此求得当前超参数矩阵$\pmb A$的更新值$\pmb A_*$, 符号$*$代表增量学习过程中模型当前包含样本数为$M$时的参数($M\ll N$), 因此$\pmb A_*\in{~{\bf R}}^{M\times M}$, 之后采用EM算法计算权重$\pmb W$的最大后验估计值:
$ \hat{\pmb W_*}=(\pmb K_* \pmb K_*^\mathrm{T}+\pmb A_*)^{-1}\pmb K_*\hat{\pmb Y}^\mathrm{T} $
(8) 其中, $\pmb K_*\in{~{\bf R}}^{M\times N}$, 为$E$步中隐变量$\pmb Y$期望的估计值. 的初始值为$1/D$, 更新值通过求解式(9)的二次规划来得到.
$ \begin{align} \hat{\pmb \beta}=\mathrm{argmin}\left(\frac{1}{2}\pmb \beta^\mathrm{T}\pmb \Omega\pmb \beta-\pmb \beta^\mathrm{T}\pmb f\right) \nonumber\\ \mathrm{s.\, t.}\quad \beta_d \geq 0, ~~\sum\limits_{d=1}^D \beta_d=1 \end{align} $
(9) 其中, $\pmb \Omega$、$\pmb f$为过程变量, , .
最后根据$M$步$\pmb W$和的估计值, 给出$E$步中隐变量$\pmb Y$的期望的更新值.隐变量$\pmb Y$为$C\times N$维锥形截断高斯分布, 对于类别标签为$i$的样本, $y_{in}$期望的估计值$\hat{y}_{in}$由式(10)更新; 对于其他类别为$c$的样本($\forall c \ne i$), $y_{cn}$期望的估计值$\hat{y}_{cn}$由式(11)更新[22].
$ \hat{y}_{in}=\hat{\pmb w}_i^\mathrm{T}\pmb k_n^{\hat{\beta}}-(\sum\limits_{j\ne i}\hat{y}_{jn}-\hat{\pmb w}_j^\mathrm{T}\pmb k_n^{\hat{\beta}}) $
(10) $ \hat{y}_{cn}=\hat{\pmb w}_c^\mathrm{T}\pmb k_n^{\hat{\beta}}-\frac{{\rm E}_\mu[N_\mu(\hat{\pmb w}_c^\mathrm{T}\pmb k_n^{\hat{\beta}}-\hat{\pmb w}_i^\mathrm{T}\pmb k_n^{\hat{\beta}}, 1)\Phi_\mu^{n, i, c}]}{{\rm E}_\mu[\Phi(\mu+\hat{\pmb w}_i^\mathrm{T}\pmb k_n^{\hat{\beta}}-\hat{\pmb w}_c^\mathrm{T}\pmb k_n^{\hat{\beta}}, 1)\Phi_\mu^{n, i, c}]} $
(11) 其中, $\mu$服从标准高斯分布, $\mu \sim \mbox{N}(0, \, 1)$, 代表$\mu$服从标准高斯分布时的期望, $\Phi$代表高斯累积分布, $\Phi_\mu^{n, i, c}$定义为 [22].
记$\pmb X_*$为包含在模型中的样本集合, 训练开始令所有$\alpha=\infty$, 此时$\pmb X_*$为空集, 随后随机选择一个样本作为初始样本, 为其超参数$\alpha_i$设置初始值
$ \alpha_i^\mathrm{initial}=\frac{C\parallel \pmb k_n\parallel ^2}{\sum\limits_{c=1}^C\parallel \pmb k_i^\mathrm{T}\pmb y_c\parallel \parallel \pmb k_i\parallel ^2-C} $
(12) 在随后的迭代中, 根据选择的样本计算
$ \theta_i=\sum\limits_{c=1}^C q_{ci}^2-Cs_i $
(13) $\theta_i$大小反映了该样本对模型分类提供的额外信息量[19]. $\theta_i>0$说明该样本对模型分类有益, 需要将其加入并更新$\alpha_i$的值; $\theta_i<0$说明该样本为冗余样本, 需要将其超参数设置为$\alpha_i=\infty$使其从$\pmb X_*$中剔除.
当所有$\theta_i>0$的样本均包含在中且相邻两步迭代中超参数的改变值 ($\varepsilon$通常取$10^{-12}$), 则判定模型收敛.
综上所述, MKL-mRVM的迭代流程如下:
步骤1. 初始化各模型参数:根据目标值初始化$\pmb Y$, 随机选择一个样本$i$并根据式(12)为其超参数$\alpha_i$赋值, 令其他$\alpha=\infty$;
步骤2. 更新超参数$\pmb A_*$:
a) 根据式(13)计算样本的$\theta_i$,
b) 若$\theta_i>0$, 则根据式(6)更新$\alpha_i$,
c) 若$\theta_i<0$且$\alpha_i<\infty$, 则令$\alpha_i=\infty$;
步骤3. $M$步:根据式(8)更新$\hat{\pmb W}_*$;
步骤4. 求解式(9)的二次规划更新$\hat{\pmb \beta}$;
步骤5. $E$步:根据式(10)、(11)更新$\hat{\pmb Y}$;
步骤6. 再次随机选择一个样本, 重复步骤2~步骤5, 直至满足收敛条件, 训练结束.
1.3 MKL-mRVM的分类结果及计算复杂度
模型训练完成后, 模型参数$\pmb W$和$\pmb \beta$中的大部分值为零, 因此模型在样本空间和特征空间上均是稀疏的.对于新的输入样本, MKL-mRVM的输出为一系列后验概率
$ \begin{align} P (t_\mathrm{new}=\, &c\mid {\pmb x}_\mathrm{new}, {\pmb W}, {\pmb \beta})= \nonumber\\& {\rm E}_{\mu}\left\{\prod\limits_{c\ne j}\Phi[\mu+(\pmb w_c-\pmb w_j)^\mathrm{T}\pmb k(\pmb x_\mathrm{new})]\right\} \end{align} $
(14) 式(14)即新样本属于类别$c$的概率, 而最大概率对应的类别即为新样本所属的类别
$ \hat{t}_\mathrm{new}=\mathrm{argmax}_i P (t_\mathrm{new}=i\mid \pmb x_\mathrm{new}, {\pmb W}, ~{\pmb \beta}) $
(15) MKL-mRVM每步迭代的计算复杂度取决于三点:式(8)计算时的求逆运算、式(9)特征权值的优化以及式(10)、式(11)中更新值的估算.其中$\hat{\pmb W}_*$求逆运算的复杂度为O$(M^3)$, 特征权值$\hat{\pmb \beta}$优化过程的计算复杂度取决于原始特征维数$D$, 隐含变量更新值的计算复杂度主要取决于样本类别数$C$.此外, 模型训练的迭代步数很大程度上由训练样本的数量决定, 因此模型的总体训练时间取决于样本类别数、训练样本个数以及输入的原始特征维数.
2. 模拟电路故障诊断的实施框架
本文所采用的模拟电路大规模故障诊断的实施框架源自文献[4], 如图 3所示.该框架分为故障电路生成、故障数据仿真、故障特征提取和故障模式分类4个阶段.
2.1 故障电路生成
模拟电路的故障通常可分为硬故障和软故障.硬故障(如开路或短路)会造成电路拓扑结构的改变, 使电路功能发生很大变化; 软故障指元件参数的实际值超出了容差范围, 从而导致电路工作性能下降.
在故障电路生成阶段中, 我们通过变异操作将多种故障注入到CUT中, 得到一系列不同故障模式下的CUT变异体, 故障生成所采用的变异操作见表 1.其中, PCH为软故障变异操作, 我们设置故障的最小可检测尺度(Minimum detectable fault size, MDFS)为2$t$ ($t$为元件的容差值), 采用均匀分布$U(0.1X_n, X_n-2t)$和$U(X_n+2t, 2X_n)$ ($X_n$为元件标称值)来分别表示元件的参数负向偏差(PCH↓)和参数正向偏差(PCH↑); ROP、LRB、GRB和NSP为硬故障变异操作, 采用均匀分布$U(100\, \mathrm{k\Omega}, \, {1\, \mbox{M}\mathrm\Omega})$和$U(10\, \mathrm{\Omega}, 1\, \mathrm{k\Omega})$来分别表示开路状态和桥接状态所用的阻值.
表 1 变异操作Table 1 Mutation operators操作 名称 描述 PCH 参数改变(Parameter change) 将元件的指定参数偏离其容差范围 ROP 电阻开路(Resistive open) 在元件的端口间接入一个阻值极大的电阻以表示开路 LRB 局部电阻桥接(Local resistive bridging) 在同一元件的两个端口间接入一个阻值极小的电阻 GRB 全局电阻桥接(Global resistive bridging) 在不同元件的两个节点间接入一个阻值极小的电阻 NSP 节点分裂(Node splitting) 将一个节点分为两个, 并在分出的节点上接入一个阻值极大的电阻 2.2 故障数据仿真
将上一阶段生成的故障CUT变异体和初始的无故障CUT输入到基于Pspice内核的仿真器中, 以扫频信号作为激励, 得到各CUT的频率响应曲线的仿真数据.鉴于元件参数存在一定的容差, 我们假设各元件参数服从均值为标称值$X_n$, 标准差为$\sigma=tX_n/3$的高斯分布, 随后进行$n$次Monte Carlo仿真得到各类CUT的仿真数据$n$组.
2.3 故障特征提取
故障的特征值要满足: 1)在同一故障中相近; 2)在不同故障间不同[1].本文从CUT的频率响应曲线中提取了最小模糊度特征(Minimum ambiguity features, MAF)作为故障特征.
2.3.1 模糊度模型
设$s$为一故障特征值, 由于$s$的大小会随着元件存在的容差而在一定范围内变动, 故采用$\varphi(s)$来表示某一状态下$s$的概率分布. CUT所处的状态不同, 对应的分布$\varphi(s)$也不同.对于指定的两类CUT故障$f_i$和$f_j$, 定义二者在该特征下的模糊度为:
$ a_{i, j}=\int_{s^-}^{s^+}\mathrm{min}[\varphi_i(s), \varphi_j(s)]\mathrm{d}s $
(16) 其中, $s^-=\mathrm{max}[s_i^-, s_j^-]$, $s^+=\mathrm{min}[s_i^+, s_j^+]$.如图 4所示, $a_{i, j}$的大小为两条概率密度分布曲线与坐标横轴所围成面积的大小, $a_{i, j}\in [0, 1]$取值范围为, 反映了在该特征下两类故障相似程度, $a_{i, j}$越小, 越容易将两类故障区分.
在实际计算中, 我们采用核密度估计(Kernel density estimation, KDE)方法来求得故障特征值的概率分布函数.假设$\{S_i\}_{i=1}^N$一组观测到的特征值, 则采用KDE得到的概率分布函数为
$ \hat{\varphi}(s)=\frac{1}{Nh}\sum\limits_{i=1}^NK\left(\frac{s-S_i}{h}\right) $
(17) 其中, $K$为核函数, $h$为平滑参数.
2.3.2 最小模糊度特征
从CUT的工作频率中采样得到$m$个离散的频率点作为特征集, 每类故障都可得到一个基于该特征集的$m\times n$维数据集, $n$为故障数据仿真时的Monte Carlo仿真次数.
对于两类故障$f_i$、$f_j$及其对应的故障数据集$G_i$、$G_j$, 首先计算二者的各特征下的模糊度, 然后二者的最小模糊度特征可由式(18)得到[4]:
$ M_{i, j}=\mathrm{argmin}_{s_k}a_{i, j}^{s_k} $
(18) $M_{i, j}\in \pmb S$, 其对应的最小模糊度记作$a_{i, j}^*$.通过各种故障两两之间的组合, 可得到诊断任务所需的最小模糊度故障特征集$\pmb S^*$.
此外, 若$a_{i, j}^*$足够大, 说明$f_i$和$f_j$的频率特性过于相似, 难以被区分开.设置模糊组门限$\lambda \in [0, 1]$, 若$a_{i, j}^*>\lambda$, 则故障$f_i$和$f_j$处于同一个模糊组中, 此时两类故障被认定为一类.
2.4 故障模式分类
根据最小模糊度特征集$\pmb S^*$生成训练数据集来训练MKL-mRVM分类器, 对于新的样本, MKL- mRVM分类器能够输出该样本的故障类别、诊断置信度以及最优特征.诊断性能采用了文献[1]提出的以下5个指标来从多方面进行评价:
1)
2)
3)
4)
5)
3. 诊断实验
本文的诊断实验包含两个案例:案例1为Sallen-Key带通滤波电路的诊断, 注入故障数较少, 主要用于详细分析MKL-mRVM算法的诊断性能; 案例2为Biquad低通滤波电路的诊断, 注入故障数较多, 主要用于验证MKL-mRVM算法对大规模故障诊断的可行性.
为比较诊断结果, 将同样采用核函数建模的SVM和核超限学习机(Kernel extreme learning machine, kELM)应用于故障模式分类中, 三种方法均使用高斯核函数, 并采用5折交叉验证法来选取平均验证误差最小的模型参数.其中, SVM采用一对一(One-against-one, OAO)法进行多分类, 一共需要构建$c(c-1)/2$个SVM分类器.
仿真实验以Matlab 2015a作为实验平台, 所有实验均在CPU为3.3 GHz、内存为16 GB的PC上运行.
3.1 Sallen-Key带通滤波电路诊断
3.1.1 实验设计
Sallen-Key带通滤波电路的电路结构如图 5所示, 其中心频率为25 kHz.仿真实验注入14个软故障, 故障描述见表 2, 其中, 无故障状态下各元件参数的变动范围控制在容差的10%之内.
表 2 Sallen-Key带通滤波电路故障描述Table 2 Faults in Sallen-Key band-pass fllter编号 故障描述 标称值 故障值 f0 无故障 — — f1 C1↑ 5 nF [6 ~ 10] nF f2 C1↓ 5 nF [0.5 ~ 4] nF f3 C2↑ 5 nF [6 ~ 10] nF f4 C2↓ 5 nF [0.5 ~ 4] nF f5 R1↑ 5.18 k$\Omega$ [6.22 ~ 10.36] k$\Omega$ f6 R1↓ 5.18 k$\Omega$ [0.52 ~ 4.14] k$\Omega$ f7 R2↑ 1 k$\Omega$ [1.2 ~ 2] k$\Omega$ f8 R2↓ 1 k$\Omega$ [0.1 ~ 0.8] k$\Omega$ f9 R3↑ 2 k$\Omega$ [2.4 ~ 4] k$\Omega$ f10 R3↓ 2 k$\Omega$ [0.2 ~ 1.6] k$\Omega$ f11 R4↑ 4 k$\Omega$ [4.8 ~ 8] k$\Omega$ f12 R4↓ 4 k$\Omega$ [0.4 ~ 3.2] k$\Omega$ f13 R5↑ 4 k$\Omega$ [4.8 ~ 8] k$\Omega$ f14 R5↓ 4 k$\Omega$ [0.4 ~ 3.2] k$\Omega$ 将从[0 Hz, 100 kHz]频率区间中等间隔离散化得到的1 001个激励信号输入到仿真器中, 设置Monte Carlo仿真次数$n=200$, 得到每类200个故障样本(共3 000个).将故障样本按类别平均分为2组, 第一组作为训练样本集, 第二组作为测试样本集.
3.1.2 频率响应分析
图 6给出了f1、f4、f5、f7 4类故障模式与无故障状态f0的频率响应曲线对比, 可以看出在这4类软故障中, f5与f0的频率响应特性最为接近, 二者在大部分频率点上存在重合, 使得f5的诊断相对较难, 余下三类故障模式与f0均在不同的频率区间上可分.
通过各类样本的模糊度分析, 提取出该CUT故障的最小模糊度特征为= {0, 3.9, 9.0, 10.6, 11.2, 12.5, 16.0, 16.8, 17.0, 19.5, 20.8, 23.9, 25.7, 26.1, 33.4, 34.8, 48.5, 78.2, 91.7, 97.6, 100.0} (kHz), 共21个频率点.
3.1.3 诊断性能比较
表 3给出了按照所选特征频率点三种方法的诊断性能及时间的比较, 表中的粗体字代表了该项性能指标中的最好结果, 其中测试时间为1 500个测试样本的平均测试时间.通过表 3可以看出: 1)在诊断精度上, MKL-mRVM方法的精度最高, 分类准确度能够达到96.40%, SVM次之, 略高于kELM; 2)在训练时间上, kELM拥有最快的训练速度, SVM次之, 而MKL-mRVM的训练时间高达381.4 s, 这是由于MKL-mRVM较多的迭代步数极大地增加了总体训练时间, 图 6显示了MKL-mRVM的训练过程, 算法在迭代1 502步后收敛, 迭代步数几乎等于训练样本数; 3)在平均测试时间上, kELM依然拥有最快的速度, SVM次之, MKL-mRVM略慢于SVM, 这是由于MKL-mRVM在测试中需要计算样本属于各类别的概率, 而概率信息对于诊断结果的评价具有重要作用.
表 3 三种方法的诊断性能对比Table 3 Diagnostic performance comparison of 3 methods方法 漏判率 误判率 检测率 隔离率 准确率 训练时间/s 测试时间/s MKL-mRVM 0.0107 0.0200 0.9986 0.9893 0.9640 381.43 3.007E$-$04 OAO-SVM 0.0071 0.0600 0.9957 0.9928 0.9160 2.2103 1.781E$-$04 kELM 0.0114 0.0900 0.9935 0.9886 0.9020 0.1287 3.607E$-$05 在MKL-mRVM的诊断结果中, 所有故障模式里诊断正确率最低的是f5, 对应的正确率为89%, 诊断正确率最高的是f4, 对应的正确率为98%, 从诊断结果来看, MKL-mRVM对本案例中的各类故障模式均有较好的区分能力, 并且诊断正确率和该故障模式与其他故障模式频率响应的相似度相关, 频率响应曲线越相似, 诊断的正确率越低.
虽然MKL-mRVM的训练时间较长, 但其构建分类模型实际用到的样本很少.由图 7可以看出, 由于采用了增量训练方法, MKL-mRVM在每一步迭代中仅对1 500个训练样本中的1个进行学习来更新超参数矩阵, 并根据更新后的$\alpha$值来判断该样本是否保留在模型中.当算法收敛时, 原有1 500个训练样本中的绝大多数样本的超参数$\alpha=\infty$, 仅保留了其中15个$\alpha<\infty$的样本作为相关向量来构建分类模型, 因此在实际使用中可通过减少训练样本的数量来减少模型的训练时间.文献[27]提出了一种用于传统RVM的训练样本集精简方法, 其基本思想利用Gram-Schmidt算法检测样本之间的线性相关性, 从而剔除样本集中的冗余样本点, 理论上可以应用到MKL-mRVM中.此外, 对于已经训练好的MKL-mRVM分类模型, 若有新的故障样本出现, MKL-mRVM能够在原有分类模型的基础上通过增量训练对新样本进行单独学习, 通过算法流程的步骤2~5来快速更新模型参数, 无需纳入之前的所有样本重训模型, 使得MKL-mRVM可以应用到样本序贯输入的在线诊断中.
3.1.4 特征选择及分类置信度分析
MKL-mRVM算法在输入的21个原始故障特征上建立了基本核函数, 基本核函数的加权系数$\pmb \beta$可以表示故障特征对分类的重要程度.图 8显示了模型训练后加权系数$\pmb \beta$的大小, 可以看出, 大多数的加权系数都在$10^{-10}$以下, 对应的特征为无关特征, 将其从模型中剔除, 剩下系数较大的7个特征被认为是重要特征, 即MKL-mRVM所选择的最能代表故障特点并将各类故障进行区分的频率点最小集合.根据训练结果, 本案例的最优特征集为$\pmb S_\mathrm{opt}$ = 0, 10.6, 11.2, 12.5, 20.8, 23.9, 100.0 (kHz).
MKL-mRVM分类器能够输出测试样本属于各类别的后验概率, 因此可将分类结果对应的概率大小作为诊断结果的置信度.为分析诊断结果与置信度的关系, 我们从正确诊断的样本和错误诊断的样本中各随机挑选20个样本, 所选样本的诊断结果与诊断置信度的关系如图 9所示.可以看出, 诊断正确样本的诊断置信度明显高于诊断错误样本的诊断置信度.在本案例的所有测试样本中, 诊断正确的样本平均诊断置信度达到0.8505, 而诊断错误的样本平均诊断置信度仅为0.4103.因此, MKL-mRVM所输出的概率信息能够对诊断结果的质量进行评价, 具有一定的实用价值.
3.2 Biquad低通滤波电路诊断
3.2.1 实验设计
Biquad低通滤波电路的电路结构如图 10所示.该电路包含较多的元件数量, 仿真实验共注入各类故障92个, 详见表 4, 其中, 软故障PCH↓和PCH↑对应的元件参数服从均匀分布$U(0.1X_n, X_n-2t)$和$U(X_n+2t, 2X_n)$, 硬故障中, ROP、NSP接入的阻值服从均匀分布$U(100\, \mathrm{k\Omega}, {1\, \mbox{M}\mathrm\Omega})$, LRB、GRB接入的阻值服从均匀分布$U(10\, \mathrm{\Omega}, 1\, \mathrm{k\Omega})$.
表 4 Biquad低通滤波电路故障描述Table 4 Faults in Biquad low-pass fllter编号 故障描述 编号 故障描述 编号 故障描述 编号 故障描述 f0 无故障 f24 ROP (R4, +) f48 LRB (R4, +, $-$) f72 GRB (n2, in) f1 PCH (C1↑) f25 ROP (R5, +) f49 LRB (R5, +, $-$) f73 GRB (n2, n4) f2 PCH (C1↓) f26 ROP (R6, +) f50 LRB (R6, +, $-$) f74 GRB (n2, n5) f3 PCH (C2↑) f27 ROP (R7, +) f51 LRB (R7, +, $-$) f75 GRB (n2, out) f4 PCH (C2↓) f28 ROP (U1, 1) f52 LRB (U1, 1, 2) f76 GRB (n3, in) f5 PCH (R1↑) f29 ROP (U1, 2) f53 LRB (U1, 2, 3) f77 GRB (n3, n5) f6 PCH (R1↓) f30 ROP (U1, 3) f54 LRB (U1, 3, 4) f78 GRB (n3, out) f7 PCH (R2↑) f31 ROP (U1, 4) f55 LRB (U1, 4, 5) f79 GRB (n4, in) f8 PCH (R2↓) f32 ROP (U1, 5) f56 LRB (U1, 5, 1) f80 GRB (n4, out) f9 PCH (R3↑) f33 ROP (U2, 1) f57 LRB (U2, 1, 2) f81 GRB (n5, in) f10 PCH (R3↓) f34 ROP (U2, 2) f58 LRB (U2, 2, 3) f82 GRB (n6, in) f11 PCH (R4↑) f35 ROP (U2, 3) f59 LRB (U2, 3, 4) f83 GRB (n6, n3) f12 PCH (R4↓) f36 ROP (U2, 4) f60 LRB (U2, 4, 5) f84 GRB (n6, n5) f13 PCH (R5↑) f37 ROP (U2, 5) f61 LRB (U2, 5, 1) f85 GRB (n6, out) f14 PCH (R5↓) f38 ROP (U3, 1) f62 LRB (U3, 1, 2) f86 GRB (in, out) f15 PCH (R6↑) f39 ROP (U3, 2) f63 LRB (U3, 2, 3) f87 NSP (n1, [2, 3] [1, 4]) f16 PCH (R6↓) f40 ROP (U3, 3) f64 LRB (U3, 3, 4) f88 NSP (n1, [2, 4] [1, 3]) f17 PCH (R7↑) f41 ROP (U3, 4) f65 LRB (U3, 4, 5) f89 NSP (n1, [3, 4] [1, 2]) f18 PCH (R7↓) f42 ROP (U3, 5) f66 LRB (U3, 5, 1) f90 NSP (n4, [2, 3] [1, 4]) f19 ROP (C1, +) f43 LRB (C1, +, $-$) f67 GRB (n1, 0) f91 NSP (n4, [2, 4] [1, 3]) f20 ROP (C2, +) f44 LRB (C2, +, $-$) f68 GRB (n1, n3) f92 NSP (n4, [3, 4] [1, 2]) f21 ROP (R1, +) f45 LRB (R1, +, $-$) f69 GRB (n1, n4) f22 ROP (R2, +) f46 LRB (R2, +, $-$) f70 GRB (n1, n5) f23 ROP (R3, +) f47 LRB (R3, +, $-$) f71 GRB (n2, 0) 将从[1 Hz, 200 kHz]中等间隔离散化得到的1 000个激励信号输入到仿真器中, 设置Monte Carlo仿真次数$n=100$, 得到每类100个故障样本(共9 300个).同样按类别将其平均分为2组, 分别作为训练样本集和测试样本集.
3.2.2 频率响应分析
图 11给出了9类故障模式与无故障状态f0的频率响应曲线对比, 可以直观的看出f5、f19、f43、f48、f87 5类故障在所选频率区间内与f0有很好的可分性, f1与f0在部分区间内可分, 而f28、f64、f77与f0的频率响应极为相似, 四者在绝大部分频率点上重合.根据模糊度分析本案例共提取出个最小模糊度特征.
3.2.3 诊断性能比较
由于许多故障模式的频率响应曲线和无故障状态的频率响应曲线过于相似, 使得分类器根据所选的特征频率点依然难以精确地诊断出每类故障.因此, 对于表 4中的各类故障我们设置不同模糊组门限$\lambda$来给出故障所属的模糊组. 图 12给出了无故障状态f0所对应的模糊组, 图中$\lambda$所在圆的内部所有的故障两两互为模糊组, 当$\lambda=1$时不存在模糊组, 随着$\lambda$减小, 越来越多故障表现相似的故障类型落入到同一模糊组中, 可以看出图 11中f28、f64、f77三类难以区分的故障均在f0的模糊组中. 表 5给出了不同模糊组门限$\lambda$下三种方法的诊断性能, 在存在模糊组的前提下, 只要诊断结果为实际故障所在模糊组中的任意一种故障我们就假定诊断正确.
表 5 三种方法的诊断性能对比Table 5 Diagnostic performance comparison of 3 methods方法 $\lambda$ 漏判率 误判率 检测率 隔离率 准确率 训练时间(s) 测试时间(s) 1 0.0165 0.9200 0.9899 0.9834 0.6069 0.7 0.0235 0.3400 0.9962 0.9765 0.7796 MKL-mRVM 0.5 0.0215 0.0600 0.9993 0.9893 0.8602 2.0436E$-$05 1.7472 0.3 0.0132 0.0200 0.9997 0.9867 0.9202 0.1 0.0132 0.0200 0.9997 0.9867 0.9406 1 0.0254 0.9600 09894 0.9746 0.5303 0.7 0.0608 0.4400 0.9950 0.9656 0.6905 OAO-SVM 0.5 0.0196 0.0400 0.9996 0.9804 0.8009 4.6002E$-$02 0.1628 0.3 0.0167 0.0400 0.9996 0.9833 0.8598 0.1 0.0167 0.0400 0.9996 0.9833 0.9191 1 0.0402 0.9800 0.9890 0.9598 0.5006 0.7 0.0437 0.4800 0.9941 0.9563 0.6301 kELM 0.5 0.0243 0.0800 0.9991 0.9757 0.7623 1.9524 1.4584E$-$04 0.3 0.0191 0.0600 0.9996 0.9809 0.8271 0.1 0.0191 0.0400 0.9996 0.9809 0.9013 通过表 5可以看出: 1)当$\lambda=1$, 即不考虑模糊组的情况下, 三种方法的分类准确率都比较低, 同时故障误判率也非常高, 这是由于多种故障的频率响应曲线和f0非常接近, 分类器难以将正常状态从多类故障状态中区分出来, 随着$\lambda$降低, 征兆相似的故障故障不断落入同一个模糊组中, 在考虑模糊组的情况下, 三种方法的分类准确率也随之上升, 当$\lambda<0.5$时, MKL-mRVM的分类准确率能够达到85%以上; 2)在不同模糊组的诊断中, MKL-mRVM均拥有最高的分类准确率, SVM次之, kELM最低, MKL-mRVM在$\lambda=0.3$时的分类准确率就已经高于$\lambda=0.1$时SVM和kELM的分类准确率; 3) kELM依然拥有最快的训练速度和测试速度, 而MKL-mRVM的训练和测试速度最慢, 模型的训练花费了近6个小时, 较多的故障类别和特征维数大大增加了MKL-mRVM的训练时间.
3.2.4 采用其他特征的诊断性能
虽然较多的训练样本数以及特征数极大地增加了MKL-mRVM的训练时间, 但MKL-mRVM从350个特征中提取了47个作为诊断的最优特征, 由于冗余信息被剔除, MKL-mRVM的分类准确率明显高于SVM和kELM.为比较故障特征以及最优化约简对诊断性能的MKL-mRVM影响, 表 6给出了不考虑模糊组($\lambda=1)$的情况下分别采用高阶统计量(峰度结合偏度)[13]、电路规格参数(峰值增益和3 dB截止频率)[14]以及未经约简的MAF作为特征时mRVM的诊断性能(由于不需要特征约简故采用mRVM), 可以看出, 相比本文提出的诊断方法, 高阶统计量和电路规格两种特征虽然计算复杂度小, 但诊断精度却远远低于本文方法, 难以应对大规模故障诊断的需求, 而未经约简的MAF虽然使得训练时间得以缩短, 但诊断精度不及本文所提方法.此外, 尽管本文所提方法提高了故障诊断的准确率, 然而当充分考虑现实中可能存在的各类故障时, 上述方法都难以取得比较理想的诊断精度, 在大规模故障诊断中依然存在着许多模糊组.
表 6 其他特征的诊断性能Table 6 Diagnostic performance of other features故障特征 分类算法 训练时间(s) 分类准确率 高阶统计量 mRVM 6.1434E$-$03 0.2046 电路规格参数 mRVM 5.6213E$-$03 0.3871 MAF mRVM 1.7324E$-$04 0.5113 MAF MKL-mRVM 2.0436E$-$05 0.6069 4. 结论
本文提出了一种基于MKL-mRVM的模拟电路故障诊断方法, 相比已有方法, 本文方法的主要贡献有: 1)通过故障注入生成了参数连续的软故障和各类硬故障, 并考虑了非故障原件的参数容差, 使故障样本更贴合实际情况; 2) MKL-mRVM能够约简原始故障特征, 减少冗余信息, 使得故障诊断结果的准确度更高; 3)基于贝叶斯框架的MKL-mRVM分类算法能够给出诊断结果的置信度.然而模拟电路的故障诊断是一个复杂的问题, 本文所提方法在应对大规模故障诊断时依然达不到理想的诊断精度, 诊断结果依然存在着较多的模糊组, 并且MKL-mRVM用于诊断时的训练时间较长, 下一步的研究工作可集中于提高MKL-mRVM的训练效率.
-
表 1 基于条件随机场和最小二乘生成式对抗网络的草图简化模型
Table 1 Sketch simplification model based on the conditional random field and least squares generative adversarial networks
序号 层类型 卷积核 步长 深度 序号 层类型 卷积核 步长 深度 0 Input - - 1 20 Up-convolution 4×4 1/2×1/2 128 1 Down-convolution 5×5 2×2 48 21 Flat-convolution 3×3 1×1 128 2 Flat-convolution 3×3 1×1 128 22 Flat-convolution 3×3 1×1 48 3 Flat-convolution 3×3 1×1 128 23 Up-convolution 4×4 1/2×1/2 48 4 Down-convolution 3×3 2×2 256 24 Flat-convolution 3×3 1×1 24 5 Flat-convolution 3×3 1×1 256 25 Flat-convolution 3×3 1×1 1 6 Flat-convolution 3×3 1×1 256 26 Convolution 5×5 1×1 20 7 Down-convolution 3×3 2×2 256 27 Convolution 5×5 1×1 50 8 Flat-convolution 3×3 1×1 512 28 Convolution 4×4 1×1 500 9 Flat-convolution 3×3 1×1 1 024 29 Convolution 5×5 2×2 500 10 Flat-convolution 3×3 1×1 1 024 30 Convolution 5×5 2×2 500 11 Flat-convolution 3×3 1×1 1 024 31 Convolution 5×5 2×2 500 12 Flat-convolution 3×3 1×1 1 024 32 Convolution 5×5 2×2 500 13 Flat-convolution 3×3 1×1 1 024 33 Convolution 5×5 2×2 1 000 14 Flat-convolution 3×3 1×1 1 024 34 Convolution 5×5 2×2 1 000 15 Flat-convolution 3×3 1×1 512 35 Convolution 4×4 2×2 1 000 16 Flat-convolution 3×3 1×1 256 36 Fully-connected 1×1 1×1 2 17 Up-convolution 4×4 1/2×1/2 256 37 Dloss - - - 18 Flat-convolution 3×3 1×1 256 38 Gloss - - - 19 Flat-convolution 3×3 1×1 128 表 2 生成器网络生成简化图所需时间
Table 2 Time needed for generating a simplified image by the generator
图片大小(像素) 像素个数 GPU (Nvidia gtx980ti) (s) 500×500 250 000 1.377 1 500×1 500 2 250 000 11.632 2 000×2 000 4 000 000 21.431 表 3 利用测试集获得的Simo-Serra[10]简化模型输出图和本文简化模型输出图的宏查全率、宏查准率和宏F1的测试结果
Table 3 Test results of macro-$R$, macro-$P$ and macro-F1 of output images of Simo-Serra[10] simplification model and output images of our model using test dataset
测试项目 Simo-Serra模型结果图 本文模型结果图 宏查全率(范围为5像素×5像素) 0.6660 0.7278 宏查准率(范围为5像素×5像素) 0.7105 0.7078 宏F1 (范围为5像素×5像素) 0.6875 0.7181 -
[1] 孙旭, 李晓光, 李嘉锋, 卓力.基于深度学习的图像超分辨率复原研究进展.自动化学报, 2017, 43(5):697-709 http://www.aas.net.cn/CN/abstract/abstract19048.shtmlSun Xu, Li Xiao-Guang, Li Jia-Feng, Zhuo Li. Review on deep learning based image super-resolution restoration algorithms. Acta Automatica Sinica, 2017, 43(5):697-709 http://www.aas.net.cn/CN/abstract/abstract19048.shtml [2] 张慧, 王坤峰, 王飞跃.深度学习在目标视觉检测中的应用进展与展望.自动化学报, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtmlZhang Hui, Wang Kun-Feng, Wang Fei-Yue. Advances and perspectives on applications of deep learning in visual object detection Acta Automatica Sinica, 2017, 43(8):1289-1305 http://www.aas.net.cn/CN/abstract/abstract19104.shtml [3] Wilson B, Ma K L. Rendering complexity in computer-generated pen-and-ink illustrations. In: Proceedings of the 3rd International Symposium on Non-Photorealistic Animation and Rendering. New York, NY, USA: ACM, 2004. 129-137 [4] Grabli S, Durand F, Sillion F X. Density measure for line-drawing simplification. In: Proceedings of the 12th Pacific Conference on Computer Graphics and Applications. Seoul, South Korea: IEEE, 2004. 309-318 [5] Cole F, DeCarlo D, Finkelstein A, Kin K, Morley K, Santella A. Directing gaze in 3D models with stylized focus. In: Proceedings of the 17th Eurographics Conference on Rendering Techniques. Nicosia, Cyprus: ACM, 2006. 377-387 [6] Grimm C, Joshi P. Just Drawit: a 3D sketching system. In: Proceedings of the 2012 International Symposium on Sketch-Based Interfaces and Modeling. Annecy, France: ACM, 2012. 121-130 [7] Fišer J, Asente P, Sýkora D. ShipShape: a drawing beautification assistant. In: Proceedings of the 2015 Workshop on Sketch-Based Interfaces and Modeling. Istanbul, Turkey: ACM, 2015. 49-57 [8] Orbay G, Kara L B. Beautification of design sketches using trainable stroke clustering and curve fitting. IEEE Transactions on Visualization and Computer Graphics, 2011, 17(5):694-708 doi: 10.1109/TVCG.2010.105 [9] Liu X T, Wong T T, Heng P A. Closure-aware sketch simplification. ACM Transactions on Graphics (TOG), 2015, 34(6):Article No. 168 https://dl.acm.org/citation.cfm?id=2818067 [10] Simo-Serra E, Iizuka S, Sasaki K, Ishikawa H. Learning to simplify:fully convolutional networks for rough sketch cleanup ACM Transactions on Graphics (TOG), 2016, 35(4):Article No. 121 https://dl.acm.org/citation.cfm?id=2925972 [11] Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial networks. In: Proceedings of the 2014 Advances in Neural Information Processing Systems (NIPS). Montreal, Canada: Curran Associates, Inc., 2014. 2672-2680 [12] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃.生成式对抗网络GAN的研究进展与展望.自动化学报, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtmlWang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative adversarial networks:the state of the art and beyond. Acta Automatica Sinica, 2017, 43(3):321-332 http://www.aas.net.cn/CN/abstract/abstract19012.shtml [13] Qi G J. Loss-sensitive generative adversarial networks on Lipschitz densities. ArXiv: 1701. 06264, 2017. [14] Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. ArXiv: 1701. 07875, 2017. [15] Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks. In: Proceedings of the 2015 International Conference on Learning Representations (ICLR). San Diego, CA, USA: ICLR, 2015. [16] Mao X D, Li Q, Xie H R, Lau R Y K, Wang Z, Smolley S P. Least squares generative adversarial networks. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 2813-2821 [17] Huang Q X, Han M, Wu B, Ioffe S. A hierarchical conditional random field model for labeling and segmenting images of street scenes. In: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, CO, USA: IEEE, 2011. 1953-1960 [18] Yang M Y, Förstner W. A hierarchical conditional random field model for labeling and classifying images of man-made scenes. In: Proceedings of the 2011 IEEE International Conference on Computer Vision Workshops. Barcelona, Spain: IEEE, 2011. 196-203 [19] Chen L C, Papandreou G, Kokkinos I, Murphy K, Yuille A L. DeepLab:semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4):834-848 doi: 10.1109/TPAMI.2017.2699184 [20] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift. In: Proceedings of the 32nd International Conference on Machine Learning. Lille, France: PMLR, 2015. [21] Selinger P. Potrace: a polygon-based tracing algorithm[Online], available: http://potrace.sourceforge.net/potrace.pdf, May 10, 2017 期刊类型引用(19)
1. 仲赞,王建锋,周安仁,林文钊. 适配器匹配下的大规模模拟电路故障红外图像检测系统设计. 计算技术与自动化. 2024(01): 105-110 . 百度学术
2. 唐永平,王鑫. 基于并发模型的LAC在线故障检测. 电子器件. 2024(04): 947-953 . 百度学术
3. 王力,石立超. 基于改进相关向量机的模拟电路故障预测. 计算机应用与软件. 2023(03): 52-60 . 百度学术
4. 刘建昌,权贺,于霞,何侃,李镇华. 基于参数优化VMD和样本熵的滚动轴承故障诊断. 自动化学报. 2022(03): 808-819 . 本站查看
5. 刘海天. 基于故障定位集的医疗器械电路故障在线检测方法. 机械制造与自动化. 2022(03): 240-243 . 百度学术
6. 王力,刘学朋,张亦弛. 基于BCL-ASA-BP神经网络的模拟电路板芯片故障诊断. 电子测量技术. 2022(14): 164-171 . 百度学术
7. 杜先君,巩彬,余萍,石耀科,Kuzina V.Angelina,程生毅. 基于CBAM-CNN的模拟电路故障诊断. 控制与决策. 2022(10): 2609-2618 . 百度学术
8. 宋建华. 保密通信网电路信息融合故障跟踪诊断系统. 自动化技术与应用. 2022(09): 90-94 . 百度学术
9. 廖剑,黄诘,戴邵武,梅丹,杨术,冯迪. FRFT域能量谱模拟电路故障特征提取方法. 海军航空大学学报. 2022(04): 311-319+332 . 百度学术
10. 梁浩,何婕,陈善秋,郭毓,赵兴法,陆煜明. 基于异构核相关向量机的激光陀螺惯导温度补偿方法. 中国测试. 2022(12): 45-51+59 . 百度学术
11. 张伟涛,纪晓凡,黄菊,楼顺天. 航发轴承复合故障诊断的循环维纳滤波方法. 西安电子科技大学学报. 2022(06): 139-151 . 百度学术
12. 朱敏,许爱强,许晴,李睿峰. 基于改进多层核超限学习机的模拟电路故障诊断. 兵工学报. 2021(02): 356-369 . 百度学术
13. 王力,刘子奇. WPA-IGA-BP神经网络的模拟电路故障诊断. 系统工程与电子技术. 2021(04): 1133-1143 . 百度学术
14. 王力,龚振东. 基于多特征的APSO-SVR的模拟电路故障预测. 云南大学学报(自然科学版). 2021(04): 663-670 . 百度学术
15. 盖志强,洪卫东,张华峰. 基于FIMD和Hilbert变换的线路行波故障诊断. 电气传动. 2021(24): 16-21 . 百度学术
16. 李林,于颖. 智能继电保护回路故障监测全数字仿真研究. 计算机仿真. 2021(12): 460-464 . 百度学术
17. 刘婷,闻心怡,陈刚,王溯勇,刘禹希,章先涛. LLC串联谐振式开关电源MOSFET故障诊断研究. 电测与仪表. 2020(02): 147-152 . 百度学术
18. 刘畅,郎劲. 基于混核LSSVM的批特征风功率预测方法. 自动化学报. 2020(06): 1264-1273 . 本站查看
19. 李亚,单斌,徐军辉,甄占昌. 基于核因子分析的捷联惯组稳定性评估技术. 科学技术与工程. 2020(18): 7552-7557 . 百度学术
其他类型引用(16)
-