2.845

2023影响因子

(CJCR)

  • 中文核心
  • EI
  • 中国科技核心
  • Scopus
  • CSCD
  • 英国科学文摘

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于自注意力对抗的深度子空间聚类

尹明 吴浩杨 谢胜利 杨其宇

于洪, 何德牛, 王国胤, 李劼, 谢永芳. 大数据智能决策. 自动化学报, 2020, 46(5): 878-896. doi: 10.16383/j.aas.c180861
引用本文: 尹明, 吴浩杨, 谢胜利, 杨其宇. 基于自注意力对抗的深度子空间聚类. 自动化学报, 2022, 48(1): 271−281 doi: 10.16383/j.aas.c200302
YU Hong, HE De-Niu, WANG Guo-Yin, LI Jie, XIE Yong-Fang. Big Data for Intelligent Decision Making. ACTA AUTOMATICA SINICA, 2020, 46(5): 878-896. doi: 10.16383/j.aas.c180861
Citation: Yin Ming, Wu Hao-Yang, Xie Sheng-Li, Yang Qi-Yu. Self-attention adversarial based deep subspace clustering. Acta Automatica Sinica, 2022, 48(1): 271−281 doi: 10.16383/j.aas.c200302

基于自注意力对抗的深度子空间聚类

doi: 10.16383/j.aas.c200302
基金项目: 国家自然科学基金(U1911401, 61973087, 61876042), 广东省自然科学基金(2020A1515011493), 流程工业综合自动化国家重点实验室开放课题基金项目(2020-KF-21-02)资助
详细信息
    作者简介:

    尹明:广东工业大学自动化学院教授. 主要研究方向为图像处理, 模式识别, 计算机视觉, 机器学习. E-mail: yiming@gdut.edu.cn

    吴浩杨:广东工业大学自动化学院硕士研究生.主要研究方向为子空间学习, 深度聚类. E-mail: tarkovskyfans@163.com

    谢胜利:广东工业大学自动化学院教授, IEEE Fellow. 主要研究方向为盲信号处理, 生物医学信号处理. E-mail: shlxie@gdut.edu.cn

    杨其宇:广东工业大学自动化学院讲师. 主要研究方向为信号处理, 实时数据处理. 本文通信作者 E-mail: yangqiyu@gdut.edu.cn

Self-attention Adversarial Based Deep Subspace Clustering

Funds: Supported by National Natural Science Foundation of China (U1911401, 61973087, 61876042), Guangdong Basic and Applied Basic Research Foundation (2020A1515011493), and State Key Laboratory of Synthetical Automation for Process Industries (2020-KF-21-02)
More Information
    Author Bio:

    YIN Ming Professor at the School of Automation, Guangdong University of Technology. His research interest covers image processing, pattern recognition, computer vision, and machine learning

    WU Hao-Yang Master student at the School of Automation, Guangdong University of Technology. His research interest covers subspace learning and deep clustering

    XIE Sheng-Li Professor at the School of Automation, Guangdong University of Technology, IEEE Fellow. His research interest covers blind signal processing, and biomedical signal processing

    YANG Qi-Yu Lecturer at the School of Automation, Guangdong University of Technology. His research interest covers signal processing and real time data processing. Corresponding author of this paper

  • 摘要: 子空间聚类(Subspace clustering)是一种当前较为流行的基于谱聚类的高维数据聚类框架. 近年来, 由于深度神经网络能够有效地挖掘出数据深层特征, 其研究倍受各国学者的关注. 深度子空间聚类旨在通过深度网络学习原始数据的低维特征表示, 计算出数据集的相似度矩阵, 然后利用谱聚类获得数据的最终聚类结果. 然而, 现实数据存在维度过高、数据结构复杂等问题, 如何获得更鲁棒的数据表示, 改善聚类性能, 仍是一个挑战. 因此, 本文提出基于自注意力对抗的深度子空间聚类算法(SAADSC). 利用自注意力对抗网络在自动编码器的特征学习中施加一个先验分布约束, 引导所学习的特征表示更具有鲁棒性, 从而提高聚类精度. 通过在多个数据集上的实验, 结果表明本文算法在精确率(ACC)、标准互信息(NMI)等指标上都优于目前最好的方法.
  • 聚类作为无监督学习的技术[1], 是许多领域中常用的统计数据分析技术, 如图像分割、人脸识别、文本分析等. 给定一组数据, 聚类算法旨在将数据分成若干簇, 同一簇内的数据具有相似特征, 而不同簇的数据具有较大差异的特征, 通常衡量数据相似性可采用某种距离函数, 如欧氏距离、闵可夫斯基距离、信息熵等. 目前较流行的聚类方法有$ k $均值($ k $-means)聚类[2]、层次聚类[3]、谱聚类[4]等. 然而现实生活中存在高维数据, 单独使用以上方法聚类的效率极低, 并且在数据存在噪声干扰时结果也不够鲁棒.

    近年来各国学者发现, 虽然高维数据的结构在整个数据空间很难聚类, 但高维数据的内在结构通常小于实际维度, 并且簇结构可能在某个子空间很容易被观测到[5]. 因此, 为了聚类高维数据, 子空间聚类(Subspace clustering, SC)[6]假定高维空间可分成若干个低维子空间, 然后将这些低维子空间中提取的数据点分割成不同的簇[7]. 子空间聚类目前主要有4大类: 迭代法[8]、代数法[9]、统计法[10]、基于谱聚类的方法[11-16]. 其中基于谱聚类的子空间聚类一经提出就受到了广泛的关注, 其基本思想是首先计算数据点间的相似性来构建相似度矩阵, 然后再采用谱聚类算法[17]获得最终聚类结果. 其中最成功的两种子空间聚类算法为: 稀疏子空间聚类(Sparse subspace clustering, SSC)[11]通过$ \ell_0 $范数正则化迫使每个数据由用同一子空间的其他数据点尽可能稀疏地表示, 再利用表示系数构建相似度矩阵, 所得的相似度矩阵可捕捉到数据的局部结构; 低秩子空间聚类(Low-rank representation, LRR)[12]通过核范数正则化来获得数据的最低秩表示, 这样获得的相似度矩阵具有数据的全局结构信息. 这两种算法都采用了数据“自表示”机制, 有效地刻画出数据的子空间结构.

    另一方面, 随着神经网络的发展, 自动编码器(Autoencoders, AEs)[18]成为流行的特征学习方法. 其通过编码器将原始数据编码成一个低维的编码, 然后再通过解码器把低维的编码重构回原始数据, 这个低维的编码数据可近视作原始数据的低维表示. 2006年, Hinton等对自动编码器进行改进提出深度自动编码器(Deep autoencoder, DAE)[19], 相较于自动编码器, 由于加深了网络深度的DAE可获得更鲁棒的数据表示. 之后, Vincent等提出了去噪自动编码器(Denoising autoencoders, DAEs)[20]通过在数据中加入噪声来进一步提高鲁棒性. 为了去掉数据的冗余信息, 获得稀疏的数据表示, Bengio等提出稀疏自动编码器(Sparse autoecoders, SAE)[21]. Masci等将编码器和解码器的全连接层网络替换为卷积神经网络提出堆叠卷积自动编码器(Stacked convolutional autoencoders, CAE)[22]从而减少网络的参数量. 基于自动编码器网络在特征学习上的优势, 有研究者将其与聚类[23-24]算法相结合: 例如, 深度嵌入聚类(Deep embedded Clusterng, DEC)[25], 同时进行深度学习与聚类算法(Simultaneous deep learning and clustering, DCN)[23], 深度连续聚类(Deep continuous clustering, DCC)[24]以及Ren等提出基于深度密度的图像聚类算法(Deep density-based image clustering, DDC)[26]和半监督深度嵌入聚类(Semi-supervised deep embedded clustering, SDEC)[27]等.

    在数据表示学习时, 我们可以加深网络深度学习更深层的表示[28], 但通常来说网络并不是越深越好, 由于AE网络深度过长导致一些信息丢失, 尤其是某个特定特征[29-30]. 为了解决这一问题, 注意力模型(Attention model)[30]被提出来. 其基本思想是模仿人类的注意力机制, 即人类会根据内部经验、外部感觉从一个庞大的信息快速聚焦于局部信息. 其计算可分为两步: 首先对输入信息计算注意力分布, 然后根据注意力分布计算输入信息的加权平均. 采用了自注意力机制的网络相较于其他特征学习网络, 会忽视无关的背景信息. 目前注意力模型主要包括软注意力模型(Soft attention model)[30-31]、硬注意力模型(Hard attention model)[32]、自注意力模型(Self-attention model)[33]、局部注意力模型(Local attention model)和全局注意力模型(Global attention model)[34]等.

    深度学习另一个突破的进展为2014年Goodfellow等提出生成对抗网络(Generative adversarial networks, GAN)[35], 由一个生成网络与一个判别网络组成, 通过让两个神经网络相互博弈的方式进行学习. 首先, 生成网络从潜在空间(Latent space)中随机采样作为输入, 其输出结果需要尽量模仿训练集里的真实样本. 而判别网络的输入则为真实样本或生成网络的输出, 其目的是将生成网络的输出从真实样本中尽可能分辨出来. 最终生成器生成的样本近似于真实样本. 近些年有学者发现生成对抗模型也可以在聚类分析上起到作用, Chen等提出的Info-GAN[36]在原本的输入增加一个新的潜在编码(Latent code), 来控制生成结果, 当这个编码为离散编码时, 该算法具有聚类的作用. Mukherjee等提出ClusterGAN[37], 在Info-GAN的基础上增加一个编码器来对生成器生成的图像再进行编码来对输入的潜在编码进行约束, 从而获得更好的聚类性能. 值得注意的是, Makhzani在2016年将自动编码器和生成对抗网络相结合的对抗自动编码器(Adversarial autoencoders, AAE)[38], 该算法在半监督分类和无监督聚类均有效果.

    尽管上述方法在某种程度上提升了聚类精度, 但如何有效地挖掘数据内蕴的子空间结构, 获得更鲁棒的数据表示仍待进一步研究. 因此, 本文拟提出一种基于自注意力对抗机制的深度子空间聚类方法. 在包含“自表示”网络层的深度自动编码器网络中, 我们引入自注意力机制以捕捉重要特征信息, 而且利用对抗网络增强特征学习的鲁棒性. 由此, 学习到更鲁棒的数据子空间结构, 获得更优的聚类结果. 归纳而言, 本文的主要贡献为:

    1) 提出一种利用对抗机制提升子空间聚类的算法, 使得编码器学习到的特征表示更具有鲁棒性;

    2) 引入自注意力模型来解决聚类分析中特征学习的长距离依赖问题.

    本文章节安排如下: 第1节描述了和基于自注意力对抗的子空间聚类相关的算法, 第2节描述基于自注意力对抗的子空间聚类的网络结构以及原理, 第3节通过在MNIST, Fashion-MNIST等数据集实验并分析, 第4节总结全文, 并提出进一步的研究方向.

    本文方法是在深度子空间聚类框架中引入自注意力模型和对抗训练机制的方法, 因此, 本节将围绕子空间聚类、自注意力模型和生成对抗网络进行简要介绍.

    给定一数据集$X = \left\{ {{{x}}}_1,{{{x}}}_2,\cdot \cdot \cdot \left. {{{x}}}_{{n}} \right\} \right. \in {{\bf R}}^{d\times n}$, 假设这组数据集属于$ N $个线性子空间$ \{{\cal{S}}_i\}_{i = 1}^N $, 子空间维度分别为$ \{d_i\}_{i = 1}^N $. 假设属于某线性子空间$ {\cal{S}}_i $的样本足够多, 且张成整个子空间$ {\cal{S}}_i $, 则$ {\cal{S}}_i $中的任意一样本$ {{x}} $均能表示为$ X $中除去$ {{x}} $的线性组合, 即数据集的“自表示”特性[7], 则有如下子空间学习模型:

    $$ \min \dfrac{1}{2}\lVert X-XC \rVert _{F}^{2}+\lambda \lVert C \rVert _p $$ (1)

    $C\in {{\bf R}}^{n\times n}$为输入数据$ X $的自表示系数矩阵, 其中$ C_i $为第$ i $个数据$ X_i $由其他数据表示的系数向量. $ \lVert C \rVert _p $为正则化项, $ \lVert \cdot \rVert _p $为任意矩阵范数, 如稀疏子空间聚类的1-范数$ \lVert C \rVert _1 $[11], 低秩子空间聚类核范数$ \lVert C \rVert _* $[12]和F-范数[39]. 然后使用谱聚类算法对由自表示系数矩阵构建的相似度矩阵$ A = \frac1{2}\left| C+C^{\rm{T}} \right| $聚类, 获得最终聚类结果.

    学者们发现基于自表示方法利用不同的正则化项可以处理受损数据, 例如, 包含噪声和异常值的数据, 而且自表示系数矩阵呈现出块对角化的结构, 这非常有利于后续的谱聚类[7]处理. 因此, 如何获得鲁棒的自表示系数矩阵是基于谱聚类的子空间聚类算法的关键问题.

    然而, 上述子空间模型学习到的自表示结构仅适用于线性子空间. 另一方面, 现实数据常常具有高维的非线性结构, 传统子空间学习受到限制. 可喜的是, 深度自动编码器可将数据转换至一个潜在的低维子空间, 捕获数据的非线性结构, 从而获得数据的低维特征表示. 因此与深度神经网络结合的子空间学习旨在低维特征上学习数据的自表示系数, 如深度子空间聚类算法(Deep subspace clustering, DSC)[40]. DSC首先采用深度自动编码器学习原数据的低维特征表示, 然后利用一个由全连接网络构成的自表示层来学习数据的相邻关系, 该自表示层将神经元连接的权重视为同一子空间中数据样本之间的相似度. 其目标函数表示如下:

    $$ \min \dfrac{1}{2}\lVert X-\hat{X} \rVert _{F}^{2}+\dfrac{\lambda _1}{2}\lVert Z-ZC \rVert _{F}^{2}+\lambda _2\lVert C \rVert _p $$ (2)

    其中, $\hat{X} = f_d\left( Z \right) \in {{\bf R}}^{d \times n}$$ X $的重构数据, 式(2)中第一项表示编解码的保真度, 尽可能少地损失重要信息. 第二项中$Z = f_e\left( X \right) \in {{\bf R}}^{k\times n}\ (k\ll d)$为特征表示矩阵, 结合“自表示”层网络学习自表示系数. $ f_e\left( \cdot \right) $为编码器网络, $ f_d\left( \cdot \right) $表示解码器网络, $ \lambda _1 $$ \lambda _2 $为权重参数用于调节各项平衡, 其网络结构如图1所示.

    图 1  深度子空间聚类网络结构图
    Fig. 1  The framework of Deep Subspace Clustering

    生成对抗网络(GAN)通过生成网络和判别网络相互博弈以达到纳什均衡[35-41], 用$ G $表示为生成器, $ D $为判别器, 其训练目标函数为:

    $$ \begin{split} \mathop {\min }\limits_G \mathop {\max }\limits_D V\left( D,G \right) =& {\rm{E}}_{{{x}}\sim p_{data}\left( {{x}} \right)}\left[ \log D\left( {{x}} \right) \right] + \\ &{\rm{E}}_{z\sim p_z\left( {{z}} \right)}\left[ \log \left( 1-D\left( G\left( {{z}} \right) \right) \right) \right] \end{split} $$ (3)

    式中, ${\rm{E}}(\cdot)$表示分布函数的期望值, $ p_{data}({\rm{x}} ) $为真样本分布, $ p_z({\rm{z}} ) $定义低维噪声分布, $ \log(\cdot) $表示对数运算. $ V(D,G) $为真、假样本的差异程度, ${\mathop {\max }\limits_D} V \left( D,G \right)$表示当生成器固定时, 使判别器最大化地判别出样本来自于真实数据还是生成的数据, ${\mathop {\min }\limits_D }V \left( D,G \right)$表示当判别器固定时, 期望生成器最小化真样本与假样本的差异.

    在生成对抗模型中, 首先由随机向量或噪声${{z}}$通过生成器生成一个假样本$ G(z) $, 然后判别器对真样本$ x $和假样本$ G(z) $进行真假判断. 当判别器$ D $对真样本${{x}}$甄别越严格, $D({{x}})$值也越接近于1, 此时$\log D({{x}})$值也就越接近于0. 其标准网络结构如图2所示, 通常式(3)中判别器损失采用交叉熵损失函数, 即通过交叉熵来判别两个分布的相似性. 当目标函数收敛时, 生成分布将拟合于真实分布.

    图 2  生成对抗网络结构图
    Fig. 2  The framework of generative adversarial networks

    由于生成对抗网络可以将一个生成样本分布拟合于真实分布, 使得其不仅局限于样本生成, 而且任何数据分布均可采用生成对抗网络来拟合, 例如, 对抗自动编码器(AAE)[38]将特征表示分布拟合于标准高斯分布, 获得与变分自动编码器(Variational autoencoders, VAE)[42]相似的效果.

    目前大多数注意力模型嵌入于编−解码器(Encoder-decoder)框架. 通常一个高维的数据通过编码输出一个低维的特征表示时, 会损失大量的信息, 注意力模型可以对不同的数据信息加权平均, 因此含有注意力模型的编−解码器框架会编码出一个低维且信息损失较少的特征表示. 注意力模型的数学表达如下:

    $$ {\rm{Attention}}\left( Q,K,V \right) = s\left( Q,K^{\rm{T}} \right) V $$ (4)

    其中,$ s\left( \cdot \right) $为计算$ Q $$ K^{\rm{T}} $的相似度函数, $K = V = $$ f_e\left( \cdot \right)$, $ Q = f_d\left( \cdot \right) $. 一般, 注意力模型可以抽象为计算输出信息$ Q $与输入信息$ \left< K,\left. V \right> \right. $的关联性.

    自注意力模型是注意力模型家族中最为广泛应用的一种. 在该模型中$K,V$与普通注意力模型一样来自于输入信息, 另一方面为了能直接捕捉到输入数据矩阵中任意两个向量的关联性, $ Q $也源于输入信息. 但注意力模型不局限于编−解码器框架, 例如, 自注意力生成对抗网络(Self-attention generative adversarial networks, SAGAN)[43]中将自注意力模型引入生成对抗网络, 不仅解决卷积结构带来的感受野大小限制, 也使得在生成图像时, 每个局部区域的生成会与全局细节相协调.

    尽管现有DSC算法在一定程度上改善了聚类性能, 但其网络结构的感受野受到限制[43], 即过大的通道数导致卷积运算难以捕捉数据不同局部间结构, 而且所学习到的数据隐特征分布无法重构具有判别性的样本. 因此, 本节提出一种基于自注意力对抗机制的深度子空间聚类算法, 在DSC网络中引入自注意力模块, 并约束数据特征分布近似于任意的先验概率.

    基于自注意力对抗的深度子空间聚类网络框架如图4所示, 为了保证在特征学习过程中长距离依赖, 我们在编码模块的最后一层卷积网络后添加一个自注意力模块. 其中自注意力模块结构如图3所示, 对前一层网络的数据通过1×1的卷积网络获得$ K,V,Q $. 将$ K $转置与$ V $相乘并经过softmax归一化得到注意力映射, 再与$ Q $点积得到最终的自注意力特征映射. 在判别网络中, 倒数第二层卷积网络中输出的通道数为1000, 由于过大的通道数会导致卷积运算很难处理不同局部间的关系, 因此我们在此处也增加一个自注意力模块.

    图 4  基于自注意力对抗的深度子空间聚类网络框架
    Fig. 4  The framework of self-attention adversarial network based deep subspace clustering
    图 3  自注意力模块
    Fig. 3  Self-attention module

    在训练生成对抗网络时, 由于判别器过于强大很容易导致输出梯度值为0, 即梯度消失, 导致没有足够的梯度信息去更新生成器. 针对生成对抗网络的梯度消失问题, 不少学者对其损失函数进行改进. Arjovsky等认为式(3)交叉熵的选择无论是KL-散度还是JS-散度都有其局限, 提出Wasserstein GAN (WGAN)[44]采用Earth-mover (EM)距离衡量两个分布距离, 并去掉了对数$ \log $运算, 其生成损失和判别损失函数分开表述如下:

    $$ \begin{split} &{\cal{L}}_{gen} = -{\mathbb{E}}_{x\sim p_{data}\left( x \right)}\left[ D\left( x \right) \right],\\ &{\cal{L}}_{dis} = {\rm{E}}_{z\sim p\left( z \right)}\left[ D\left( G\left( z \right) \right) \right] -{\rm{E}}_{x\sim p_{data}\left( x \right)}\left[ D\left( x \right) \right] \end{split} $$ (5)

    但是, 上式中每次更新判别器需要将梯度信息绝对值截断, 不超过某个固定常数来保证判别器的稳定性. 因此, WGAN-GP (Improved training of Wasserstein GANs)[45]将梯度截断作为一个梯度惩罚项加入式(7)中, 但这需要满足Lipschitz条件才能保证梯度惩罚起作用, 而Lipschitz条件又使得截断的梯度值趋向于设定的固定常数的负值边界或者正值边界. 为解决这个问题, Wu等采用Wasserstein散度的概念, 提出Wasserstein divergence for gans (WGAN-div)[46]摆脱了WGAN-GP对Lipschitz条件约束的依赖.

    综合前人研究的GAN及其变种, 我们网络中生成对抗网络部分的损失函数[46]构造如下:

    $$ {\cal{L}}_{gen} = -{\rm{E}}_{Z_g\sim {{P}}_g\left( Z_g \right)}\left[ f_D\left( Z_g \right) \right] $$ (6)
    $$ \begin{split} {\cal{L}}_{dis} =\,& {\rm{E}}_{Z_g\sim {{P}}_g\left( Z_g \right)}\left[ f_D\left( Z_g \right) \right] - {\rm{E}}_{Z_r\sim {{P}}_r\left( Z_r \right)}\left[ f_D\left( Z_r \right) \right]+ \\ & \lambda _3{\rm{E}}_{\hat{Z}\sim {{P}}\left( \hat{Z} \right)}\left[ \lVert f_D\left(\triangledown \hat{Z}\right) \rVert ^3 \right] \\[-10pt] \end{split} $$ (7)

    其中, $ Z_g = f_e\left( X \right) $为输入数据的特征表示. 如图4所示, 在生成对抗网络结构中, 编码模块可以视为一个生成模块, 用于生成特征表示.

    因此从生成对抗网络的角度看, $ Z_g $为假样本, 真样本$ Z_r $来自于一个先验分布的采样, 该先验可以服从标准高斯分布、混合高斯分布等. 将真假特征同时输入至判别器网络, 通过博弈训练使得生成器生成的特征分布结构趋向于设定的先验分布的结构, 导致解码器能够将采用自先验分布$ p(z) $的样本生成为观测数据, 从而提高特征学习的鲁棒性, 增加网络的抗干扰能力.

    式(7)中$ \hat{Z} $为真假两个样本之间随机插值, 定义为$\hat{Z} = \alpha Z_r+\left( 1-\alpha \right) Z_g,\alpha \in U\left( 0,1 \right),$并限制判别器的梯度值不会超过$ \lVert \triangledown \hat{Z} \rVert ^3 $. 由于梯度惩罚的引入使得判别器稳定输出梯度信息来更新生成器, 从而保证整个网络的稳定性.

    考虑引入了生成对抗网络, 我们对式(2)改写如下:

    $$ {\cal{L}}_c = \frac{1}{2}\lVert X-\hat{X} \rVert _{F}^{2}+\frac{\lambda _1}{2}\lVert Z_g-Z_gC \rVert _{F}^{2}+\lambda _2\lVert C \rVert _F $$ (8)

    相比于式(2), 上式中的特征表示已经过生成对抗网络优化, 具有先验分布的结构特性.

    此外, 除自注意力模块外, 我们还增加了一个残差模块来加深网络的深度. 由于残差模块是深度神经网络内部的一部分, 网络的损失函数保持不变. 引入残差模块后, 自注意力模块的输出与残差模块的输出相加作为下一个神经网络单元的输入. 其中残差模块为两个卷积核大小为3$ \times $3的卷积网络, 卷积步长为1.

    结合聚类和生成对抗机制, 网络的总体损失函数为

    $$ {\cal{L}}_{total} = {\cal{L}}_c + {\cal{L}}_{gen}+ {\cal{L}}_{dis} $$ (9)

    在训练生成对抗网络时, 通过生成损失和判别损失迭代训练来达成彼此互相更新. 因此, 首先最小化(8)的损失来获得特征表示, 然后再通过最小化判别损失和生成损失优化特征表示, 以epoch作为一个训练次数, 反复迭代训练三个损失函数达到稳定. 综上所述, 我们的网络训练步骤如下:

    输入. 数据集$ X, $ 学习率 $ \eta, $ 以及超参数$ \lambda _1, $$ \lambda _2,\lambda _3. $

    步骤 1. 依据式(8)求得特征表示$ Z_g. $

    步骤 2. 依据式(7)判断$ Z_g $$ Z_r $之间的相似性, 并由式(6)优化$ Z_g. $

    步骤 3. 依据式(8)更新$ Z_g.$

    步骤 4. 重复步骤1 ~ 步骤 3, 直到达到最大epoch值为止.

    输出. 自表示系数$ C.$

    一旦完成网络训练, 将学习到数据的相邻关系, 最后利用谱聚类对$ C $进行聚类, 获得数据的聚类结果.

    本实验是基于Python编程语言进行仿真, 操作系统为Ubuntu, 主要软件架构为TensorFlow 1.0, 配置CUDA 8.0和cuDNN 5.1, 使用4块英伟达GPU GTX 1080Ti.

    为了验证所提算法的有效性, 我们在5个公开的数据集上进行了实验, 两个手写数字数据集MNIST[47]和USPS, 一个物品数据集COIL-20[48], 一个人脸数据集Extended Yale B[49] (下文统称YaleB)以及一个衣服数据集Fashion-MNIST (下文统称FMNIST). 数据集的详细信息见表1所示.

    表 1  数据集信息
    Table 1  Information of the datasets
    数据集类别数量大小
    MNIST10100028×28
    FMNIST10100028×28
    COIL-2020144032×32
    YaleB38243248×32
    USPS10929816×16
    下载: 导出CSV 
    | 显示表格

    针对5个数据集, 我们的实验参数如表2所示. 其中, $ \lambda _1 $$ \lambda _2 $分别为对自表示项和正则化项贡献度的权重参数, 为了方便调参, 我们令$ \lambda _1 = 1 $. 此外, 在实验过程中, 我们发现式(7)中的参数$ \lambda _3 $对结果影响式微, 可能是生成对抗网络中只要存在梯度惩罚便可使网络稳定.

    表 2  参数设置
    Table 2  Parameter setting
    数据集$\lambda _1$$\lambda _2$$\lambda _3$
    MNIST10.510
    FMNIST10.0001100
    COIL-2013010
    YaleB10.0624
    USPS10.110
    下载: 导出CSV 
    | 显示表格

    实验中编码器网络结构为三层卷积网络, 解码器和编码器的网络结构对称, Fashion-MNIST编码器为一层卷积网络和三个残差模块, 解码器也保持对称, COIL-20仅用一层卷积网络, 卷积网络具体参数如表3所示.

    表 3  网络结构参数
    Table 3  Network structure parameter
    数据集卷积核大小通道数
    MNIST[5, 3, 3][10, 20, 30]
    FMNIST[5, 3, 3, 3][10, 20, 30, 40]
    COIL-20[3][15]
    YaleB[5, 3, 3][64, 128, 256]
    USPS[5, 3, 3][10, 20, 30]
    下载: 导出CSV 
    | 显示表格

    所有实验中判别器网络采用三层卷积网络, 均为1$ \times $1的卷积核, 以便增加通道的信息交互, 其通道数为[1000, 1000, 1]. 同时, 我们将自注意力模块加在判别器网络的倒数第二层以增加1000个通道特征的长距离依赖. 对于算法的预训练, 大多数以自动编码器为架构的深度聚类算法均采用了自动编码器来进行预训练. 但由于本文算法引入了生成对抗网络, 为了避免判别器初始训练过于强大而干扰特征学习, 因此我们使用对抗自动编码器(AAE)进行预训练.

    所有实验采用Adam[50]优化, 在激活函数的选择上, 除YaleB采用leaky relu外, 其他几个数据集均采用relu, 式(8)学习率设置为0.0001, 动量因子为0.9, 式(6)和(7)学习率为0.0001, 动量因子为0.9, batchsize为表1中对应的样本数量.

    为了评估我们算法的优越性, 我们采用两个常用的度量方法: 聚类精度(ACC)和标准互信息(NMI)[51]来作为聚类的效果.

    $$ {\rm{ACC{\text{%}} }} = \frac{{\text{正确的聚类样本}}}{{\text{总样本}}}\times 100{\text{%}} $$ (10)
    $$ {\rm{NMI{\text{%}} }} = \frac{2I\left( A,B \right)}{H\left( A \right) +H\left( B \right)}\times 100{\text{%}} $$ (11)

    式(11)中, $ I\left( \cdot \right) $表示为互信息, 即两个随机变量的相关程度, $ H\left( \cdot \right) $为熵, AB分别表示聚类的标签和正确标签, 其中$I\left( A,B \right) = H\left( A \right) +H\left( B \right) - $$ H\left( A,B \right)$.

    在实验中, 本文采用了与所提出算法相关的深度聚类方法进行实验结果对比, 其中包括: StructAE[52]、DASC[53]、DCN、DSC及DEC. 实验结果如表4所示, 实验数据均为重复30次的平均值, 其中加粗数字表示最优值. 因StructAE与DASC作者没有开源代码, 其实验数据为引用自原论文. 此外, 由于其没有在FMNIST和USPS上进行实验, 因此在这两个数据集上无实验数据对比. DSC在数据集YaleB、COIL-20、MNIST的实验结果引用其论文, 而在FMNIST和USPS的实验结果为我们测试所得. DEC与DCN在YaleB和COIL-20上的实验结果为我们测试, 其余引用原论文结果. 其中DEC在YaleB的实验结果过于不合理, 我们多次调节网络参数均无明显改变, 因此DEC在YaleB无测试结果, 用“*”表示.

    表 4  5个数据集的实验结果
    Table 4  Experimental results of five datasets
    数据集YaleBCOIL-20MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMIACCNMIACCNMI
    DSC-L10.96670.96870.93140.93950.72800.72170.57690.61510.69840.6765
    DSC-L20.97330.97030.93680.94080.75000.73190.58140.61330.72880.6963
    DEC**0.62840.77890.84300.80000.59000.60100.75290.7408
    DCN0.43000.63000.18890.30390.75000.74870.58670.59400.73800.7691
    StructAE0.97200.97340.93270.95660.65700.6898
    DASC0.98560.98010.96390.96860.80400.7800
    SAADSC0.98970.98560.97500.97450.95400.92810.63180.62460.78500.8134
    下载: 导出CSV 
    | 显示表格

    表4可看出, 我们算法在ACC和NMI指标上均优于其他6个深度聚类算法, 通过DSC-L1、DSC-L2和我们算法结果对比可看出经过自注意力生成对抗网络学习到的特征表示在聚类上可以获得更好的结果, 例如, 在MNIST数据集上, 我们的算法相比于次优DEC的ACC和NMI分别提高了0.1110和0.1281. DEC在YaleB上的结果与DCN在COIL-20上结果欠佳是因为其没有自表示结构, 没有很好地捕捉数据之间的关联性. DSC、DASC以及我们的算法均含有自表示结构, 因此在部分数据上性能要优于DEC和DCN. 为了探讨我们生成对抗网络的稳定性, 因此我们对MNIST的训练损失可视化. 如图5所示, 可看出生成损失和判别损失存在对称性, 表明式(5)中的梯度惩罚项是的网络中生成器和判别器的相互博弈均衡, 不存在一方过于强大的现象. 此外, 本文算法的网络训练损失曲线呈现逐渐下降的走势, 且最终趋向平缓, 表明在自表示系数学习过程中, 网络稳定, 损失函数收敛, 并没有因生成对抗损失的引入导致存在不稳定现象. 此外DSC网络中相较于SAADSC没有自注意力模块和对抗网络, 我们选择了DSC-L2的结果进行对比, 可发现增加自注意力模块和对抗网络后, 算法在聚类精度和标准互信息上均有所提高.

    图 5  MNIST的网络训练损失
    Fig. 5  The loss function of SAADSC during training on MNIST

    为了探讨不同先验分布对结果的影响, 我们选择三种不同的分布在三个数据集上进行实验对比. 如表5所示, 高斯分布取得最优的结果, 这是因为当样本容量无限大的时候, 数据的样本分布趋向于高斯分布. 其次, 高斯分布的熵值很大, 当数据分布未知时选择熵值最大的模型效果会更好.

    表 5  不同先验分布的实验结果
    Table 5  Clustering results on different prior distributions
    数据集MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMI
    高斯分布0.95400.92810.63180.62460.78500.8134
    伯努利分布0.93200.90430.60800.59900.77550.7917
    确定性分布0.86700.83620.55800.57900.77960.7914
    下载: 导出CSV 
    | 显示表格

    为了评估所提出网络中每个模块的作用, 我们分别对其进行测试, Test1表示去掉自注意力模块及残差模块后的网络; Test2为去掉自表示层的网络, 通过谱聚类算法对$ C = Z_g^{\rm{T}}Z_g $构成的邻接矩阵进行聚类; Test3为排除自表示层后使用$K$-means对$ Z_g $聚类; Test4排除了网络中残差模块. 实验结果如表6所示, 我们可以看出残差模块对网络贡献力度最小, 自表示层作用最大, 其次是自注意力模块. 由于自表示层构建数据之间的线性表示, 通过自表示层获得的系数矩阵反映了类内数据的关联性和类间数据的不相关性.

    表 6  SAADSC网络中不同模块的作用
    Table 6  Ablation study on SAADSC
    数据集YaleBCOIL-20MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMIACCNMIACCNMI
    Test10.97250.96720.93820.94930.88200.86040.60800.61100.77480.7838
    Test20.07110.09610.42290.62630.64200.59400.53800.49170.61050.5510
    Test30.08430.12220.69930.78550.66100.67630.61400.59220.38260.3851
    Test40.97820.97020.96830.97410.95000.92750.62110.61430.78500.7986
    DSC-L20.97330.97030.93680.94080.75000.73190.58140.61330.72880.6963
    SAADSC0.98970.98560.97500.97450.95400.92810.63180.62460.78500.8134
    下载: 导出CSV 
    | 显示表格

    另外, 为了测试我们的特征表示相比于深度子空间聚类算法是否更具有鲁棒性, 针对COIL-20和USPS数据集我们进行了噪声测试. 具体而言, 将对应百分比的像素点替换为随机的高斯噪声, 采用算法DSC-L1、DSC-L2和DASC进行对比, 因DASC代码没开源, 因此其在USPS噪声实验中, 无对比数据. 且由于DASC采取柱状图进行对比, 因此表7中COIL-20的实验数据为对其论文柱状图的近似估计. 其余均为测试结果. 实验结果如表7表8所示. 可看出, DSC-L1和DSC-L2随着噪声越大结果下降越明显, 而DASC和SAADSC由于引入生成对抗网络使得算法具有抗干扰能力. 相较于DASC, 我们的网络的自注意力机制会在生成对抗学习过程中起到积极作用, 从而提升了算法的抗干扰能力.

    表 7  含有噪声的COIL-20聚类结果
    Table 7  Clustering results on the noisy COIL-20
    算法SAADSCDSC-L1DSC-L2DASC
    度量方法ACCNMIACCNMIACCNMIACCNMI
    无噪声0.97500.97450.93140.93530.93680.94080.96390.9686
    10%噪声0.95900.97060.87510.89760.87140.91070.90210.9392
    20%噪声0.91110.95930.81790.87360.82860.88570.86070.9193
    30%噪声0.87080.96380.79890.85710.80720.87840.83570.9143
    40%噪声0.85690.92720.67860.78570.72500.81870.78050.8753
    下载: 导出CSV 
    | 显示表格
    表 8  含有噪声的USPS聚类结果
    Table 8  Clustering results on the noisy USPS
    算法SAADSCDSC-L1DSC-L2
    度量方法ACCNMIACCNMIACCNMI
    无噪声0.78500.81340.69840.67650.72880.6963
    10%噪声0.77780.79710.67040.64280.65620.6628
    20%噪声0.77570.79010.66670.61580.65300.6429
    30%噪声0.77190.78440.63860.59870.64540.6394
    40%噪声0.76740.77500.60420.57520.63510.6164
    下载: 导出CSV 
    | 显示表格

    针对现实数据结构复杂、如何获得更鲁棒的数据表示以便改善聚类性能问题, 本文提出一种基于对抗训练的深度子空间聚类, 利用对抗网络的博弈学习能力使得编码器网络学习到的特征表示服从预设定的先验分布特性, 而且引入自注意力机制和残差网络模块, 来增强特征学习的鲁棒性, 从而提升聚类性能. 实验结果表明, 本文算法结在精确率(ACC)和标准互信息(NMI)等指标上都优于目前最好的方法.

  • 图  1  深度子空间聚类网络结构图

    Fig.  1  The framework of Deep Subspace Clustering

    图  2  生成对抗网络结构图

    Fig.  2  The framework of generative adversarial networks

    图  4  基于自注意力对抗的深度子空间聚类网络框架

    Fig.  4  The framework of self-attention adversarial network based deep subspace clustering

    图  3  自注意力模块

    Fig.  3  Self-attention module

    图  5  MNIST的网络训练损失

    Fig.  5  The loss function of SAADSC during training on MNIST

    表  1  数据集信息

    Table  1  Information of the datasets

    数据集类别数量大小
    MNIST10100028×28
    FMNIST10100028×28
    COIL-2020144032×32
    YaleB38243248×32
    USPS10929816×16
    下载: 导出CSV

    表  2  参数设置

    Table  2  Parameter setting

    数据集$\lambda _1$$\lambda _2$$\lambda _3$
    MNIST10.510
    FMNIST10.0001100
    COIL-2013010
    YaleB10.0624
    USPS10.110
    下载: 导出CSV

    表  3  网络结构参数

    Table  3  Network structure parameter

    数据集卷积核大小通道数
    MNIST[5, 3, 3][10, 20, 30]
    FMNIST[5, 3, 3, 3][10, 20, 30, 40]
    COIL-20[3][15]
    YaleB[5, 3, 3][64, 128, 256]
    USPS[5, 3, 3][10, 20, 30]
    下载: 导出CSV

    表  4  5个数据集的实验结果

    Table  4  Experimental results of five datasets

    数据集YaleBCOIL-20MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMIACCNMIACCNMI
    DSC-L10.96670.96870.93140.93950.72800.72170.57690.61510.69840.6765
    DSC-L20.97330.97030.93680.94080.75000.73190.58140.61330.72880.6963
    DEC**0.62840.77890.84300.80000.59000.60100.75290.7408
    DCN0.43000.63000.18890.30390.75000.74870.58670.59400.73800.7691
    StructAE0.97200.97340.93270.95660.65700.6898
    DASC0.98560.98010.96390.96860.80400.7800
    SAADSC0.98970.98560.97500.97450.95400.92810.63180.62460.78500.8134
    下载: 导出CSV

    表  5  不同先验分布的实验结果

    Table  5  Clustering results on different prior distributions

    数据集MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMI
    高斯分布0.95400.92810.63180.62460.78500.8134
    伯努利分布0.93200.90430.60800.59900.77550.7917
    确定性分布0.86700.83620.55800.57900.77960.7914
    下载: 导出CSV

    表  6  SAADSC网络中不同模块的作用

    Table  6  Ablation study on SAADSC

    数据集YaleBCOIL-20MNISTFMNISTUSPS
    度量方法ACCNMIACCNMIACCNMIACCNMIACCNMI
    Test10.97250.96720.93820.94930.88200.86040.60800.61100.77480.7838
    Test20.07110.09610.42290.62630.64200.59400.53800.49170.61050.5510
    Test30.08430.12220.69930.78550.66100.67630.61400.59220.38260.3851
    Test40.97820.97020.96830.97410.95000.92750.62110.61430.78500.7986
    DSC-L20.97330.97030.93680.94080.75000.73190.58140.61330.72880.6963
    SAADSC0.98970.98560.97500.97450.95400.92810.63180.62460.78500.8134
    下载: 导出CSV

    表  7  含有噪声的COIL-20聚类结果

    Table  7  Clustering results on the noisy COIL-20

    算法SAADSCDSC-L1DSC-L2DASC
    度量方法ACCNMIACCNMIACCNMIACCNMI
    无噪声0.97500.97450.93140.93530.93680.94080.96390.9686
    10%噪声0.95900.97060.87510.89760.87140.91070.90210.9392
    20%噪声0.91110.95930.81790.87360.82860.88570.86070.9193
    30%噪声0.87080.96380.79890.85710.80720.87840.83570.9143
    40%噪声0.85690.92720.67860.78570.72500.81870.78050.8753
    下载: 导出CSV

    表  8  含有噪声的USPS聚类结果

    Table  8  Clustering results on the noisy USPS

    算法SAADSCDSC-L1DSC-L2
    度量方法ACCNMIACCNMIACCNMI
    无噪声0.78500.81340.69840.67650.72880.6963
    10%噪声0.77780.79710.67040.64280.65620.6628
    20%噪声0.77570.79010.66670.61580.65300.6429
    30%噪声0.77190.78440.63860.59870.64540.6394
    40%噪声0.76740.77500.60420.57520.63510.6164
    下载: 导出CSV
  • [1] Aggarwal C C. An Introduction to Data Classification. Data Classification: Algorithms and Applications, 2014, 125(3): 142$-$147
    [2] RMacQueen J. Some methods for classification and analysis of multivariate observations. In: Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability. 1967, 1(14): 281−297
    [3] Johnson S C. Hierarchical clustering schemes. Psychometrika, 1967, 32(3): 241-254. doi: 10.1007/BF02289588
    [4] Ng A Y, Jordan M I, Weiss Y. "On spectral clustering: Analysis and an algorithm." Advances in Neural Information Processing Systems. 2002.
    [5] Basri R, Jacobs D W. Lambertian reflectance and linear subspaces. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(2): 218-233. doi: 10.1109/TPAMI.2003.1177153
    [6] Agrawal R, Gehrke J, Gunopulos D, Raghavan P. Automatic subspace clustering of high dimensional data. Data Mining and Knowledge Discovery, 2005, 11(1): 5-33. doi: 10.1007/s10618-005-1396-1
    [7] 王卫卫, 李小平, 冯象初, 王斯琪. 稀疏子空间聚类综述. 自动化学报, 2015, 41(8): 1373-1384.

    Wang Wei-Wei, Li Xiao-Ping, Feng Xiang-Chu, Wang Si-Qi. A survey on sparse subspace clustering. Acta Automatica Sinica, 2015, 41(8): 1373-1384.
    [8] Bradley P S, Mangasarian O L. K-plane clustering. Journal of Global Optimization, 2000, 16(1): 23-32. doi: 10.1023/A:1008324625522
    [9] Gear C W. Multibody grouping from motion images. International Journal of Computer Vision, 1998, 29(2): 133-150. doi: 10.1023/A:1008026310903
    [10] Yang A Y, Rao S R, Ma Y. Robust statistical estimation and segmentation of multiple subspaces. In: Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition Workshop (CVPRW'06). IEEE, 2006.
    [11] Elhamifar E, Vidal R. Sparse subspace clustering. In: Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2009: 2790−2797
    [12] Liu G, Lin Z, Yu Y. Robust subspace segmentation by low-rank representation. In: Proceedings of the 27th International Conference on Machine Learning (ICML-10). 2010: 663−670
    [13] Luo D, Nie F, Ding C, Huang H. Multi-subspace representation and discovery. Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer, Berlin, Heidelberg, 2011: 405−420
    [14] Zhuang L, Gao H, Lin Z, Ma Y, Zhang X, Yu N. Non-negative low rank and sparse graph for semi-supervised learning. In: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2012: 2328−2335
    [15] Kang Z, Zhao X, Peng C, Zhu H, Zhou J T, Peng X, et al. Partition level multiview subspace clustering. Neural Networks, 2020, 122: 279-88. doi: 10.1016/j.neunet.2019.10.010
    [16] Kang Z, Pan H, Hoi S C, Xu Z. Robust graph learning from noisy data. IEEE Transaction on Cybernetics. 2019: 1833-1843.
    [17] 周林, 平西建, 徐森, 张涛. 基于谱聚类的聚类集成算法. 自动化学报, 2012, 38(8): 1335-1342. doi: 10.3724/SP.J.1004.2012.01335

    Zhou Lin, Ping Xi-Jian, Xu Sen Zhang Tao al. Cluster Ensemble Based on Spectral Clustering. Acta Automatica Sinica, 2012, 38(8): 1335-1342. doi: 10.3724/SP.J.1004.2012.01335
    [18] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors. Nature, 1986, 323(6088): 533-536. doi: 10.1038/323533a0
    [19] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7): 1527-1554. doi: 10.1162/neco.2006.18.7.1527
    [20] Vincent P, Larochelle H, Bengio Y, Manzagol P A. Extracting and composing robust features with denoising autoencoders. In: Proceedings of the 25th International Conference on Machine Learning. 2008: 1096−1103
    [21] Bengio Y, Lamblin P, Popovici D, Larochelle H. Greedy layer-wise training of deep networks. Advances in Neural Information Processing Systems. 2007: 153-160.
    [22] Masci J, Meier U, Ciresan D, Schmidhuber J. Stacked convolutional auto-encoders for hierarchical feature extraction. In: Proceedings of the International Conference on Artificial Neural Networks, pages 52−59. Springer, 2011
    [23] Yang B, Fu X, Sidiropoulos N D, Hong, M. Towards k-means-friendly spaces: Simultaneous deep learning and clustering. In: Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017: 3861−3870
    [24] Shah S A, Koltun V. Deep continuous clustering [Online]. available: https://arxiv.org/abs/1803.01449, March 5, 2018.
    [25] Xie J, Girshick R, Farhadi A. Unsupervised deep embedding for clustering analysis. In: Proceedings of the 36th International Conference on Machine Learning (ICML). 2016: 478−487
    [26] Ren Y, Wang N, Li M. and Xu Z. Deep density-based image clustering. Knowledge-Based Systems. 2020: 105841.
    [27] Ren Y, Hu K, Dai X, Pan L, Hoi S C, Xu Z. Semi-supervised deep embedded clustering. Neurocomputing. 2019, 325: 121-30. doi: 10.1016/j.neucom.2018.10.016
    [28] Yang J, Parikh D, Batra D. Joint unsupervised learning of deep representations and image clusters. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016: 5147−5156
    [29] Cho k, Van M B, Bahdanau D, Bengio Y. On the properties of neural machine translation: Encoder–decoder approaches. In: Proceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, pages 103−111, Doha, Qatar, October 2014. ACL.
    [30] Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. In: Proceedings of SSST-8 Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, 2014.
    [31] Xiao T, Xu Y, Yang K, Zhang J, Peng Y, Zhang Z. The application of two-level attention models in deep convolutional neural network for fine-grained image classification. In: Proceedings of the IEEE conference on computer vision and pattern recognition(CVPR). 2015: 842−850
    [32] Xu K, Ba J, Kiros R, Cho K, Courville A, Salakhudinov R, et al. Show, attend and tell: Neural image caption generation with visual attention. In: Proceedings of the 35th International Conference on Machine Learning (ICML). 2015: 2048−2057
    [33] Cheng J, Dong L, Lapata M. Long short-term memory-networks for machine reading. In: Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2016
    [34] Luong M T, Pham H, Manning C D. Effective approaches to attention-based neural machine translation. In: Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2015.
    [35] Goodfellow I, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the Neural Information Processing Systems (NIPS). 2014: 2672−2680
    [36] Chen X, Duan Y, Houthooft R, Schulman J, Sutskever I, Abbeel P. Infogan: Interpretable representation learning by information maximizing generative adversarial nets. In: Proceedings of the Neural Information Processing Systems (NIPS). 2016: 2172−2180
    [37] Mukherjee S, Asnani H, Lin E, Kannan S. Clustergan: Latent space clustering in generative adversarial networks. In: Proceedings of the AAAI Conference on Artificial Intelligence. 2019, 33: 4610−4617
    [38] Makhzani A, Shlens J, Jaitly N, Goodfellow I, Frey B. Adversarial autoencoders [Online]. available: https://arxiv.org/abs/1511.05644, May 25, 2015.
    [39] Ji P, Salzmann M, Li H. Efficient dense subspace clustering. IEEE Winter Conference on Applications of Computer Vision. IEEE, 2014: 461−468
    [40] Ji P, Zhang T, Li H, Salzmann M, Reid I. Deep subspace clustering networks. In: Proceedings of the Neural Information Processing Systems (NIPS). 2017: 24−33
    [41] 王坤峰, 苟超, 段艳杰, 林懿伦, 郑心湖, 王飞跃. 生成式对抗网络GAN的研究进展与展望. 自动化学报, 2017, 43(3): 321$-$332

    Wang Kun-Feng, Gou Chao, Duan Yan-Jie, Lin Yi-Lun, Zheng Xin-Hu, Wang Fei-Yue. Generative Adversarial Networks: The State of the Art and Beyond. Acta Automatica Sinica, 2017, 43(3): 321$-$332
    [42] Kingma D P, Welling M. Auto-encoding variational Bayes. In Proceedings of the International Conference on Learning Representations (ICLR), 2014
    [43] Zhang H, Goodfellow I, Metaxas D, Odena A. Self-attention generative adversarial networks. In: Proceedings of the 36th International Conference on Machine Learning (ICML), Long Beach, California, USA: PMLR 97, 2019. 7354−7363
    [44] Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. In: Proceedings of the International Conference on Machine Learning (ICML), 2017. 214−223
    [45] Gulrajani I, Ahmed F, Arjovsky M, Dumoulin V, Courville A C. Improved training of wasserstein GANs. In: Proceedings of the Neural Information Processing Systems (NIPS). 2017: 5767−5777
    [46] Wu J, Huang Z, Thoma J, Acharya D, Van G L. Wasserstein divergence for gans. In: Proceedings of the European Conference on Computer Vision (ECCV). 2018: 653−668
    [47] LeCun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to document recognition. In: Proceedings of the IEEE, 1998, 86(11): 2278−2324
    [48] Nene S A, Nayar S K, Murase H. Columbia object image library (coil-20). 1996.
    [49] Lee K C, Ho J, Kriegman D J. Acquiring linear subspaces for face recognition under variable lighting. IEEE Transactions on pattern analysis and machine intelligence, 2005, 27(5): 684-698. doi: 10.1109/TPAMI.2005.92
    [50] Kingma D P, Ba J. Adam: A method for stochastic optimization. In Proceedings of the International Conference on Learning Representations (ICLR), 2015.
    [51] Xu W, Liu X, Gong Y. Document clustering based on non-negative matrix factorization. In: Proceedings of the 26th Annual International ACM SIGIR Conference on Research and Development in Informaion Retrieval. 2003: 267−273
    [52] Peng X, Feng J, Xiao S, Yau W Y, Zhou J T, Yang S. Structured autoencoders for subspace clustering. IEEE Transactions on Image Processing, 2018, 27(10): 5076-5086. doi: 10.1109/TIP.2018.2848470
    [53] Zhou P, Hou Y, Feng J. Deep adversarial subspace clustering. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2018: 1596−1604.
  • 期刊类型引用(6)

    1. 王清,赵杰煜,叶绪伦,王弄潇. 统一框架的增强深度子空间聚类方法. 计算机应用. 2024(07): 1995-2003 . 百度学术
    2. 李猛,刘姿邑,宋宇航. 基于双重自表达与最大熵原理的深度子空间聚类算法. 计算机工程与科学. 2024(09): 1685-1692 . 百度学术
    3. 赵晓佳,徐婷婷,陈勇勇,徐勇. 基于一步张量学习的多视图子空间聚类. 自动化学报. 2023(01): 40-53 . 本站查看
    4. 罗辉,韩纪庆. 基于灵活平衡约束的图聚类方法. 自动化学报. 2023(04): 778-789 . 本站查看
    5. 段一琛,申晓红,王海燕,闫永胜. 无监督时频信息结合的舰船辐射噪声信号抗诱饵干扰方法. 兵工学报. 2023(09): 2722-2731 . 百度学术
    6. 衣俊艳,贺树辉. 引入特征选择初始化策略的弹性网络聚类算法. 小型微型计算机系统. 2023(11): 2493-2501 . 百度学术

    其他类型引用(15)

  • 加载中
图(5) / 表(8)
计量
  • 文章访问数:  2270
  • HTML全文浏览量:  888
  • PDF下载量:  317
  • 被引次数: 21
出版历程
  • 收稿日期:  2020-05-12
  • 网络出版日期:  2022-01-25
  • 刊出日期:  2022-01-25

目录

/

返回文章
返回