-
摘要:
基于自表示子空间聚类的多视图聚类引起越来越多的关注. 大多数现有算法假设每个样本的所有视图都可获得, 然而在实际应用中, 由于各种因素, 可能会导致某些视图缺失. 为了对视图不完整数据进行聚类, 本文提出了一种在统一框架下同时执行缺失视图补全和多视图子空间聚类的方法. 具体地, 缺失视图是由已观测视图数据约束的隐表示生成的. 此外, 多秩张量应用于挖掘不同视图之间的高阶相关性. 这样通过隐表示和高阶张量同时挖掘了不同视图以及所有样本(即使是不完整视图样本)之间的相关性. 本文使用增广拉格朗日交替方向最小化(AL-ADM)方法求解优化问题. 在真实数据集上的实验结果表明, 我们的方法优于最新的多视图聚类算法, 具有更好的聚类准确度和鲁棒性.
Abstract:There has been a growing interest in multi-view clustering over self-representation-based subspace clustering. Most existing algorithms assume that all views for each sample are available. However, in real applications, some views may be missing which produces data with partial views. To cluster the incomplete data, we propose a generative model to simultaneously perform view imputation and multi-view subspace clustering in a unified framework. Specifically, the missing views are generated by a latent representation which is constrained by the observed views. Moreover, multi-rank tensor is employed to explore the higher-order correlations across different views. In this way, the correlations across different views and all samples even with incomplete views are simultaneously explored by the latent representation and high-order tensor. We solve the optimization problem by using augmented Lagrangian alternating direction minimization (AL-ADM) method. Experimental results on real-world datasets demonstrate the superior performance and robustness of our method over state-of-the-art multi-view clustering algorithms.
-
Key words:
- View missing /
- multi-view clustering /
- tensor /
- generative model
-
在实际应用中, 数据通常从不同的角度采集, 称为多视图数据[1-2]. 多视图学习研究[2-7]表明, 有效利用不同视图之间的一致性和互补性可以显著提高任务(如多视图聚类/分类)性能. 在聚类方面, 已有大量的研究将单视图聚类扩展到多视图聚类. 在这些方法中, 基于自表示的多视图子空间聚类[8-12]方法通过可学习的关系矩阵处理复杂的高维数据, 取得了显著效果. 最近,一些相关研究[13-15]将谱聚类和自表示关系图联合优化, 进一步提高多视图融合效果.
尽管基于自表示的多视图子空间聚类技术已经引起了人们的广泛关注, 并取得了很好的性能, 但是这些方法只适用于具有完整视图的数据, 不能处理具有缺失视图的数据. 对于视图缺失的情况, 现有的方法大多是先对缺失值进行补全, 然后对后续任务应用传统的多视图学习算法. 广泛使用的数据补全方法之一是矩阵补全[16-17], 它基于低秩假设,对于随机缺失情况具有较好的效果. 基于深度学习的补全方法[18-22]通常通过将问题建模为视图转换, 从可用视图生成缺失视图. 这些方法侧重于缺失视图的填充, 而不是具体的分析任务(如聚类), 因此不能保证后续任务的性能. 现有的不完整多视图聚类方法[23-25]没有考虑与缺失视图对应的(互补)信息的一致性, 因此在挖掘不同视图之间的相关性时缺乏合理性和鲁棒性.
上述解决视图缺失问题的方法主要有以下局限性: 1)对于具有任意视图缺失模式的数据样本, 当前的补全方法通常不够灵活.此外, 对于具有较多视图的数据, 视图缺失模式(即可用视图的组合)将变得更加复杂, 这将导致大多数现有视图补全方法无法使用; 2)现有缺失视图聚类方法没有有效地利用多个视图之间的高阶相关性[8-9, 11]. 为了解决上述问题, 本文提出了一种新颖的多视图聚类方法, 它可以同时补全缺失的数据和探索多个视图之间的高阶相关性. 所提模型的框架如图1所示.
图 1 同时用$P(X|H)$ 对隐空间$H$ 进行建模, 并基于隐表示生成完整特征. 根据完整的数据, GM-PMVC将子空间表示集成到一个张量中, 可以挖掘多视图数据高阶相关性Fig. 1 Illustration of generative model for partial multi-view clustering (GM-PMVC). Given incomplete multi-view data, we simultaneously model latent space$H$ by$P(X|H)$ and generate complete feature based on latent representation. According to the completed data, GM-PMVC integrates subspace representation into a tensor which can effectively explores higher-order correlations equipped with low-rank constraint本文的贡献总结如下: 1) 针对不完整视图数据, 提出了一种新的多视图子空间聚类算法, 该算法能够在统一的框架下补全缺失数据并进行多视图聚类. 因此, 数据补全和聚类可以迭代地相互促进; 2) 与现有的不完整多视图聚类算法相比, 该算法能够灵活地处理具有任意视图缺失模式的数据, 并利用生成模型和高阶张量充分挖掘不同视图之间的相关性; 3) 利用增广拉格朗日交替方向最小化(AL-ADM)方法对算法进行了有效的优化, 并在不同的数据集上进行了充分实验. 结果表明, 在不同的缺失率下, 该算法比现有算法具有更好的性能.
1. 张量奇异值分解(t-SVD)及其核范数(t-TNN)
本文所使用的主要符号和定义. 如表1所示:
表 1 符号与定义Table 1 Notations and definitions$b$ 标量 $B$ 矩阵 ${\boldsymbol{b}}$ 向量 ${\cal{B}}$ 张量 ${\cal{I}}$ 单位张量 $fft$ 快速傅里叶变换 ${\cal{B}}_{ijk}$ 张量${\cal{B}}$第$(i,j,k)$元素 ${\cal{Q}}$ 正交张量 ${\cal{B}}(i,:,:)$ 第$i$水平切片 ${\cal{B}}^{\rm T}$ ${\cal{B}}$的转置 ${\cal{B}}(:,i,:)$ 第$i$侧面切片 ${\cal{B}}_{f}$ $fft({\cal{B}},[],3)$ ${\cal{B}}(:,:,i)$ 第$i$正面切片 $B^{(i)}$ ${\cal{B}}(:,:,i)$ $||B||_{F}$ $\sqrt{\sum\nolimits_{i,j}|B_{ij}|^{2}}$ $||B||_{*}$ 矩阵$B$奇异值之和 $||{\cal{B}}||_{F}$ $\sqrt{\sum\nolimits_{i,j,k}|{\cal{B}}_{ijk}|^{2}}$ $||{\cal{B}}||_{1}$ $\sum\nolimits_{i,j,k}|{\cal{B}}_{ijk}|$ 为了引入t-SVD和其产生的张量核范数, 本文首先介绍相关的张量操作. 具体地, 假设对于任意三阶张量表示为
$ {\cal{B}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}} $ , 则其块循环矩阵可以表示为:$$bcirc({\cal{B}}) = \left[ \begin{smallmatrix} B^{(1)} & B^{(n3)} & \cdots & B^{(2)} \\ B^{(2)} & B^{(1)} & \cdots & B^{(3)} \\ \vdots & \ddots & \ddots & \vdots \\ B^{(n3)} & B^{(n3-1)} & \cdots & B^{(1)} \end{smallmatrix} \right] \in {\bf R}^{n_{1}n_{3} \times n_{2}n_{3}} $$ (1) 块对角化矩阵及其逆过程可以定义为:
$$ bdiag({\cal{B}}) \!=\! \left[\! \begin{smallmatrix} B^{(1)} & & & \\ &B^{(2)} & & \\ & & \ddots & \\ & & & B^{(n3)} \end{smallmatrix} \!\right], bdfold(bdiag({\cal{B}})) \!=\! {\cal{B}} $$ (2) 张量展开
$ unfold(\cdot) $ 及其逆过程$ fold(\cdot) $ 定义为:$$ unfold({\cal{B}}) = \left[ \begin{smallmatrix} B^{(1)}\\ B^{(2)}\\ \vdots\\ B^{(n3)} \end{smallmatrix} \right] , fold(unfold({\cal{B}})) = {\cal{B}} $$ (3) 为了简明表示, 相关定义如下:
定义 1. 张量积 (t-product): 张量
${\cal{B}} \in $ $ {\bf R}^{n_{1} \times n_{2} \times n_{3}}$ 和$ {\cal{C}} \in {\bf R}^{n_{2} \times n_{4} \times n_{3}} $ 之间的张量积可以定义为${\cal{S}} \!=\! {\cal{B}}*{\cal{C}} \!=\! fold\{bcirc({\cal{B}})unfold({\cal{C}})\} \!\in \!{\bf R}^{n_{1} \times n_{4} \times n_{3}}$ .由于空间域的卷积运算等于频域的点积运算, 根据循环矩阵乘法(即循环卷积)的性质, 自然可以利用快速傅立叶变换(FFT)来优化张量积的运算速度.
定义 2. 正交张量 (Orthogonal tensor): 张量
$ {\cal{Q}} \in {\bf R}^{n_{1} \times n_{1} \times n_{3} } $ 是对角的, 当且仅当$$ {\cal{Q}}^{\rm T}*{\cal{Q}} = {\cal{Q}}*{\cal{Q}}^{\rm T} = {\cal{I}} $$ (4) 其中,
$ {\cal{I}} \in {\bf R}^{n_{1} \times n_{1} \times n_{3}} $ 是单位张量,其满足第一个正面的切片是$ n_{1} \times n_{1} $ 单位矩阵并且其他正面切片的元素全为0. (不失一般性, 张量$ {\cal{P}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}} $ 的转置为$ n_{2} \times n_{1} \times n_{3} $ , 其计算过程为先转置$ {\cal{P}} $ 的每一个正面的切片, 然后将第2到$ n_{3} $ 的正面切片在张量中的顺序颠倒).定义 3. 张量奇异值分解 (t-SVD)[26]: 给定一个张量
$ {\cal{B}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}} $ , t-SVD可以表示为${\cal{B}} = {\cal{U}}* $ $ {\cal{S}}*\mathcal{V}^{\rm T},$ 其中$ {\cal{U}} \in {\bf R}^{n_{1} \times n_{1} \times n_{3}} ,$ $ \mathcal{V} \in {\bf R}^{n_{2} \times n_{2} \times n_{3}} $ 均是对角的,$ {\cal{S}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}} $ 是f 对角. 其中, 如果一个张量是f 对角的, 那么其每个正面切片都是对角的.定义 4. 张量多秩 (Tensor multi-rank): 张量
$ {\cal{B}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}} $ 的多秩是一个向量$ {\pmb p} $ , 其第$ i $ 个元素为$ {\cal{B}}_{f} $ 的第$ i $ 正面切片的秩.基于t-SVD的张量核范数(t-TNN)定义为
$$ ||{\cal{B}}||_{*} = \sum\limits_{i = 1}^{\min(n_{1},n_{2})}\sum\limits_{k = 1}^{n_{3}}{|{\cal{S}}_{f}(i,i,k)|} $$ (5) 其中
$ {\cal{S}}_{f} $ 可以通过算法1中的快速傅里叶变换获得. 张量多秩被证明是一种有效的范数, 是张量多秩的$ l_1 $ 范数的最紧凸松弛[27-28].2. 生成式不完整多视图聚类模型
在本节中将首先引入生成模型来估算部分数据的缺失视图, 然后在完整数据的基础上进一步引入多秩张量来建模不同视图之间潜在的高阶相关性.
所提算法是基于子空间聚类的, 对于高维数据, 由于它能够恢复低维数据的子空间结构, 因此非常有效. 其基本假设是每个数据点可以通过所有数据点的线性组合来重建. 它的工作原理是构造一个关系矩阵来编码数据的“自表示”. 给定从多个子空间(簇)采集的N个数据样本
${\boldsymbol{X}} = [{\boldsymbol{x}}_{1}, \cdots, {\boldsymbol{x}}_{N}]\in {\bf R}^{D \times N}$ , 子空间聚类的形式可以表示为:$$ \min\limits_{{Z}}{{\cal{L}}({{\boldsymbol{X}}}, {{\boldsymbol{X}}}{Z})+\lambda\Theta({Z})} $$ (6) 其中
$ {\cal{L}}(\cdot,\cdot) $ 和$ \Theta(\cdot) $ 分别表示为数据重建损失和关系矩阵$ {Z} $ 的正则项, 而$ \lambda $ 是平衡这两项的超参数. 在获得自表示关系矩阵$ {Z} $ 后, 可以更进一步得到用来做谱聚类的相似度矩阵${S} = \dfrac{1}{2}(|{Z}|+|{Z}^{\rm T}|)$ .2.1 多视图生成模型
给定一组来自
$ V $ 个视图的$ N $ 个样本, 表示为$ {X}^{(v)} = \{{\boldsymbol{x}}^{(v)}_i\}^{N}_{i = 1} \in {\bf R}^{d_{v} \times N} $ , 其中$ d_{v} $ 是第$ v $ 个视图数据的维度. 考虑视图缺失的复杂情况(即任意的$ {\boldsymbol{x}}_i^{(v)} $ 可能缺失, 其中$ i \in [1, N] $ 且$ v \in [1, V] $ ), 为第$ v $ 个视图引入0/1对角指示矩阵$ \Omega^{(v)}\in {\bf R}^{N \times N} $ 来指明数据的缺失情况. 具体地,$ \Omega^{(v)}_{ii} $ 值取0用以指示第$ v $ 个视图的第$ i $ 个样本缺失, 反之, 指示第$ v $ 个视图的第$ i $ 个样本存在,$ {X}^{(v)}\Omega^{(v)} $ 表示第$ v $ 个视图所有非缺失数据[29].与现有的直接用均值填充缺失数据或忽略重建损失中缺失值的方法不同, 本文旨在联合生成缺失数据并整体上挖掘多视图之间的相关性. 为了实现这个目标, 本文提出了一个生成模型−使用共享的隐表示
$ {\boldsymbol{h}} $ 来生成不同的视图(例如:$ {\boldsymbol{x}}^{(v)}_{i} = f_{v}({\boldsymbol{h}}_{i}) $ , 其中$ f_{v} $ 表示第$ v $ 视图转换函数). 一般来说, 给定共享的隐表示$ {\boldsymbol{h}}_{i} $ , 在假设每个视图都是条件独立的前提下对生成目标建模. 为了描述方便, 本文定义了${\cal{S}}_i = $ $ \{{\boldsymbol{x}}_{i}^{(v)}\}_{v = 1}^{V}$ , 相应地可以得到$$ P({\cal{S}}_i|{\boldsymbol{h}}_i) = \prod\limits_{v = 1}^{V}{P\left({\boldsymbol{x}}_{i}^{(v)}|{\boldsymbol{h}}_{i}\right)} $$ (7) 式(7)表示所有视图
$P\left({\boldsymbol{x}}_{i}^{(v)}|{\boldsymbol{h}}_{i}\right)$ 的联合分布. 其中, 对似然函数建模:$$ P({\boldsymbol{x}}_{i}^{(v)}|{\boldsymbol{h}}_{i}) \propto {\rm{e}}^{-\Delta({\boldsymbol{x}}_{i}^{(v)}, f_v({\boldsymbol{h}}_{i}; \Theta_v))} $$ (8) 其中
$\Delta\left({\boldsymbol{x}}_{i}^{(v)}, f_v({\boldsymbol{h}}_{i}; \Theta_v)\right)$ 表示重建损失,$ \Theta_v $ 是$ f_v(\cdot) $ 的参数. 因此, 通过假设数据服从独立同分布(IID), 可以得到如下的对数似然函数:$$ {\cal{L}}({H};\Theta) = \sum\limits_{i = 1}^{N}{\log_2 P({\cal{S}}_i|{\boldsymbol{h}}_{i})} $$ (9) 由于最大化似然函数等价于最小化损失
$ \Delta $ , 考虑到缺失的情况, 可以获得生成模型部分的以下目标函数:$$ \min\limits_{{H},\Theta}\sum\limits_{v = 1}^{V}\sum\limits_{i = 1}^{N}{\Omega^{(v)}_{ii}\Delta({\boldsymbol{x}}_i^{(v)}, f_v({\boldsymbol{h}}_{i}; \Theta_v))} $$ (10) 其中本文使用了线性映射
$ {P}^{(v)} $ 来表示转换函数. 由于数据中可能存在噪声. 本方法引入了一个误差项$ {E}_1 $ . 然后将目标函数转换为:$$\begin{split} &\min\limits_{{H}, {P}^{(v)}, {E}^{(v)}_1}\sum\limits_{v = 1}^{V}{||{E}_1^{(v)}||_{2,1}}\\ &{\rm{s.t.}}\; {X}^{(v)}\Omega^{(v)} = ({P}^{(v)}{H}+{E}_1^{(v)})\Omega^{(v)} \end{split}$$ (11) $ ||\cdot||_{2,1} $ 表示重建误差项$ {E}^{(v)}_1 $ 的$ l_{2,1} $ 范数,$||{E}^{(v)}_1||_{2,1} = $ $ \displaystyle \sum\nolimits_{j = 1}^{N}\sqrt{\displaystyle \sum\nolimits_{i = 1}^{N}{E}_{ij}^2}$ 期望误差项$ {E}^{(v)}_1 $ 的列趋于零[30].2.2 总体目标函数
实际上, 应该计算每个视图中每个样本对之间的相似性. 然而, 视图不完整的情况导致无法计算完整的相似度矩阵. 通过引入隐表示
$ {\boldsymbol{h}} $ , 可以动态生成缺失的视图, 从而使得每个样本具有完整的视图. 相应地, 利用基于低秩张量约束的子空间聚类来构造样本对之间的关系. 相应地, 目标函数如下:$$ \begin{split} &\min{||{\cal{Z}}||_{*}+\sum\limits^{V}_{v = 1}(\lambda_{1}||{E}^{(v)}_{1}||_{2,1}+\lambda_{2}||{E}^{(v)}_{2}||_{2,1})}\\ &{\rm{s.t.}}\; {X}^{(v)}\Omega^{(v)} = ({P}^{(v)}{H}+{E}^{(v)}_{1})\Omega^{(v)}\\ &{P}^{(v)}{H}+{E}^{(v)}_1 = ({P}^{(v)}{H}+{E}^{(v)}_1){Z}^{(v)}+{E}^{(v)}_{2}\\ &{\cal{Z}} = \delta({Z}^{(1)},{Z}^{(2)},\cdots,{Z}^{(V)}) \end{split}$$ (12) 其中
$ {Z}^{(v)} $ 和$ {E}^{(v)}_2 $ 分别对应第$ v $ 个视图的子空间自表示矩阵和误差矩阵.$ \lambda_{1},\lambda_{2} $ 为超参数. 更进一步, 函数$ \delta $ 将所有关系矩阵$ {Z}^{(v)} $ 拼接为一个三阶张量,$ ||{\cal{Z}}||_{*} $ 表示张量多秩的低秩约束(见定义4).为了使所提的目标可解, 本文引入中间变量
$ {\cal{G}} $ 替代$ {\cal{Z}} $ ,$ {X}^{(v)}_{c} $ 表示生成的完整数据. 因此, 可得无约束目标函数:$$ \begin{split} {\cal{L}}_{\mu>0}&(\{{X}_{c}^{(v)};{P}^{(v)};{Z}^{(v)};{E}^{(v)}_{1};{E}^{(v)}_{2}\}_{v = 1}^{V};{H};{\cal{G}}) = \\ &||{\cal{G}}||_{*}+\sum\limits^{V}_{v = 1}\{\lambda_{1}||{E}^{(v)}_{1}||_{2,1}+\lambda_{2}||{E}^{(v)}_{2}||_{2,1}+\\ &\phi({Y}^{(v)}_{1}, {X}^{(v)}_{c}-{P}^{(v)}{H}-{E}^{(v)}_{1})+\\ &\phi({Y}^{(v)}_{2},{X}^{(v)}_{c}\Omega^{(v)}-{X}^{(v)}\Omega^{(v)})+\\ &\phi({Y}^{(v)}_{3}, {X}^{(v)}_{c}-{X}^{(v)}_{c}{Z}^{(v)}-{E}^{(v)}_{2})\}+\\ &\phi({\cal{Y}}, {\cal{Z}}-{\cal{G}}) \end{split}$$ (13) 为了方便表示, 定义
$\phi({Y}, {A}) = \dfrac{\mu}{2}||{A}||^{2}_{F}+\langle {Y},{A} \rangle$ , 其中$ \langle \cdot,\cdot \rangle $ 表示矩阵的内积,$ {Y} $ 为拉格朗日乘子矩阵,$ \mu $ 是一个正惩罚标量, 可以通过自适应策略进行更新[31].2.3 优化
模型的目标函数中存在多个变量块, 无法保证对整体变量具有凸性, 此处采用交替方向最小化策略[31], 即通过固定其他变量来交替更新每个变量. 因此, 优化可以分解为如下多个优化子问题:
H-子问题: 固定其他变量后, 通过最小化以下目标来更新
$ {H} $ :$$ {\cal{L}}({H}) = \sum\limits_{v = 1}^{V}\phi\left({Y}^{(v)}_{1},{X}^{(v)}_{c}-{P}^{(v)}{H}-{E}^{(v)}_{1}\right) $$ (14) 得到与
$ {H} $ 相关的导数并将其设置为零.可以使用以下规则更新$ {H} $ :$$\begin{split} {H}^{*} = \;&\left(\sum\limits_{v = 1}^{V}{{P}^{(v)^{\rm T}}{P}^{(v)}}\right)^{-1}\times\\ &\left\{\sum\limits_{v = 1}^{V}{{P}^{(v)^{\rm T}}\left({X}_{c}^{(v)}+\frac{{Y}^{(v)}_{1}}{\mu}-{E}^{(v)}_{1}\right)}\right\} \end{split}$$ 对于每个视图, 变量块
$ {P}^{(v)}, {X}^{(v)}_{c}, {Z}^{(v)}, {E}^{(v)} $ 和$ {Y}^{(v)} $ 可以类似地更新.P-子问题: 固定其他变量, 通过解决以下问题来更新
$ {P}^{(v)} $ :$$ {\cal{L}}\left({P}^{(v)}\right) = \phi\left({Y}^{(v)}_{1}, {X}^{(v)}_{c}-{P}^{(v)}{H}-{E}^{(v)}_{1}\right) $$ (15) 具体地, 通过以下公式更新
$ {P}^{(v)} $ $$ {P}^{(v)*} = \left\{({X}_{c}^{(v)}+\frac{{Y}^{(v)}_{1}}{\mu}-{E}^{(v)}_{1}){H}^{\rm T}\right\}\left({H}{H}^{\rm T}\right)^{-1} $$ (16) Z-子问题: 为了更新子空间表示
$ {Z}^{(v)} $ , 需要解决以下子问题:$$ \begin{split} {Z}^{(v)*} =\;& \arg\min\limits_{{Z}^{(v)}}{\phi}\left({Y}^{(v)}_{3}, {X}^{(v)}_{c}-{X}^{(v)}_{c}{Z}^{(v)}-{E}^{(v)}_{2}\right)+\\ &{\phi}\left({Y}^{(v)}_{4},{Z}^{(v)}-{G}^{(v)}\right) \\[-10pt] \end{split} $$ (17) 设
$ {Z}^{(v)} $ 的目标函数的导数为零, 最终可以得到如下更新规则:$$ \begin{split} {Z}^{(v)*} =\;& \left({X}_{c}^{(v)^{\rm T}}{X}_{c}^{(v)}+{I}\right)^{-1}\Bigg\{{X}_{c}^{(v)^{\rm T}}{X}_{c}^{(v)}+\\ &{G}^{(v)}+\frac{{X}_{c}^{(v)^{\rm T}}{Y}^{(v)}_{3}-{Y}^{(v)}_{4}}{\mu}\Bigg\} \end{split} $$ (18) $ {X}_{c} $ -子问题: 变量$ {X}_{c} $ 可以通过以下方式更新:$$ \begin{split} &{X}_{c}^{(v)*} = \\ &\quad\Bigg\{{P}^{(v)}{H}+{X}^{(v)}\Omega^{(v)^{\rm T}}\Omega^{(v)^{\rm T}}+{E}^{(v)}_{2}\left({I}-{Z}^{(v)^{\rm T}}\right)+\\ &\quad{E}^{(v)}_{1}-({Y}^{(v)}_{1}+\Omega^{(v)^{\rm T}}{Y}^{(v)}_{2}+{Y}^{(v)}_{3}\frac{{I}-{Z}^{(v)^{\rm T}}}{\mu}\Bigg\}\\ &\quad\left\{{I}+\Omega^{(v)^{\rm T}}\Omega^{(v)^{\rm T}}+\left({I}-{Z}^{(v)}\right)\left({I}-{Z}^{(v)^{\rm T}}\right)\right\}^{-1} \end{split} $$ (19) E-子问题: 重建误差
$ {E}^{(v)}_{1}, {E}^{(v)}_{2} $ 与如下的目标关联, 如下:$$ {E}^{*} = \arg\min\limits_{{E}}\lambda||{E}||_{2,1}+\phi({Y},{D}-{E}) $$ (20) 上面的子问题可以用文献[1]中的引理4.1来解决.
$ {\cal{G}} $ -子问题: 固定其他参数, 通过优化如下目标获得更新:$$ {\cal{G}}^{*} = \arg\min\limits_{{\cal{G}}}||{\cal{G}}||_{*}+\phi({\cal{Y}}, {\cal{Z}}-{\cal{G}}) $$ (21) 进一步, 可转化为以下优化问题
$$ {\cal{G}}^{*} = \arg\min\limits_{{\cal{G}}}{||{\cal{G}}||}_{*}+\frac{\mu}{2}{||{\cal{G}}-\left({\cal{Z}}+\frac{1}{\mu}{\cal{Y}}\right)\big\|_{F}^{2}} $$ (22) 类似于矩阵核范数[16], 张量核范数可以基于t-SVD分解实现优化目标, 细节见算法1.
更新乘子项 最后, 根据LADMAP[31]算法更新各个乘子系数矩阵:
$$ \left\{ \begin{aligned} &{Y}^{(v)}_{1} = {Y}^{(v)}_{1}+\mu\left({X}^{(v)}_{c}-{P}^{(v)}{H}-{E}^{(v)}_{1}\right) \\ &{Y}^{(v)}_{2} = {Y}^{(v)}_{2}+\mu\left({X}^{(v)}_{c}\Omega^{(v)}-{X}^{(v)}\Omega^{(v)}\right) \\ &{Y}^{(v)}_{3} = {Y}^{(v)}_{3}+\mu\left({X}^{(v)}_{c}-{X}^{(v)}_{c}{Z}^{(v)}-{E}^{(v)}_{2}\right) \\ &{\cal{Y}} = {\cal{Y}}+\mu\left({\cal{Z}}-{\cal{G}}\right)\\ &\mu = \min(\max_{\mu}, {\rm \rho}\mu) \end{aligned}\right. $$ (23) 其中,
${\rm{max}}_\mu$ 和$\rho $ 分别对应于乘子系数的上限和正系数.算法1. 基于t-SVD的张量低秩约束
输入: 张量
${\cal{F}} \in {\bf R}^{n_{1} \times n_{2} \times n_{3}}$ , 标量$ {\rm \tau} > 0 $ 输出: 张量
${\cal{G}}$ 1)
${\cal{F}}_{f}$ = fft(${\cal{F}},[],3),{\rm \tau}' = n_{3}{\rm \tau} $ ;2)
${{\rm{for}}}\;j = 1 : n_{3}\;{{\rm{do}}}$ 3)
$\left[{\cal{U}}_{f}^{(j)},{\cal{S}}_{f}^{(j)},{\cal{V}}_{f}^{(j)}\right]$ = SVD$\left( {\cal{F}}_{f}^{(j)}\right)$ ;4)
${{\rm{for}}}\;i = 1 : \min(n_{1}, n_{2})\;{{\rm{do}}}$ 5)
${\cal{J}}_{f}^{(j)} = {\rm{diag}}{\left\{1-\frac{{\rm \tau}'}{{\cal{S}}_{f}^{(j)}(i,i)}\right\}}$ ;6)
${{\rm{end}}}$ 7)
${\cal{S}}_{f,{\rm \tau}'}^{(j)} = {\cal{S}}_{f}^{(j)}{\cal{J}}_{J}^{(j)}$ ;8)
${\cal{G}}_{f}^{(j)} = {\cal{U}}_{f}^{(j)}{\cal{S}}_{f,{\rm \tau}'}^{(j)}{\cal{V}}_{f}^{(j){\rm T}}$ ;9)
${{\rm{end}}}$ 10)
${\cal{G}}$ = ifft(${\cal{G}}_{f}$ ,[],3).算法2. 不完整多视图数据聚类
输入: 特征和指示器
$\left\{{X}^{(v)},{\Omega}^{(v)}\right\}^{V}_{v = 1}$ ,参数$\lambda_{1},\lambda_{2}$ , 簇数$K$ 输出: 聚类结果
初始化:
$\mu = 10^{-5},{\rm \epsilon} = 10^{-5}, {\rm \rho} = 1.5, {\rm{max}}_\mu = 10^{10}$ ;随机化
${H},\{{P}^{(v)}, {X}^{(v)}_{c}\}^{V}_{v = 1}$ ;$\left\{{Z}^{(v)}, {E}^{(v)}, {G}^{(v)},\left\{{Y}^{(v)}_{i}\right\}^{4}_{i = 1}\right\}^{V}_{v = 1} = {0}$ ;1) while not converged do
2) 用等式(14)更新
${H}$ ;3) for each of V views do
4) 依次更新
${P}^{(v)},{Z}^{(v)},{X}_{c}^{(v)},{Y}^{(v)}$ ;5)
${{\rm{end}}}$ 6)
${\cal{Z}} = {\Phi}({Z}^{(1)},{Z}^{(2)},\cdots,{Z}^{(V)})$ ;7) 通过子问题(22)用算法1更新
${\cal{G}}$ ;8) 用等式(23)更新
${\cal{Y}}$ ;9) 用
$\mu = \min({\rm \rho}\mu$ ;${\rm{max}}_\mu$ )更新参数$\mu$ ;10) 检查以下收敛条件:
11)
$\left\|{X}^{(v)}_{c}-{P}^{(v)}{H}-{E}^{(v)}_{1}\right\|_\infty < {\rm \epsilon}$ ;12)
$\left\|{X}_{c}^{(v)}-{X}_{c}^{(v)}{Z}^{(v)}-{E}^{(v)}_{2}\right\|_\infty < {\rm \epsilon}$ and13)
$\left\|{{Z}^{(v)}}-{{G}^{(v)}}\right\|_\infty < {\rm \epsilon}$ 14)
${{\rm{end}}}$ 15) 合并所有视图的子空间自表示
${S} = \dfrac{1}{V}\sum\nolimits_{v = 1}^V |{{Z}^{(v)}}|+ $ $ |{{Z}^{(v)}}^{\rm T}|$ ;16) 在
${S}$ 上应用谱聚类算法.2.4 复杂度分析
所提算法由六个子问题组成. 完整的流程如算法2所示. 更新
$ {H} $ 的复杂度为${\rm{O}}(v(k^{2}d+kdn)+ $ $ k^{3}+k^{2}n)$ , 其中$ v,n,d $ 和$ k $ 对应视图个数, 数据样本数量, 多视图特征的平均维数和隐表示的维数. 对于更新$ {P} $ , 主要的复杂度是矩阵乘法和隐表示矩阵求逆, 其复杂度为$ {\rm{O}}(v(kdn+k^{2}n+k^{3})) $ . 对于更新$ {Z} $ 和$ {X}_{c} $ , 主要的复杂度是矩阵求逆, 即$ {\rm{O}}(v(n^{3})) $ . 对于更新$ {E} $ 和乘子项系数, 主要复杂性是矩阵乘法, 即$ {\rm{O}}(v(kdn+kn^{2})) $ . 对于$ {G} $ 子问题, 需要计算$n \times v \times $ $ n$ 张量的傅里叶变换和逆变换, 及其频域中$ n $ 次$ n \times v $ 矩阵的SVD分解, 因此该问题的复杂度为${\rm{O}}(vn^{2}\log_2(n)+v^{2}n^{2})$ . 总体上, 算法每次迭代更新的复杂度为${\rm{O}}(v(k^{2}d+kdn+k^{2}n+k^{3}+n^{3}+kn^{2}+ $ $ n^2\log_2 n+vn^2))$ . 因为在多视图情况下, 一般有$n \gg v$ , 并且考虑谱聚类复杂度以及迭代次数$ t $ , 整体复杂度为${\rm{O}}(tv(n^{3}+kdn+k^2d+k^3))$ .3. 实验
3.1 实验设置
实验主要在如下四个真实数据上进行:
1) Extended YaleB1. 这个数据集由38个人在不同光照下各64张正面图像构成. 与当前相关方法[30]类似, 实验中使用前10类 (每个人的所有图像即为同一类) 的图像, 从中提取3种类型的特征, 即有640个正面人脸图像样本的多视图特征.
2) ORL2. ORL人脸数据集包含40个人的图像, 其中每个人有10张不同的图像. 图像在不同的时间、光照条件、面部表情状态下拍摄, 包括3种特征.
3) COIL20MV3. Columbia对象图像库(COIL20MV)数据集包含20个对象类别, 一共1440张图像, 这些图像与2个视图关联. 每个类别包含72张图像. 所有图像都被标准化为
$ 32 \times 32 $ 像素阵列, 每个像素具有256灰度级.4) BBCSport4. 该数据集由544篇对应5个主题的体育新闻文档组成, 其中提取了两种不同类型的特征.
在设置的实验中, 对于图像数据集, 本文均提取图像的如下三种特征: 灰度强度、局部二值模式、Garbor特征. 图像的强度特征表示单通道图像像素的值. 局部二值模式是描述图像局部特征的算子, 其具有灰度不变性和旋转不变性等特点. Gabor特征可以用来描述图像纹理信息特征. 图像的强度特征维度取决于图像的大小, 局部二值模式和Garbor特征的维度分别为3304和6750. 对于文本数据集, 每个文本被分为两个部分, 并且分别用TF-IDF归一化方法提取相应特征[32].
由于所有数据集最初都是完整的, 因此, 实验中采取随机丢弃视图的策略. 本文缺失率定义为
$1-\dfrac{\sum\nolimits_{i,v}{\Omega^{(v)}_{ii}}}{N \times V}$ , 其中$ \Omega^{(v)}_{ii} $ 指示第$ i $ 个样本的第$ v $ 个视图是否存在. 在实验中, 缺失率从10 %调整到50 %, 步长为10 %. 为确保实验中样本数目的稳定性, 在进行随机丢弃时, 保证每个样本至少有一个视图可用.为了证明所提方法对于不完整多视图数据是有效的, 将该方法与几种最新的方法进行比较: 联合表示学习与聚类(SRLC)[25], 基于t-SVD的多视图子空间聚类(t-SVD-MSC)[8], 不完整多视图聚类(PVC)[23], 不完整多模态分组(IMG)[24], 多个不完整视图聚类(MIC)[33], 双对齐不完整多视图聚类(DAIMC)[34]. 由于t-SVD-MSC[8]方法不能处理不完整多视图数据集,因此在预处理阶段用该视图的平均值填充缺失的视图. 为了保证实验对比的公平性, 实验中使用网格搜索方法来调整超参数, 并使用ACC和NMI聚类度量来评估不同方法的性能在每一个数据集上, 分别对每种方法的不同缺失率重复10次实验, 得到其平均性能作为评价.
3.2 实验结果
图2显示了在不同的缺失率下, 不同方法在四个数据集上的聚类性能. 结果表明: 1)随着缺失率的增加, 各种方法的性能都有一定程度的下降. 2)在ORL和BBCsport数据集上, t-SVD-MSC方法表现出比其他方法更好的性能, 表明了低秩约束的有效性, 并且可以有效地探索数据的簇结构. 在另外两个数据集上, 所提方法的实验结果明显优于平均插值的t-SVD-MSC方法. 这是因为在所提模型中, 数据插补和聚类可以迭代地相互改进. 3)缺失率在10 %到50 %之间变化过程中, 所提出的方法始终优于其他比较方法. 特别是对于YaleB和COIL20MV数据集, 所提方法比其他方法有显著的效果提升. 这是因为所提模型可以利用生成模型和高阶张量有效地挖掘不同视图之间的相关性, 以保证聚类的性能.
3.3 模型分析
超参数选择. 在实验中, 将
$ {H} $ 的维数设为100, 并且提出的模型有两个超参数需要调整$ \lambda_{1} $ 和$ \lambda_{2} $ .$ {H} $ 的维度是从特定的范围$\{ {100,200,400,800} \}$ 中选择的. 在所提的方法中,$ \lambda_{1} $ 和$ \lambda_{2} $ 是从$\{ 10^{-2}, 10^{-1}, 10^0, $ $ 10^1, 10^2, 10^3\}$ 中选择的两个折衷参数. 图3 (a)显示了这两个超参数对YaleB的影响.收敛性分析. 图3 (b)显示了收敛曲线和聚类性能曲线. 可以看出, 在有限的迭代次数内, 收敛曲线下降较快, 聚类性能曲线上升较快, 证明了所设计的优化方法可以在一定的迭代次数下收敛.
4. 结论
本文提出了一种新颖的不完整多视图聚类模型(GM-PMVC), 可以在任意视图缺失的情况下补全缺失并完成子空间聚类. 通过隐表示
$ {H} $ 有效利用所有可用视图信息, 有效地编码基于子空间聚类的多视图互补性(即每一个单一视图都来自于完整的隐空间). 在融合多视图信息的同时, 将各个视图的关系矩阵拼接为三阶张量. 由于高阶张量的低秩约束能有效挖掘数据之间的高阶相关性, 具体地, 基于三阶张量的奇异值分解(t-SVD) (如算法1所示)的低秩约束既能挖掘各个视图内的低维子空间结构, 又能同时保证各个视图关系矩阵之间的一致性. 视图的缺失能通过隐表示$ {H} $ 补全缺失信息, 所提框架同时补全缺失视图和挖掘多视图的高阶相关性, 两者相互促进, 从而提高聚类效果. 由于该框架涉及多个优化变量, 本文所使用的增广拉格朗日交替方向最小化(AL-ADM)方法能有效优化含复杂约束项的目标函数, 实验证明经过少量迭代次数即能收敛. 所提模型具有相对较高的时间复杂度(如表2所示), 因此模型在优化效率方面还具有改进空间. 本方法在基准数据集上的实验结果与现有的不完整多视图聚类方法相比,验证了GM-PMVC的有效性, 并且在多数验证数据上具有显著的效果提升.表 2 算法运行时间对比(秒)Table 2 Algorithm running time comparison (s)Algorithms ORL yaleB MIC 84.67 143.30 IMG 83.02 169.38 PVC 120.68 404.82 DAIMC 157.76 191.27 SRLCs 93.21 193.36 t-SVD-MSC 56.77 107.03 Ours 180.90 288.50
-
图 1 同时用
$P(X|H)$ 对隐空间$H$ 进行建模, 并基于隐表示生成完整特征. 根据完整的数据, GM-PMVC将子空间表示集成到一个张量中, 可以挖掘多视图数据高阶相关性Fig. 1 Illustration of generative model for partial multi-view clustering (GM-PMVC). Given incomplete multi-view data, we simultaneously model latent space
$H$ by$P(X|H)$ and generate complete feature based on latent representation. According to the completed data, GM-PMVC integrates subspace representation into a tensor which can effectively explores higher-order correlations equipped with low-rank constraint表 1 符号与定义
Table 1 Notations and definitions
$b$ 标量 $B$ 矩阵 ${\boldsymbol{b}}$ 向量 ${\cal{B}}$ 张量 ${\cal{I}}$ 单位张量 $fft$ 快速傅里叶变换 ${\cal{B}}_{ijk}$ 张量${\cal{B}}$第$(i,j,k)$元素 ${\cal{Q}}$ 正交张量 ${\cal{B}}(i,:,:)$ 第$i$水平切片 ${\cal{B}}^{\rm T}$ ${\cal{B}}$的转置 ${\cal{B}}(:,i,:)$ 第$i$侧面切片 ${\cal{B}}_{f}$ $fft({\cal{B}},[],3)$ ${\cal{B}}(:,:,i)$ 第$i$正面切片 $B^{(i)}$ ${\cal{B}}(:,:,i)$ $||B||_{F}$ $\sqrt{\sum\nolimits_{i,j}|B_{ij}|^{2}}$ $||B||_{*}$ 矩阵$B$奇异值之和 $||{\cal{B}}||_{F}$ $\sqrt{\sum\nolimits_{i,j,k}|{\cal{B}}_{ijk}|^{2}}$ $||{\cal{B}}||_{1}$ $\sum\nolimits_{i,j,k}|{\cal{B}}_{ijk}|$ 表 2 算法运行时间对比(秒)
Table 2 Algorithm running time comparison (s)
Algorithms ORL yaleB MIC 84.67 143.30 IMG 83.02 169.38 PVC 120.68 404.82 DAIMC 157.76 191.27 SRLCs 93.21 193.36 t-SVD-MSC 56.77 107.03 Ours 180.90 288.50 -
[1] Sun S. A survey of multi-view machine learning. Neural Computing and Applications, 2013, 23(7-8): 2031-2038 doi: 10.1007/s00521-013-1362-6 [2] Yang Y, Wang H. Multi-view clustering: A survey. Big Data Mining and Analytics, 2018, 1(2): 83-107 doi: 10.26599/BDMA.2018.9020003 [3] Baltrusaitis T, Ahuja C, Morency L P. Multimodal machine learning: A survey and taxonomy. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 41(2): 423-443 [4] 张祎, 孔祥维, 王振帆, 付海燕, 李明. 基于多视图矩阵分解的聚类分析. 自动化学报, 2018, 44(12): 2160-2169Zhang Yi, Kong Xiang-Wei, Wang Zhen-Fan, Fu Hai-Yan, Li Ming. Matrix Factorization for Multi-view Clustering. Acta Automatica Sinica, 2018, 44(12): 2160-2169 [5] 王海艳. 一种基于多视图学习的群组发现方法. 自动化学报, 2019, 39(4): 80-89Wang Hai-Yan. Group discovery method based on multi view learning. Acta Automatica Sinica, 2019, 39(4): 80-87 [6] 李霞, 卢官明, 闫静杰, 张正言. 多模态维度情感预测综述. 自动化学报, 2018, 44(12): 2142-2159.Li Xia, Lu Guan-Ming, Yan Jing-Jie, Zhang Zheng-Yan. A Survey of Dimensional Emotion Prediction by Multimodal Cues. Acta Automatica Sinica, 2018, 44(12): 2142-2159 [7] Li Z Y, Wang Q Q, Tao Z Q, Gao Q X, Yang Z H. Deep adversarial multi-view clustering network. In: Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence. Macau, China: Morgan Kaufmann, 2019. 2952−2958 [8] Xie Y, Tao D C, Zhang W S, Liu Y, Zhang L, Qu Y Y. On unifying multi-view self-representations for clustering by tensor multi-rank minimization. International Journal of Computer Vision, 2018, 126(11): 1157-1179 doi: 10.1007/s11263-018-1086-2 [9] Zhang C Q, Fu H Z, Liu S, Liu G C, Cao X C. Low-rank tensor constrained multiview subspace clustering. In: Proceedings of the 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015. 1582−1590 [10] Cao X C, Zhang C Q, Fu H Z, Liu S, Zhang H. Diversity-induced multi-view subspace clustering. In: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015. 586−594 [11] Zhang C Q, Fu H Z, Hu Q H, Cao X C, Xie Y, Tao D C, et al. Generalized latent multi-view subspace clustering. IEEE transactions on pattern analysis and machine intelligence, 2018, 42(1): 86-99 [12] Li R H, Zhang C Q, Hu Q H, Zhu P F, Wang Z. Flexible multi-View representation learning for subspace clustering. In: Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence. Macau, China: Morgan Kaufmann, 2019. 2916−2922 [13] Kang Z, Shi G X, Huang S, Chen W Y, Pu X R, Zhou T Y, et al. Multi-graph fusion for multi-view spectral clustering. Knowledge-Based Systems, 2020, 189: 105102 doi: 10.1016/j.knosys.2019.105102 [14] Kang Z, Zhao X J, Peng C, Zhu H Y, Zhou T Y, Peng X, et al. Partition level multiview subspace clustering. Neural Networks, 2020, 122: 279-288 doi: 10.1016/j.neunet.2019.10.010 [15] Huang Z Y, Zhou T Y, Peng X, Zhang C Q, Zhu H Y, Lv J C. Multi-view spectral clustering network. In: Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence. Macau, China: Morgan Kaufmann, 2019. 2563−2569 [16] Cai J F, Candès E J, Shen Z. A singular value thresholding algorithm for matrix completion. SIAM Journal on Optimization, 2010, 20(4): 1956-1982 doi: 10.1137/080738970 [17] Mazumder R, Hastie T, Tibshirani R. Spectral regularization algorithms for learning large incomplete matrices. Journal of machine learning research, 2010, 11(80): 2287-2322 [18] Zhu J Y, Park T, Isola P, Efros A A. Unpaired image-to-image translation using cycle-consistent adversarial networks. In: Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017. 2223−2232 [19] Choi Y, Choi M, Kim M, Ha J W, Kim S, Choo J. Stargan: Unified generative adversarial networks for multi-domain image-to-image translation. In: Proceedings of the 2018 IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018. 8789−8797 [20] Kim T, Cha M, Kim H, Lee J K, Kim J. Learning to discover cross-domain relations with generative adversarial networks. In: Proceedings of the 34th International Conference on Machine Learning. Sydney, Australia: ACM, 2017. 1857−1865 [21] Lee D, Kim J, Moon W J, Ye J C. CollaGAN: Collaborative GAN for missing image data imputation. In: Proceedings of the 2019 IEEE Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE, 2019. 2487−2496 [22] 孙亮, 韩毓璇, 康文婧, 葛宏伟. 基于生成对抗网络的多视图学习与重构算法. 自动化学报, 2018, 44(5): 819-828Sun Liang, Han Yu-Xuan, Kang Wen-Jing, Ge Hong-Wei. Multi-view Learning and Reconstruction Algorithms via Generative Adversarial Networks. Acta Automatica Sinica, 2018, 44(5): 819-828 [23] Li S Y, Jiang Y, Zhou Z H. Partial multi-view clustering. In: Proceedings of Twenty-Eighth the Association for the Advance of Artificial Intelligence Conference. Québec Convention Center, Canada: AAAI, 2014. 1968−1974 [24] Zhao H D, Liu H F, Fu Y. Incomplete multi-modal visual data grouping. In: Proceedings of the 25th International Joint Conference on Artificial Intelligenc. New York, USA: Morgan Kaufmann, 2016. 2392−2398 [25] Zhuge W Z, Hou C P, Liu X W, Tao H, Yi D Y. Simultaneous representation learning and clustering for incomplete multi-view data. In: Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macau, China: Morgan Kaufmann, 2019. 4482−4488 [26] Kilmer M E, Martin C D. Factorization strategies for third-order tensors. Linear Algebra and its Applications, 2011, 435(3): 641-658 doi: 10.1016/j.laa.2010.09.020 [27] Semerci O, Hao N, Kilmer M E, Miller E L. Tensor-based formulation and nuclear norm regularization for multienergy computed tomography. IEEE Transactions on Image Processing, 2014, 23(4): 1678-1693 doi: 10.1109/TIP.2014.2305840 [28] Zhang Z M, Ely G, Aeron S, Hao N, Kilmer M. Novel methods for multilinear data completion and de-noising based on tensor-SVD. In: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE, 2014. 3842−3849 [29] Zhang C Q, Adeli E, Wu Z W, Li G, Lin W L, Shen D G. Infant brain development prediction with latent partial multi-view representation learning. IEEE Transaction on Medical Imaging, 2019, 38(4): 909-918 doi: 10.1109/TMI.2018.2874964 [30] Liu G C, Lin Z C, Yan S C, Sun J, Yu Y, Ma Y. Robust recovery of subspace structures by low-rank representation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(1): 171-184 [31] Lin Z C, Liu R S, Su Z X. Linearized alternating direction method with adaptive penalty for low-rank representation. In: Proceedings of Advances in Neural Information Processing Systems. Granada Congress and Exhibition Centre, SPAIN: MIT Press, 2011. 612−620 [32] Greene D, Cunningham P.A matrix factorization approach for integrating multiple data views. In: Proceedings of the Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Bled, Slovenia: Springer, 2009. 423−438 [33] Shao W X, He L F, Philip S Y. Multiple Incomplete Views Clustering via Weighted Nonnegative Matrix Factorization with L2, 1 Regularization. In: Proceedings of Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Porto, Portugal: Springer, 2015. 318−334 [34] Hu M L, Chen S C. Doubly aligned incomplete multi-view clustering. In: Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence. Stockholm, Sweden: AAAI, 2018. 2262−2268 期刊类型引用(13)
1. 钟圣华,张智. 基于多示例学习图卷积网络的隐写者检测. 自动化学报. 2024(04): 771-789 . 本站查看
2. 刘溯源,王思为,唐厂,周思航,王思齐,刘新旺. 基于加权锚点的多视图聚类算法. 自动化学报. 2024(06): 1160-1170 . 本站查看
3. 赵晓佳,徐婷婷,陈勇勇,徐勇. 基于一步张量学习的多视图子空间聚类. 自动化学报. 2023(01): 40-53 . 本站查看
4. 张智慧,杨燕,张熠玲. 面向不完整多视图聚类的深度互信息最大化方法. 智能系统学报. 2023(01): 12-22 . 百度学术
5. 耿传兴,谭正豪,陈松灿. 自监督增广的监督分类学习增强. 软件学报. 2023(04): 1870-1878 . 百度学术
6. 黄展鹏,吴杰康,易法令. 自适应图融合的缺失多视图聚类算法. 计算机工程与应用. 2023(09): 176-181 . 百度学术
7. 劳景欢,黄栋,王昌栋,赖剑煌. 基于视图互信息加权的多视图集成聚类算法. 计算机应用. 2023(06): 1713-1718 . 百度学术
8. 文杰,颜珂,张正,徐勇. 基于低秩张量图学习的不完整多视角聚类. 自动化学报. 2023(07): 1433-1445 . 本站查看
9. 宋菲. 基于聚类结构和局部相似性的多视图隐空间聚类. 计算机应用研究. 2023(09): 2650-2656 . 百度学术
10. 刘晓琳,白亮,赵兴旺,梁吉业. 基于多阶近邻融合的不完整多视图聚类算法. 软件学报. 2022(04): 1354-1372 . 百度学术
11. 腊志垚,钱育蓉,冷洪勇,顾天宇,张继元,李自臣. 基于随机游走的图嵌入研究综述. 计算机工程与应用. 2022(13): 1-13 . 百度学术
12. 诸葛文章,范瑞东,罗廷金,陶红,侯臣平. 基于独立自表达学习的不完全多视图聚类. 中国科学:信息科学. 2022(07): 1186-1203 . 百度学术
13. 崔金荣,黄诚. 改进的自步深度不完备多视图聚类. 数据采集与处理. 2022(05): 1036-1048 . 百度学术
其他类型引用(22)
-