论文:View-Consistency Learning for Incomplete Multiview Clustering

作者:Ziyu Lv; Quanxue Gao; Xiangdong Zhang; Qin Li; Ming Yang

期刊:IEEE Transactions on Image Processing

时间:2022-7

原文摘要

In this article, we present a novel general framework for incomplete multi-view clustering by integrating graph learning and spectral clustering. In our model, a tensor low-rank constraint are introduced to learn a stable low-dimensional representation, which encodes the complementary information and takes into account the cluster structure between different views. A corresponding algorithm associated with augmented Lagrangian multipliers is established. In particular, tensor Schatten p -norm is used as a tighter approximation to the tensor rank function. Besides, both consistency and specificity are jointly exploited for subspace representation learning. Extensive experiments on benchmark datasets demonstrate that our model outperforms several baseline methods in incomplete multi-view clustering.

理论基础

不同视图的数据可以提供更有用的互补和辨别信息,这对提高算法的鲁棒性非常有帮助。

现有的不完整多视图聚类方法可以分为两类:基于矩阵分解的不完整多视图聚类(MFIMC),基于图的不完整多视图聚类(GIMC)

符号说明

符号 说明
ZRn1×n2×n3\mathbf{\mathcal{Z}} \in \mathbb{R}^{n_1 \times n_2 \times n_3} 加粗的字母表示三阶的张量
Z\mathbf{Z} 加粗大写字母表示矩阵
z\mathbf{z} 加粗小写字母表示向量
zijkz_{ijk} 小写字母表示Z\mathbf{\mathcal{Z}}的一项
Z(i)\mathcal{Z}^{(i)} 表示在第一维度的第i个项
Z=fft(Z,[],3)\overline{\mathcal{Z}}=\operatorname{fft}(\mathcal{Z},[], 3) Z\overline{\mathcal{Z}}在第三维度上的离散傅里叶变化
tr(Z)tr(\mathbf{Z}) 表示矩阵Z\mathbf{Z}的迹
$

定义1:t-乘法,给定XRn1×m×n3\mathcal{X} \in \mathbb{R}^{n_1 \times m \times n_3}YRm×n2×n3\mathcal{Y} \in \mathbb{R}^{m \times n_2 \times n_3},然后t-乘法XYRn1×n2×n3\mathcal{X} * \mathcal{Y} \in \mathbb{R}^{n_1 \times n_2 \times n_3}表示为:

公式1XY=ifft(bdiag(XY),[],3),公式1:\mathcal{X} * \mathcal{Y}=\operatorname{ifft}(\operatorname{bdiag}(\overline{X Y}),[], 3),

其中,Xˉ=bdiag(X)\bar{X}=\operatorname{bdiag}(\overline{\mathcal{X}})表示块对角矩阵(block diagonal matrix)其每一个块是X\overline{\mathcal{X}}的第一维的每一项(frontal slices)

定义2:t-SVD,ZRn1×n2×n3\mathcal{Z} \in \mathbb{R}^{n_1 \times n_2 \times n_3}的张量奇异值分解可表示为Z=USVT\mathcal{Z}=\mathcal{U} * \mathcal{S} * \mathcal{V}^{\mathrm{T}},其中U\mathcal{U}V\mathcal{V}是分别是size为n1×n1×n3n_1 \times n_1 \times n_3n2×n2×n3n_2 \times n_2 \times n_3的正交张量。S\mathcal{S}是f-diagonal(f-对角)张量,size为n1×n2×n3n_1 \times n_2 \times n_3*表示t-乘法

定义3:给定ZRn1×n2×n3\mathcal{Z} \in \mathbb{R}^{n_1 \times n_2 \times n_3}h=min(n1,n2)h=\operatorname{min}\left(n_1, n_2\right),张量Z\mathcal{Z}的tensor Schatten p-norm表示为:

公式2Zsp=(i=1n3Z(i)spp)1p=(i=1n3j=1hσj(Z(i))p)1p公式2:\begin{aligned} \|\mathcal{Z}\|_{sp} &=\left(\sum_{i=1}^{n_3}\left\|\overline{\mathcal{Z}}^{(i)}\right\|_{sp}^p\right)^{\frac{1}{p}} \\ &=\left(\sum_{i=1}^{n_3} \sum_{j=1}^h \sigma_j\left(\overline{\mathcal{Z}}^{(i)}\right)^p\right)^{\frac{1}{p}} \end{aligned}

其中p[0,1]p\in[0,1]σj(Z(i))\sigma_j(\overline{\mathcal{Z}}^{(i)})表示Z(i)\overline{\mathcal{Z}}^{(i)}的第j个奇异值。当p=1p=1时,ZRn1×n2×n3\mathcal{Z} \in \mathbb{R}^{n_1 \times n_2 \times n_3}的tensor Schatten p-norm就变为了nuclear norm:Z=i=1n3j=1hσj(Z(i))\|\mathcal{Z}\|_*=\sum_{i=1}^{n_3} \sum_{j=1}^h \sigma_j\left(\overline{\mathcal{Z}}^{(i)}\right)。考虑用于ZRn1×n2\mathbf{Z} \in \mathbb{R}^{n_1 \times n_2}的matrix Schatten p-norm,Z\mathbf{Z}的奇异值表示为σ1,,σh\sigma_1, \ldots, \sigma_h,有ZSpp=σ1p++σhp,p>0\|\boldsymbol{Z}\|_{S_p}^p=\sigma_1^p+\cdots+\sigma_h^p, p>0。有人证明limp0ZSpp=#{i:σi0}=rank(Z)\lim _{p \rightarrow 0}\|\boldsymbol{Z}\|_{S_p}^p=\#\left\{i: \sigma_i \neq 0\right\}=\operatorname{rank}(\boldsymbol{Z})。对于p[0,1]p\in[0,1],当p被适当选择时,有人明确指出Schatten p-norm能够对秩函数更紧凑的近似值进行非常有效的提高。

任务与存在的问题

现有的算法大都用于处理完整视图数据的聚类,然而在一些任务中存在不完整视图的情况,比如摄像机从不同角度拍摄时遇到的视角遮挡,光线变化,以及其他外部原因导致部分数据无法得到时,完整视图数据聚类的方法性能将会受到影响。

MFIMC的方法是应用矩阵分解和基于质心的公共正则化来寻找多视图数据的视图公共部分,然而这种方法没有考虑到数据的内部结构,这可能会导致compact的representation和distinguish-ability。

IMSC-AGL是不完整多视图聚类的代表方法,其引入一个常见的正则化项,使用低秩表征来从所有视图的低维表示中学习公共表示。但其仍然存在以下问题

  1. 其忽略了在聚类中扮演重要角色的不同视图之间的邻接矩阵的关系,因此多视图下的互补信息没有被充分利用。
  2. 学习到的图不能充分表示所有数据的聚类结构,因为其在学习图时没有考虑到在一个视图中缺失但是在其他视图中没有缺失的数据,学习到的图没有良好的聚类结构。
  3. 视图的亲和矩阵可以直接从视图中学习,而不丢失实例。然而,在实际应用中,由于每个视图不可避免地包含冗余和噪声,如照明变化,因此每个视图中只有部分内容有利于聚类。

主要工作和创新点

  1. 使用一个基于tensor Schatten p-norm的完整技术去学习一致性图。通过使用嵌入在不同视图的互补信息和高级信息,得到保留了未缺失数据之间关系的低秩图。
  2. 每个视图数据被分为view-important-content和view-unimportant-content,然后使用view-important-content的亲和矩阵取学习视图。

提出的方法

IMSC-AGL模型

给定一个多视图数据集{X(v)}v=1V\left\{\mathbf{X}^{(v)}\right\}_{v=1}^V,在每个视图上有m维和n个数据。IMSC-AGL的模型被设计为:

公式3minB(v),E(v),F(v),UvB(v)+vλ2tr(F(v)TL(v)F(v))+vλ1E(v)1+vλ32Γ(F(v),U) s.t. Y(v)=Y(v)B(v)+E(v),B(v)I=I0Z(v)1,Bi,i(v)=0F(v)TF(v)=I,UTU=I公式3:\begin{array}{c} \min _{\mathbf{B}^{(v)}, \mathbf{E}^{(v)}, \mathbf{F}^{(v)}, \mathbf{U}} \sum_v\left\|\mathbf{B}^{(v)}\right\|_*+\sum_v \lambda_2 \operatorname{tr}\left(\mathbf{F}^{(v) T} \overline{\mathbf{L}}^{(v)} \mathbf{F}^{(v)}\right) \\ +\sum_v \lambda_1\left\|\mathbf{E}^{(v)}\right\|_1+\sum_v \frac{\lambda_3}{2} \Gamma\left(\mathbf{F}^{(v)}, \mathbf{U}\right) \\ \text { s.t. } \mathbf{Y}^{(v)}=\mathbf{Y}^{(v)} \mathbf{B}^{(v)}+\mathbf{E}^{(v)}, \quad \mathbf{B}^{(v)} \mathbf{I}=\mathbf{I} \\ 0 \leq \mathbf{Z}^{(v)} \leq 1, \quad \mathbf{B}_{i, i}^{(v)}=0 \\ \mathbf{F}^{(v) T} \mathbf{F}^{(v)}=\mathrm{I}, \quad \mathbf{U}^T \mathbf{U}=\mathbf{I} \end{array}

其中{Y(v)}v=1V\left\{\mathbf{Y}^{(v)}\right\}_{v=1}^V是未缺失实例的集合,{X(v)}v=1V\left\{\mathbf{X}^{(v)}\right\}_{v=1}^V是原始实例的集合,包括缺失数据的部分和步缺失数据的部分。Y(v)Rmv×nv\mathbf{Y}^{(v)} \in \mathbb{R}^{m_v \times n_v}mvm_v是特征的数量,nvn_v第v个视图未缺失实例的数量。λi(i=1,2,3)\lambda_i(i=1,2,3)是惩罚参数,E(v)\mathbf{E}^{(v)}表示自表征的误差项。Γ(.)\Gamma(.)测量目标聚类指标矩阵URn×c\mathbf{U} \in \mathbb{R}^{n \times c}和表征F(v)Rn×c\mathbf{F}^{(v)} \in \mathbb{R}^{n \times c}的不一致性,cc是类别数,B(v)\left\|\mathbf{B}^{(v)}\right\|_*是自表达系数矩阵B(v)\mathbf{B}^{(v)}的nuclear norm。B(v)=H(v)TB(v)H(v),B(v)Rn×n\overline{\mathbf{B}}^{(v)}=\mathbf{H}^{(v) T} \mathbf{B}^{(v)} \mathbf{H}^{(v)}, \overline{\mathbf{B}}^{(v)} \in \mathbb{R}^{n \times n}是在第v个视图上连接所有实例的完整图。L(t)\mathbf{L}^{(t)}B(v)\mathbf{B}^{(v)}的拉普拉斯矩阵,L(v)=H(v)TL(v)H(v)\overline{\mathbf{L}}^{(v)}=\mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)}。坐标矩阵H(v)Rnb×n\mathbf{H}^{(v)} \in \mathbb{R}^{n_b \times n}定义如下:

公式4Hi,i(v)={1, if yi(v) is the original instance xj(v)0, otherwise. 公式4:\mathbf{H}_{i, i}^{(v)}=\left\{\begin{array}{ll} 1, & \text { if } \mathbf{y}_{\mathrm{i}}^{(\mathrm{v})} \text { is the original instance } \mathbf{x}_{\mathrm{j}}^{(\mathrm{v})} \\ 0, & \text { otherwise. } \end{array}\right.

问题公式化

本文提出的模型在IMSC-AGL模型的基础上,使用了相似度图中嵌入的低秩结构和相似性结构,并考虑了视图的特定属性,将其分为view-important-content和view-unimportant-content,并从view-important-content中学习亲和矩阵,最终的模型可以用下面的公式表示:

公式5minZ(v),E(v),F(v),D(v),Uvλ1E(v)1+vλ4D(v)F2+Cspp+vλ3(ctr(F(v)F(v)TUUT))+vλ2tr(F(v)TH(v)TL(v)H(v)F(v)) s.t. Y(v)=Y(v)(Z(v)+D(v))+E(v),Z(v)I=I,0Z(v)1,Zi,i(v)=0,F(v)TF(v)=I,UTU=I公式5:\begin{array}{c} \min _{\mathbf{Z}^{(v)}, \mathbf{E}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}} \sum_v \lambda_1\left\|\mathbf{E}^{(v)}\right\|_1+\sum_v \lambda_4\left\|\mathbf{D}^{(v)}\right\|_F^2 \\ +\|\mathcal{C}\|_{sp}^p+\sum_v \lambda_3\left(c-\operatorname{tr}\left(\mathbf{F}^{(v)} \mathbf{F}^{(v) T} \mathbf{U} \mathbf{U}^T\right)\right) \\ +\sum_v \lambda_2 \operatorname{tr}\left(\mathbf{F}^{(v) T} \mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)} \mathbf{F}^{(v)}\right) \\ \text { s.t. } \mathbf{Y}^{(v)}=\mathbf{Y}^{(v)}\left(\mathbf{Z}^{(v)}+\mathbf{D}^{(v)}\right)+\mathbf{E}^{(v)}, \mathbf{Z}^{(v)} \mathrm{I}=\mathrm{I}, \\ 0 \leq \mathbf{Z}^{(v)} \leq 1, \mathbf{Z}_{i, i}^{(v)}=0, \mathbf{F}^{(v) T} \mathbf{F}^{(v)}=\mathrm{I}, \mathbf{U}^T \mathbf{U}=\mathrm{I} \end{array}

其中,上标v表示第v个视图,λi(i=1,2,3)\lambda_i(i=1,2,3)是惩罚参数,E(v)\mathbf{E}^{(v)}表示自表征的误差项,D(v)D^{(v)}是第v个视图的特定亲和力矩阵,n||\cdot||_n表示n范式,计算方式可见之前的表格。spp||\cdot||_{sp}^p表示的是tensor Schatten p-norm(见定义3),F(v)Rn×c\mathbf{F}^{(v)} \in \mathbb{R}^{n \times c}是第v个视图的表征,目标聚类指标矩阵URn×c\mathbf{U} \in \mathbb{R}^{n \times c}I\mathbf{I}是单位矩阵,tr()tr(\cdot)是矩阵的秩,cc是类别数,L(v)\mathbf{L}^{(v)}是拉普拉斯矩阵,H(v)H^{(v)}的定义见公式4,Y(v)Z(v)\mathbf{Y}^{(v)}\mathbf{Z}^{(v)}表示important content,Y(v)Z(v)\mathbf{Y}^{(v)}\mathbf{Z}^{(v)}表示unimportant content。C\mathcal{C}表示由Zv\overline{Z}^{v}组成的三阶张量,如下图:

image-20220907145945808

最优化

(ps:由于过程比较硬核,我这里直接写结果)

为了让公式5可分解,这里引入了两个参数S\mathbf{\mathcal{S}}W(v)\mathbf{W}^{(v)},并忽略约束,进一步引入拉格朗日增强,得到如下的同时:

公式6L=Sp+vλ1E(v)1+λ4vD(v)F2+λ2vtr(F(v)TH(v)TL(v)H(v)F(v))vλ3tr(F(v)F(v)TUUT)+μ2CS+QμF2+μ2vY(v)Y(v)(Z(v)+D(v))E(v)+C1(v)μF2+μ2vZ(v)W(v)+C3(v)μF2vψ(v)T(W(v)II),公式6:\begin{aligned} L=&\|\mathcal{S}\|_{\circledast}^p+\sum_v \lambda_1\left\|\mathbf{E}^{(v)}\right\|_1+\lambda_4 \sum_v\left\|\mathbf{D}^{(v)}\right\|_F^2 \\ &+\lambda_2 \sum_v \operatorname{tr}\left(\mathbf{F}^{(v) T} \mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)} \mathbf{F}^{(v)}\right) \\ &-\sum_v \lambda_3 \operatorname{tr}\left(\mathbf{F}^{(v)} \mathbf{F}^{(v) T} \mathbf{U} \mathbf{U}^T\right)+\frac{\mu}{2}\left\|\mathcal{C}-\mathcal{S}+\frac{\mathcal{Q}}{\mu}\right\|_F^2 \\ &+\frac{\mu}{2} \sum_v\left\|\mathbf{Y}^{(v)}-\mathbf{Y}^{(v)}\left(\mathbf{Z}^{(v)}+\mathbf{D}^{(v)}\right)-\mathbf{E}^{(v)}+\frac{\mathbf{C}_1^{(v)}}{\mu}\right\|_F^2 \\ &+\frac{\mu}{2} \sum_v\left\|\mathbf{Z}^{(v)}-\mathbf{W}^{(v)}+\frac{\mathbf{C}_3^{(v)}}{\mu}\right\|_F^2 \\ &-\sum_v \psi^{(v) T}\left(\mathbf{W}^{(v)} \mathbf{I}-\mathrm{I}\right), \end{aligned}

其中矩阵C1(v),Q,C3(v)\mathbf{C}_1^{(v)}, \mathcal{Q}, \mathbf{C}_3^{(v)}和向量ψ(v)\psi^{(v)}是拉格朗日子乘项,μ\mu是乘法参数,然后使用ADMM方法更新未知的变量

  1. 固定E(v),F(v),D(v),U,S,W(v)\mathbf{E}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}, \mathcal{S}, \mathbf{W}^{(v)}更新Z(v)\mathbf{Z}^{(v)}

    公式7Z(v)=reshape[Z(v)(:)]nv×nv=reshape[(IT1(v)+T2(v)TI)1T4(v)(:)]nv×nv公式7:\begin{aligned} \mathbf{Z}^{(v)} &=\operatorname{reshape}\left[\mathbf{Z}^{(v)}(:)\right]_{n_v \times n_v} \\ &=\operatorname{reshape}\left[\left(\mathbf{I} \otimes \mathbf{T}_1^{(v)}+\mathbf{T}_2^{(v)^T} \otimes \mathbf{I}\right)^{-1} \mathbf{T}_4^{(v)}(:)\right]_{n_v \times n_v} \end{aligned}

    其中,Z(v)(:)\mathbf{Z}^{(v)}(:)T4(v)(:)\mathbf{T}_4^{(v)}(:)分别是拼接矩阵Z(v)\mathbf{Z}^{(v)}T4(v)=(Y(v)Y(v)+I)1T3(v)(H(v)H(v)T)1\mathbf{T}_4^{(v)}=(\mathbf{Y}^{(v)}\mathbf{Y}^{(v)}+I)^{-1}\mathbf{T}_3^{(v)}(\mathbf{H}^{(v)}\mathbf{H}^{(v)T})^{-1}的每一个列向量形成的列向量。T1v=(Y(v)TY(v)+I)1H(v)H(v)T\mathbf{T}_1^v=(\mathbf{Y}^{(v)T}Y^{(v)}+I)^{-1}\mathbf{H}^{(v)}\mathbf{H}^{(v)T}T2(v)=(H(v)H(v)T)1\mathbf{T}_2^{(v)}=(\mathbf{H}^{(v)}\mathbf{H}^{(v)T})^{-1}\otimes表示克罗内克积,其是两个任意大小的矩阵之间的运算。函数reshape[Z(v)(:)]nv×nvreshape[\left.\mathbf{Z}^{(v)}(:)\right]_{n_v \times n_v}是将列向量Z(v)(:)\mathbf{Z}^{(v)}(:)reshape成一个矩阵Z(v)Rnv×nv\mathbf{Z}^{(v)} \in \mathbb{R}^{n_v \times n_v}

  2. 固定Z(v),E(v),F(v),D(v),U,W(v)\mathbf{Z}^{(v)}, \mathbf{E}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}, \mathbf{W}^{(v)}更新S\mathcal{S}

    公式8S=Γ1μω[C+Qμ]=Uifft(P1μω(C+Qμ)VT公式8:\begin{aligned} \mathcal{S}^* &=\Gamma_{\frac{1}{\mu}} * \omega\left[\mathcal{C}+\frac{\mathcal{Q}}{\mu}\right] \\ &=\mathcal{U} * \operatorname{ifft}\left(P_{\frac{1}{\mu}} * \omega\left(\overline{\mathcal{C}+\frac{\mathcal{Q}}{\mu}}\right) * \mathcal{V}^T\right. \end{aligned}

    其中Pτn3(A)P_{\tau\cdot n_3}(\overline{\mathcal{A}})是一个n1×n2×n3n_1 \times n_2 \times n_3的f-diagonal tensor(从GST(generalized shrinkage thresholding)算法引入的)

  3. 固定Z(v),E(v),F(v),D(v),U,S\mathbf{Z}^{(v)}, \mathbf{E}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}, \mathcal{S}更新W(v)\mathbf{W}^{(v)}

    目标是

    公式9minwi,:(v)(v)0,wi,i(v)=0μ2Wi,:(v)(Ri,:(v)λ22μJi,:(v))22ψi(b)T(Wi,:(v)I1)公式9:\begin{aligned} \min _{\mathbf{w}_{i,:}^{(v)}{ }^{(v)} \geq 0, \mathbf{w}_{i, i}^{(v)}=0} \frac{\mu}{2} \| \mathbf{W}_{i,:}^{(v)}-\left(\mathbf{R}_{i,:}^{(v)}\right.&\left.-\frac{\lambda_2}{2 \mu} \mathbf{J}_{i,:}^{(v)}\right) \|_2^2 \\ -\psi_i^{(b) T}\left(\mathbf{W}_{i,:}^{(v)} \mathrm{I}-1\right) \end{aligned}

    其中P(v)=H(v)F(v),R(v)=Z(v)+(C3(v)/μ)\mathbf{P}^{(v)}=\mathbf{H}^{(v)} \mathbf{F}^{(v)}, \mathbf{R}^{(v)}=\mathbf{Z}^{(v)}+\left(\mathbf{C}_3^{(v)} / \mu\right)Pi,:(v)\mathbf{P}_{i,:}^{(v)}Pj,:(v)\mathbf{P}_{j,:}^{(v)}分别表示矩阵P(v)\mathbf{P}^{(v)}的第i行和第j行的向量。Ji,j(t)=Pi,:(v)Pj,:(t)22\mathbf{J}_{i, j}^{(t)}=\left\|\mathbf{P}_{i,:}^{(v)}-\mathbf{P}_{j,:}^{(t)}\right\|_2^2ψi(v)T\psi_i^{(v)T}是矩阵ψ(v)\psi^{(v)}的第i个元素。于是其更新公式可以写为

    公式10Wi,i(v)={0,j=iRi,j(v)λ22μJi,j(v)+ψi(v)μ, otherwise. 公式10:\mathbf{W}_{i, i}^{(v)}=\left\{\begin{array}{ll} 0, & \mathrm{j}=\mathrm{i} \\ R_{i, j}^{(v)}-\frac{\lambda_2}{2 \mu} J_{i, j}^{(v)}+\frac{\psi_i^{(v)}}{\mu}, & \text { otherwise. } \end{array}\right.

    并且还需要经过W(v)=max(W(v),0)\mathbf{W}^{(v)}=\max \left(\mathbf{W}^{(v)}, 0\right),获得最终更新的W(v)W^{(v)},拉格朗日子乘项ψiv\psi_i^v可以表示为:

    公式11ψi(v)=μ(1j=1,jinv(Ri,j(v)λ22μJi,j(v)))(nv1)公式11:\psi_i^{(v)}=\frac{\mu\left(1-\sum_{j=1, j \neq i}^{n_v}\left(\mathbf{R}_{i, j}^{(v)}-\frac{\lambda_2}{2 \mu} \mathbf{J}_{i, j}^{(v)}\right)\right)}{\left(n_v-1\right)}

  4. 固定Z(v),F(v),D(v),U,S,W(v)\mathbf{Z}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}, \mathcal{S}, \mathbf{W}^{(v)}更新E(v)\mathbf{E}^{(v)}

    公式12E(v)=ϑλ1/μ(Y(v)Y(v)(Z(v)+D(v))+C1(v)μ),公式12:\mathbf{E}^{(v)}=\vartheta_{\lambda_1 / \mu}\left(\mathbf{Y}^{(v)}-\mathbf{Y}^{(v)}\left(\mathbf{Z}^{(v)}+\mathbf{D}^{(v)}\right)+\frac{\mathbf{C}_1^{(v)}}{\mu}\right),

    其中ϑ\vartheta表示shrinkage操作,定义ϑv(Z)=Z\vartheta_v(\mathcal{Z})=\overline{\mathcal{Z}}如下:

    公式13zˉn1n2n3={sgn(zn1n2n3)(zn1n2n3v),zn1n2n3>v,0,zn1n2n3v公式13:\bar{z}_{n_1 n_2 n_3}=\left\{\begin{array}{ll} \operatorname{sgn}\left(z_{n_1 n_2 n_3}\right)\left(\left|z_{n_1 n_2 n_3}\right|-v\right), & \left|z_{n_1 n_2 n_3}\right|>v, \\ 0, & \left|z_{n_1 n_2 n_3}\right| \leq v \end{array}\right.

  5. 固定Z(v),F(v),E(v),U,S,W(v)\mathbf{Z}^{(v)}, \mathbf{F}^{(v)}, \mathbf{E}^{(v)}, \mathbf{U}, \mathcal{S}, \mathbf{W}^{(v)}更新D(v)\mathbf{D}^{(v)}

    公式14D(v)=(I+Y(v)TY(v))1Y(v)TM4(v)公式14:\mathbf{D}^{(v)}=\left(\mathrm{I}+\mathbf{Y}^{(v) T} \mathbf{Y}^{(v)}\right)^{-1} \mathbf{Y}^{(v) T} \mathbf{M}_4^{(v)}

    其中M4(v)=Y(v)Y(v)Z(v)E(v)+C1(v)μ\quad \mathbf{M}_4^{(v)}=\mathbf{Y}^{(v)}-\mathbf{Y}^{(v)} \mathbf{Z}^{(v)}-\mathbf{E}^{(v)}+\frac{\mathbf{C}_1^{(v)}}{\mu}

  6. 固定Z(v),E(v),D(v),U,S,W(v)\mathbf{Z}^{(v)}, \mathbf{E}^{(v)}, \mathbf{D}^{(v)}, \mathbf{U}, \mathcal{S}, \mathbf{W}^{(v)}更新F(v)\mathbf{F}^{(v)}

    通过考虑下面的最小化问题得到每一个视图的聚类指标矩阵F(v)\mathbf{F}^{(v)}

    公式15minF(v)TF(v)=Iλ2tr(F(v)TH(v)TL(v)H(v)F(v))λ3tr(F(v)F(v)TUUT)maxF(v)TF(v)=Itr(F(v)T(λ3UUTλ2H(v)TL(v)H(v))F(v))公式15:\begin{array}{l} \min _{\mathbf{F}^{(v) T} \mathbf{F}^{(v)}=\mathrm{I}} \lambda_2 \operatorname{tr}\left(\mathbf{F}^{(v) T} \mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)} \mathbf{F}^{(v)}\right)\\ -\lambda_3 \operatorname{tr}\left(\mathbf{F}^{(v)} \mathbf{F}^{(v) T} \mathbf{U} \mathbf{U}^T\right)\\ \Leftrightarrow\\ \max _{\mathbf{F}^{(v) T} \mathbf{F}^{(v)}=\mathrm{I}} \operatorname{tr}\left(\mathbf{F}^{(v) T}\left(\lambda_3 \mathbf{U} \mathbf{U}^T-\lambda_2 \mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)}\right) \mathbf{F}^{(v)}\right) \end{array}

    通过使用特征值分解,F(t)\mathbf{F}^{(t)}是对应矩阵λ3UUTλ2H(v)TL(v)H(v)\lambda_3 \mathbf{U} \mathbf{U}^T-\lambda_2 \mathbf{H}^{(v) T} \mathbf{L}^{(v)} \mathbf{H}^{(v)}前c大的特征值的特征向量

  7. 固定Z(v),F(v),D(v),E(v),S,W(v)\mathbf{Z}^{(v)}, \mathbf{F}^{(v)}, \mathbf{D}^{(v)}, \mathbf{E}^{(v)}, S, \mathbf{W}^{(v)},更新U\mathbf{U}

    可以得到公共聚类表示U\mathbf{U},通过下面的问题

    公式16minUTU=1bλ3tr(F(v)F(v)TUUT)maxUTU=Itr(UT(tF(v)F(v)T)U)公式16:\begin{array}{l} \min _{\mathbf{U}^T \mathbf{U}=1}-\sum_b \lambda_3 \operatorname{tr}\left(\mathbf{F}^{(v)} \mathbf{F}^{(v) T} \mathbf{U} \mathbf{U}^T\right) \\ \quad \Leftrightarrow \\ \max _{\mathbf{U}^T \mathbf{U}=I} \operatorname{tr}\left(\mathbf{U}^T\left(\sum_t \mathbf{F}^{(v)} \mathbf{F}^{(v) T}\right) \mathbf{U}\right) \end{array}

    使用矩阵vF(v)F(v)T\sum_v \mathbf{F}^{(v)} \mathbf{F}^{(v) T}的前c大的特征值的特征向量作为U\mathbf{U}的最优解

  8. 固定其他变量,更新C1(v),Q,C3(v)\mathbf{C}_1^{(v)},\mathcal{Q},\mathbf{C}_3^{(v)}μ\mu

    公式17C1(v)=C1(v)+μ(Y(v)Y(v)(Z(v)+D(v))E(v))C3(v)=C3(v)+μ(Z(v)W(v))Q=Q+μ(CS)μ=min(ρμ,μ0)公式17:\begin{aligned} \mathbf{C}_1^{(v)} &=\mathbf{C}_1^{(v)}+\mu\left(\mathbf{Y}^{(v)}-\mathbf{Y}^{(v)}\left(\mathbf{Z}^{(v)}+\mathbf{D}^{(v)}\right)-\mathbf{E}^{(v)}\right) \\ \mathbf{C}_3^{(v)} &=\mathbf{C}_3^{(v)}+\mu\left(\mathbf{Z}^{(v)}-\mathbf{W}^{(v)}\right) \\ \mathcal{Q} &=\mathcal{Q}+\mu(\mathcal{C}-\mathcal{S}) \\ \mu &=\min \left(\rho \mu, \mu_0\right) \end{aligned}

    其中ρ\rhoμ0\mu_0是常数

为了得到最终的聚类结果,本文在公共矩阵U\mathbf{U}上执行K-means算法。

不完全多视图聚类的视图一致性学习算法

输入:不完整多视图数据Y(v)\mathbf{Y}^{(v)},坐标矩阵H(v)\mathbf{H}^{(v)},参数λ1,λ2,λ3,λ4\lambda_1,\lambda_2,\lambda_3,\lambda_4

初始化:和IMSC-AGL一样初始化Z(v),F(v)\mathbf{Z}^{(v)},\mathbf{F}^{(v)},使用公式16初始化聚类矩阵U\mathbf{U}μ0=108\mu_0=10^8ρ=1.1\rho=1.1μ=102\mu=10^{-2}

begin:

  1. while 没收敛 do:
  2. for v from 1 to V do:
    1. 通过公式7计算Z(v)\mathbf{Z}^{(v)}
    2. 通过公式8计算S\mathcal{S}
    3. 通过公式10和11计算W(v)\mathbf{W}^{(v)}ψ(v)\psi^{(v)},然后W(v)=max(W(v),0)\mathbf{W}^{(v)}=\max \left(\mathbf{W}^{(v)}, 0\right)
    4. 通过公式12计算E(v)\mathbf{E}^{(v)}
    5. 通过公式14计算D(v)\mathbf{D}^{(v)}
    6. 使用公式15计算F(v)\mathbf{F}^{(v)}
    7. 使用公式17分别计算C1(v),Q,C3(v)\mathbf{C}_1^{(v)},\mathcal{Q},\mathbf{C}_3^{(v)}
  3. 使用公式16计算聚类矩阵U\mathbf{U}
  4. 使用公式17计算乘法参数μ\mu

输出:U\mathbf{U}