深度神經(jīng)網(wǎng)絡(luò)+聚類的概述
【導(dǎo)讀】
本篇介紹了深度神經(jīng)網(wǎng)絡(luò)表示學(xué)習(xí)+聚類的方法(深度聚類)綜述,有幫助的話,文末點個贊吧~

圖1:本次調(diào)查的目錄樹。
對于傳統(tǒng)的聚類任務(wù),通常假設(shè)數(shù)據(jù)具有相同的形式和結(jié)構(gòu),這被稱為單視點數(shù)據(jù)或單模態(tài)數(shù)據(jù)。通過深度神經(jīng)網(wǎng)絡(luò)(DNNs)提取這些數(shù)據(jù)的表示形式是深度聚類的一個重要特征。然而,更值得注意的是不同的應(yīng)用深度學(xué)習(xí)技術(shù),它們與DNNs的結(jié)構(gòu)高度相關(guān)。為了比較具體的DNNs的技術(shù)路線,根據(jù)特征提取器的訓(xùn)練方式,我們將單視圖深度聚類算法分為五類:基于深度自編碼器(DAE)的深度聚類,基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的深度聚類、基于變分自編碼器(VAE)的深度聚類、基于生成對抗網(wǎng)絡(luò)(GAN)的深度聚類和基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類。這些方法的區(qū)別主要在于損失分量,其中損失項的定義見表1,并解釋如下:
在本文中,面向聚類的損失Lc表示聚類目標(biāo)的損失?;贒AE/基于GNN的方法使用自動編碼器/圖自動編碼器作為特征提取器,因此損失函數(shù)總是由一個重構(gòu)損失Lrec和另一個面向聚類的損失Lc組成。相比之下,基于DNN的方法使用額外的任務(wù)或其他策略來優(yōu)化特征提取器?;赩AE的方法優(yōu)化了證據(jù)損失的下限LELBO。基于GAN的方法是基于生成式的對抗性損失Lgan?;谶@五個維度,現(xiàn)有的單視圖深度聚類方法總結(jié)見表2和表3。
表2:基于DAE和DNN的深度聚類方法總結(jié)。
1.1 基于深度自編碼器(DAE)的深度聚類
DAE 是一種無監(jiān)督學(xué)習(xí)技術(shù),旨在通過最小化網(wǎng)絡(luò)的重構(gòu)損失來學(xué)習(xí)低維嵌入特征空間。在基于 DAE 的深度聚類方法中,有兩種主要方法來獲取標(biāo)簽:將數(shù)據(jù)嵌入到低維特征中,然后使用傳統(tǒng)聚類方法(如 k-means 算法)對嵌入特征進(jìn)行聚類,或者聯(lián)合優(yōu)化特征提取器和聚類結(jié)果。定義為:

其中,φe(.)和φr(.)分別表示自動編碼器的編碼器網(wǎng)絡(luò)和解碼器網(wǎng)絡(luò)。利用該編碼器作為特征提取器,提出了各種聚類目標(biāo)函數(shù)。我們將這些基于深度自編碼器的聚類方法總結(jié)為基于DAE的深度聚類。
1.2 基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的深度聚類
與基于自編碼器(DAE)的聚類方法不同,基于DNN的聚類方法需要設(shè)計額外的任務(wù)來訓(xùn)練特征提取器。我們從“聚類導(dǎo)向的損失函數(shù)”和“特點”兩個方面總結(jié)了基于DNN的聚類方法,其中“聚類導(dǎo)向的損失函數(shù)”顯示是否有損失函數(shù)明確縮小內(nèi)部簇距離或擴(kuò)大簇間距離。基于DNN的聚類方法可以使用全連接網(wǎng)絡(luò)來提取一維數(shù)據(jù)特征,也可以使用卷積神經(jīng)網(wǎng)絡(luò)來提取圖像特征。在計算機(jī)視覺領(lǐng)域,有一類基于 DNN 的聚類方法專注于圖像聚類,這些方法通常使用卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行圖像特征學(xué)習(xí)和語義聚類。圖2顯示了基于卷積神經(jīng)網(wǎng)絡(luò)的深度無監(jiān)督學(xué)習(xí)的框架。
圖2展示了基于DNN的學(xué)習(xí)框架(單視圖聚類)。X是用于聚類的數(shù)據(jù),f是用于X的特征提取器。第I部分描述了監(jiān)督學(xué)習(xí)的框架。Y表示真實標(biāo)簽,S表示預(yù)測結(jié)果。通過Y和S,我們可以計算分類損失以進(jìn)行反向傳播。第II部分是具有額外任務(wù)的方法的框架。這些額外任務(wù)用于訓(xùn)練良好嵌入Z的網(wǎng)絡(luò)。第III部分描述了需要微調(diào)聚類分配的方法的過程。S表示預(yù)測結(jié)果,R是S的調(diào)整。
1.3 基于變分自編碼器(VAE)的深度聚類
基于變分自編碼器(VAE)的深度聚類方法的目標(biāo)是解決關(guān)于證據(jù)下界(ELBO)的優(yōu)化問題,可以自動學(xué)習(xí)數(shù)據(jù)的特征表示和聚類,同時可以處理高維數(shù)據(jù)。其中 ELBO 是聯(lián)合概率分布和近似概率分布之間的差異。p是聯(lián)合概率分布,q的近似概率分布p(z|x),x是集群的輸入數(shù)據(jù)和z潛在變量生成對應(yīng)于x:

不同之處在于,不同的算法有不同的潛在變量生成模型或不同的正則化器。
優(yōu)化后,

變分深度嵌入(VaDE)、高斯混合變分自動編碼器(GMVAE)、潛在樹變分自編碼器(LTVAE)等備受關(guān)注的基于變分自編碼器的深度聚類方法,使用不同的潛在變量的生成模型或不同的正則化器。
1.4 基于生成對抗網(wǎng)絡(luò)(GAN)的深度聚類
基于生成對抗網(wǎng)絡(luò)(GAN)的深度聚類方法的目標(biāo)是學(xué)習(xí)數(shù)據(jù)的潛在分布,以便進(jìn)行聚類,使用生成器和判別器兩個網(wǎng)絡(luò)進(jìn)行訓(xùn)練,其中生成器用于生成假數(shù)據(jù),判別器用于區(qū)分真實數(shù)據(jù)和假數(shù)據(jù)。

3種重要的基于生成對抗網(wǎng)絡(luò)(GAN)的深度聚類方法:概率聚類算法是一種基于概率模型的聚類方法,可以通過最大化數(shù)據(jù)的似然函數(shù)來學(xué)習(xí)數(shù)據(jù)的潛在分布;CatGAN是一種改進(jìn)的 GAN 模型,可以用于多類別分類任務(wù)和半監(jiān)督學(xué)習(xí)任務(wù);可解釋的表示學(xué)習(xí)是一種基于信息理論的方法,可以學(xué)習(xí)數(shù)據(jù)的可解釋特征表示。
基于生成對抗網(wǎng)絡(luò)(GAN)的深度聚類方法可以自動學(xué)習(xí)數(shù)據(jù)的特征表示和聚類,同時可以處理高維數(shù)據(jù)和非線性數(shù)據(jù)。同時也存在一些挑戰(zhàn),例如訓(xùn)練不穩(wěn)定、模式崩潰和模式坍塌等問題。因此,需要進(jìn)一步研究和改進(jìn),以提高其性能和穩(wěn)定性。
1.5 基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類
基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類方法是一種可以處理任意圖結(jié)構(gòu)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),可以應(yīng)用于多種實際應(yīng)用場景,如社交網(wǎng)絡(luò)、蛋白質(zhì)結(jié)構(gòu)和交通網(wǎng)絡(luò)等。
GNN的經(jīng)典迭代計算方法:

即使用Banach的不動點定理來計算狀態(tài),其中F是全局轉(zhuǎn)移函數(shù),H是狀態(tài)的固定點,H = F(H, X)。該迭代計算方法可以處理任意圖結(jié)構(gòu)數(shù)據(jù),并且可以通過反向傳播算法進(jìn)行訓(xùn)練。在GNN的訓(xùn)練過程中,許多方法都試圖將注意和門控機(jī)制引入到圖結(jié)構(gòu)中。其中包括圖卷積網(wǎng)絡(luò)(GCN)等,如圖4。這些方法可以進(jìn)一步提高GNN的性能和穩(wěn)定性。

圖4展示了圖自編碼器在聚類中的數(shù)據(jù)流框架。GCN(N, M)是一個圖自編碼器,GCN()用于表示圖卷積神經(jīng)網(wǎng)絡(luò),圖自編碼器由兩層圖卷積神經(jīng)網(wǎng)絡(luò)組成。節(jié)點屬性N和圖結(jié)構(gòu)M都被用作編碼器的輸入。Z是節(jié)點嵌入向量的矩陣。α是一個激活函數(shù),Mf是圖鄰接矩陣M的預(yù)測值。
GNN在半監(jiān)督聚類、多視圖聚類和遷移學(xué)習(xí)等方面的應(yīng)用。半監(jiān)督聚類是一種利用標(biāo)記和未標(biāo)記數(shù)據(jù)進(jìn)行聚類的方法,可以通過GNN來學(xué)習(xí)數(shù)據(jù)的潛在表示和聚類。多視圖聚類是一種利用多個視圖數(shù)據(jù)進(jìn)行聚類的方法,可以通過GNN來融合多個視圖數(shù)據(jù)并進(jìn)行聚類。遷移學(xué)習(xí)是一種利用已有知識來解決新問題的方法,可以通過GNN來學(xué)習(xí)跨領(lǐng)域的表示和聚類。
2 半監(jiān)督深度聚類
半監(jiān)督深度聚類是一種深度聚類方法,它結(jié)合了有監(jiān)督和無監(jiān)督學(xué)習(xí)的優(yōu)點,可以利用少量標(biāo)記數(shù)據(jù)和大量未標(biāo)記數(shù)據(jù)進(jìn)行聚類。該方法主要分為兩個階段:特征提取和降維,以及聚類。在特征提取和降維階段,使用自編碼器或生成對抗網(wǎng)絡(luò)等無監(jiān)督學(xué)習(xí)方法對數(shù)據(jù)進(jìn)行特征提取和降維。在聚類階段,使用傳統(tǒng)聚類算法如K-means等對特征進(jìn)行聚類。在這個過程中,少量標(biāo)記數(shù)據(jù)可以用于指導(dǎo)聚類過程,提高聚類的準(zhǔn)確性。半監(jiān)督深度聚類方法在圖像分類、文本聚類、圖像聚類等領(lǐng)域都有廣泛的應(yīng)用。
半監(jiān)督深度聚類方法還沒有得到很好的探索。表4介紹總結(jié)了幾個代表性的研究工作,這些工作使用不同的方法將關(guān)系約束和神經(jīng)網(wǎng)絡(luò)相結(jié)合,以獲得更好的聚類性能。
表4:半監(jiān)督的深度聚類方法。
3 多視圖深度聚類
多視圖深度聚類是一種利用多視角數(shù)據(jù)進(jìn)行深度聚類的方法。在現(xiàn)實世界中,數(shù)據(jù)通常來自不同的特征收集器或具有不同的結(jié)構(gòu),這些數(shù)據(jù)被稱為“多視圖數(shù)據(jù)”或“多模態(tài)數(shù)據(jù)”,每個樣本具有多個表示。多視圖深度聚類的目的是利用多視圖數(shù)據(jù)中包含的一致和互補信息來提高聚類性能。我們將多視圖深度聚類總結(jié)為三類:基于深度嵌入聚類(DEC)、基于子空間聚類和基于圖神經(jīng)網(wǎng)絡(luò)聚類。這些方法在表5中進(jìn)行了總結(jié)。

3.1 基于深度嵌入的聚類
基于深度嵌入聚類使用自編碼器學(xué)習(xí)低維嵌入特征表示,并最小化學(xué)生t分布和特征表示的輔助目標(biāo)分布之間的KL散度來實現(xiàn)聚類。改進(jìn)的DEC(IDEC)強(qiáng)調(diào)數(shù)據(jù)結(jié)構(gòu)保持,并在進(jìn)行微調(diào)任務(wù)時添加了低維特征表示的重構(gòu)損失項。一些深度多視角聚類方法也采用了這種深度學(xué)習(xí)流程。
3.2 基于子空間聚類的方法
基于子空間聚類的方法旨在處理高維數(shù)據(jù),其中數(shù)據(jù)點可以被表示為低維子空間中的線性組合。這些方法通常使用低秩矩陣分解或稀疏編碼來學(xué)習(xí)子空間表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實現(xiàn)聚類。DSC-Net、DESC等方法使用自編碼器來學(xué)習(xí)低維嵌入特征表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實現(xiàn)聚類。但是它們的性能高度依賴于子空間的質(zhì)量和數(shù)量。
3.3 基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的聚類方法
基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的聚類方法。GNN允許對具有任意圖結(jié)構(gòu)的數(shù)據(jù)進(jìn)行端到端的可微損失計算,并已被應(yīng)用于廣泛的應(yīng)用領(lǐng)域,如社交網(wǎng)絡(luò)、蛋白質(zhì)結(jié)構(gòu)和交通網(wǎng)絡(luò)等。DeepCluster、Graclus和DiffPool等方法使用GNN來學(xué)習(xí)數(shù)據(jù)的低維嵌入表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實現(xiàn)聚類。基于GNN的聚類方法是處理圖結(jié)構(gòu)數(shù)據(jù)的有效工具,但是它們的性能高度依賴于圖結(jié)構(gòu)的質(zhì)量和數(shù)量。
4 遷移學(xué)習(xí)深度聚類
遷移學(xué)習(xí)是一種新的學(xué)習(xí)框架,用于解決訓(xùn)練和測試數(shù)據(jù)來自不同特征空間或分布的問題。對于復(fù)雜數(shù)據(jù),如高分辨率的真實圖像和嘈雜視頻,傳統(tǒng)聚類方法甚至深度聚類方法也無法很好地工作,因為特征空間的高維度和沒有統(tǒng)一的標(biāo)準(zhǔn)來保證聚類過程。遷移學(xué)習(xí)通過將來自具有附加信息的源域的信息轉(zhuǎn)移來指導(dǎo)目標(biāo)域的聚類過程,提供了解決這些問題的新解決方案。
基于DNN和GAN的遷移學(xué)習(xí)深度聚類方法的總結(jié)如圖6。DNN側(cè)重于兩個域的測量策略,是處理源域和目標(biāo)域之間相似性較高的數(shù)據(jù)的有效工具;而GAN使用判別器來擬合測量策略,是處理源域和目標(biāo)域之間相似性較低的數(shù)據(jù)的有效工具。但是它們的性能高度依賴于源域和目標(biāo)域之間的相似性。
表6:基于DNN和GAN的遷移學(xué)習(xí)深度聚類方法的總結(jié)
4.1 基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的遷移學(xué)習(xí)聚類方法
基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的遷移學(xué)習(xí)聚類方法旨在將源域和目標(biāo)域投影到相同的特征空間中,其中使用源嵌入和標(biāo)簽訓(xùn)練的分類器可以應(yīng)用于目標(biāo)域。深度適應(yīng)網(wǎng)絡(luò)(DAN)使用MMD(MK-MMD)的多個內(nèi)核變體作為其域適應(yīng)函數(shù),數(shù)據(jù)流框架如圖5。
圖5展示了深度適應(yīng)網(wǎng)絡(luò)(DAN)的數(shù)據(jù)流框架。Ds是源域,Dt是目標(biāo)域。f是兩個域的共享編碼器,可以使用現(xiàn)有網(wǎng)絡(luò)進(jìn)行初始化。f的前幾層被凍結(jié),f的最后幾層可以在訓(xùn)練過程中進(jìn)行微調(diào)。fs是Ds的編碼器,ft是Dt的編碼器。Ss是Ds的預(yù)測標(biāo)簽向量,Y是Ds的真實標(biāo)簽。St是Dt的預(yù)測結(jié)果。
4.2 基于生成對抗網(wǎng)絡(luò)(GAN)的遷移學(xué)習(xí)聚類方法
基于生成對抗網(wǎng)絡(luò)(GAN)的遷移學(xué)習(xí)聚類方法使用判別器來擬合測量策略,以指導(dǎo)目標(biāo)域的聚類過程。Co-GAN在UDA中的數(shù)據(jù)流框架如圖6。
圖6:Co-GAN在UDA中的數(shù)據(jù)流框架。它由一對GAN組成:GAN1和GAN2。GAN1和GAN2在φg的第一層和φd的最后一層共享權(quán)重。Ds是源域,Dt是目標(biāo)域。φd. Dcs和φd. Dct是通過噪聲生成的。φg的第一層負(fù)責(zé)解碼高級語義,φd的最后一層負(fù)責(zé)編碼高級語義。在這些層中添加權(quán)重共享約束可以保證兩個域具有相似的高級語義表示,但具有不同的低級特征表示。
往期精彩回顧
適合初學(xué)者入門人工智能的路線及資料下載 (圖文+視頻)機(jī)器學(xué)習(xí)入門系列下載 機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印 《統(tǒng)計學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯
機(jī)器學(xué)習(xí)交流qq群772479961,加入微信群請掃碼
