<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          「上帝視角」看對比自監(jiān)督學(xué)習(xí),SimCLR、CPC、AMDIM并無本質(zhì)差異

          共 2775字,需瀏覽 6分鐘

           ·

          2020-09-10 10:19



          ??新智元報道??

          來源:towardsdatascience

          編輯:QJP、小智

          【新智元導(dǎo)讀】近日,兩位Facebook的研究員小哥,提出了一種新的對比各種自監(jiān)督學(xué)習(xí)框架的方法,結(jié)果顯示SimCLR、CPC、AMDIM這些框架,彼此之間并無本質(zhì)差異。


          對比自監(jiān)督學(xué)習(xí)將取代監(jiān)督式深度學(xué)習(xí)主導(dǎo)地位的預(yù)言,已經(jīng)「甚囂塵上」。

          ?

          Hinton大力推廣的SimCLR就是其中一種。

          ?

          對比自監(jiān)督學(xué)習(xí)(CLS)是從無標(biāo)簽數(shù)據(jù)中選擇和對比Anchor,Positive,Negative(APN)三種特征,學(xué)習(xí)到有用表征的方法。

          ?

          近日,F(xiàn)acebook的兩位研究員,使用一個新的框架來對比分析了目前三個主流的自監(jiān)督學(xué)習(xí)算法:SimCLR、CPC、AMDIM。結(jié)果顯示,盡管這些方法表面上看起來非常不同,但實際上他們互相之間只有微小的差異。


          回顧:自監(jiān)督學(xué)習(xí)和對比學(xué)習(xí)

          自監(jiān)督學(xué)習(xí)
          ?

          在有監(jiān)督學(xué)習(xí)中,系統(tǒng)會給定一個輸入x和一個標(biāo)簽y。而在自監(jiān)督學(xué)習(xí)中,系統(tǒng)只給定了輸入x,系統(tǒng)需要從輸入x的一部分來預(yù)測輸入的其他部分,輸入既是source,也是target。
          ?
          對比學(xué)習(xí)
          ?
          俗話說,近朱者赤近墨者黑,機器學(xué)習(xí)中也有一種類似思想的算法就是聚類,對比學(xué)習(xí)與這種思想也是十分相似,通過三個要素來完成這個任務(wù),即積極的,錨定的和消極的表征。
          ?
          對于一張圖片,我們需要一張相似的圖片來構(gòu)建一個正例二元組,需要一個相似的圖片和一張不相關(guān)的圖片來構(gòu)成一個負(fù)例三元組。
          但是在自監(jiān)督學(xué)習(xí)中,樣本的標(biāo)簽y是不知道的,所以無法得知兩張照片是否相似。如果假設(shè)每張圖片都有自己的標(biāo)簽,那就可以通過各種方法來形成這些三元組。
          ?
          有了標(biāo)簽以后,就可以通過新提出的框架對各種CLS方法進(jìn)行評估。


          評估對比自監(jiān)督學(xué)習(xí)的五個新視角

          下面,這個框架通過五種視角來對比CLS的各種方法,包括:
          ?
          1.數(shù)據(jù)增強管道
          ?
          2.編碼器選擇
          ?
          3.表征抽取
          ?
          4.相似度度量
          ?
          5.損失函數(shù)
          ?
          ?
          第一個視角是定義一個數(shù)據(jù)增強管道。
          ? ? ? ?
          在深度學(xué)習(xí)中,數(shù)據(jù)增強的目的就是為了擴(kuò)充數(shù)據(jù)集,通過對輸入圖像進(jìn)行翻轉(zhuǎn)、對稱、抖動、灰度等各種操作來增加數(shù)據(jù)的量。
          ?
          主流的三種CLS方法的數(shù)據(jù)增強管道也是也有千秋。
          ?
          CPC
          ? ? ? ?? ? ? ?
          CPC除了使用抖動、灰度和翻轉(zhuǎn)之外,還使用了一種新的變換,就是將原來的圖像分割成Patches小塊。通過CPC管道,可以生成多組正負(fù)樣本對。
          ?
          AMDIM
          ?
          AMDIM管道是通過執(zhí)行完一些基本的翻轉(zhuǎn)抖動等操作以后,對同一個圖像使用兩次數(shù)據(jù)增強管道,生成兩個版本的圖像。
          ? ? ? ?? ? ? ?
          SimCLR
          ?
          在他們的論文中,發(fā)現(xiàn)變換方式的選擇對于方法最后的表現(xiàn)十分重要,事實上,這些方法的表現(xiàn)都是通過選擇特定的變換來驅(qū)動的。
          ?
          對比CLS方法的第二個視角是編碼器Encoder。
          ?
          ? ? ? ? ? ? ?
          ?
          CLS方法大多只是使用了不同寬度和深度的ResNet架構(gòu),通過消融實驗可以發(fā)現(xiàn),AMDIM不能夠很好的泛化,而CPC受到編碼器結(jié)構(gòu)變化的影響較小。
          ?
          在消融實驗中還有一個額外的發(fā)現(xiàn),更寬的編碼器在對比學(xué)習(xí)中的表現(xiàn)更好。
          ?
          第三種視角是表征抽取。
          ?
          這是「魔術(shù)」發(fā)生的地方,也是他們不同之處最大的地方。
          ?
          CPC通過在隱藏空間中預(yù)測未來信息來學(xué)習(xí)表征。把圖片當(dāng)成一條時間線,過去的信息在左上方,未來的信息在右下方。
          ? ? ? ?
          ? ? ?
          AMDIM是比較從CNN不同層的得到特征圖之間的表征方式。這些表征來自于兩個部分:一個圖像的多個視圖和CNN的中間層。
          ? ? ? ?? ? ? ?

          SimCLR與AMDIM類似,但是進(jìn)行了兩個改進(jìn):一是只使用最后一個特征圖,二是通過投影頭運行特征映射并比較兩個向量(類似于 CPC 上下文投影)。
          ?
          用來比較這些方法還有兩種方式:相似性度量和損失函數(shù)。
          ?
          相似性度量使用了點積或者余弦距離,作者的實驗表明,相似性的選擇是無關(guān)緊要的。損失函數(shù)都使用了NCE損失。
          ?

          YADIM:目前的對比學(xué)習(xí)框架只是特例

          研究人員找到了一種新的方法來顯示這個框架的用途,這種方法叫做Yet Another DIM (YADIM).
          ?
          YADIM的特點如下:
          ?
          1.合并了CPC和AMDIM的管道
          ?
          2.使用了AMDIM的編碼器
          ?
          3.對一個圖像進(jìn)行多個版本的編碼,并使用最后一層的特征圖進(jìn)行比較。
          ?
          4.使用點積求相似度
          ?
          5.使用NCE損失函數(shù)
          ?
          YADIM的實驗結(jié)果
          ?? ? ?

          ?
          可以看出,盡管融合了AMDIM和CPC的模型效果最優(yōu),但是YADIM的效果也僅差了一點
          ?
          SimCLR只是YADIM的一種特殊情況。
          ?
          SimCLR像AMDIM一樣,通過最大化同一圖像的兩個視圖之間的相似性來提取表征。
          ?
          SimCLR與AMDIM相似,但進(jìn)行了一些小調(diào)整。首先,它使用非定制的通用ResNet。其次,它使用了經(jīng)過修改的數(shù)據(jù)增強管道。第三,它使用投影頭添加了參數(shù)化的相似性度量。最后,它為NCE損失增加了比例系數(shù)(τ)。
          ?
          接下來,我們具體分析下SimCLR是如何做的。
          ?
          數(shù)據(jù)增強管道:SimCLR的數(shù)據(jù)增強跟AMDIM類似,對同一輸入使用兩次隨機擴(kuò)充,包括隨機調(diào)整大小和裁剪,隨機水平翻轉(zhuǎn),顏色抖動,隨機灰度和高斯模糊。
          ?
          編碼器:SimCLR中的編碼器是一個可變寬度和深度的ResNet,SimCLR中的ResNet使用批量歸一化。
          ?
          表征抽取:R與AMDIM類似,但只使用最后一個特征圖,二是通過投影頭進(jìn)行特征映射并比較相似度。
          ?
          相似性度量:SimCLR使用投影頭z =fφ將表示向量從編碼器映射到另一個向量空間,即fφ:R c→R c,將兩個向量之間的余弦相似度作為評分。
          ?
          損失函數(shù):SimCLR使用NCE損失來調(diào)整相似性評分的范圍。
          ?
          ? ? ? ? ? ? ?
          ?
          這種損失將錨點和正樣本聚集在一起,而將錨點和負(fù)樣本分開。
          ?
          如果再分析下AMDIM和CPC就不難發(fā)現(xiàn),這些對比自監(jiān)督學(xué)習(xí)框架都是大同小異,只是從上面五個角度做了微小改動而已。
          ?
          這也是首個在同一標(biāo)準(zhǔn)下對三大框架進(jìn)行對比的工作,讓我們從一個更高的視角窺探了對比自監(jiān)督學(xué)習(xí)的原理,也為后來者提供了改進(jìn)現(xiàn)有對比學(xué)習(xí)方法的新思路。



          參考鏈接:

          https://towardsdatascience.com/a-framework-for-contrastive-self-supervised-learning-and-designing-a-new-approach-3caab5d29619




          瀏覽 70
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  热99国产 | 欧美黄色性爱 | 黄色毛片在线观看 | 亚洲AV无码成人精品国产网站 | 影音先锋女人aV鲁色资源网站 |