<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          (附論文)綜述 | 少樣本學(xué)習(xí)

          共 2697字,需瀏覽 6分鐘

           ·

          2021-08-07 17:32

          點(diǎn)擊左上方藍(lán)字關(guān)注我們



          一個(gè)專注于目標(biāo)檢測與深度學(xué)習(xí)知識(shí)分享的公眾號(hào)

          編者薦語
          文章將少樣本學(xué)習(xí)的方法分為三類:基于數(shù)據(jù)、基于模型和基于算法。其中,基于數(shù)據(jù)的方法包括對(duì)訓(xùn)練集進(jìn)行變換和對(duì)其他數(shù)據(jù)集進(jìn)行變換;基于模型的主要思想是通過先驗(yàn)知識(shí)限制假設(shè)空間的大小,使模型只需要較少樣本便能訓(xùn)練最優(yōu)分類器;基于算法的思想主要是通過學(xué)習(xí)最優(yōu)參數(shù)的優(yōu)化步驟或者以較優(yōu)參數(shù)為起點(diǎn)。

          轉(zhuǎn)載自 | Jy的煉丹爐@知乎

          鏈接 | https://zhuanlan.zhihu.com/p/389689066


          論文地址:https://arxiv.org/abs/1904.05046



          下面對(duì)上述的方法進(jìn)行詳細(xì)介紹。


          01


          基于數(shù)據(jù)
          1.1 變換訓(xùn)練集
          該策略通過將每個(gè)樣本轉(zhuǎn)換為幾個(gè)有一定變化的樣本來增廣訓(xùn)練集的樣本數(shù)。但是,目前為止變換訓(xùn)練集的方法只適用于圖像。
          人工規(guī)則(Handcrafted Rule):在圖像識(shí)別任務(wù)中,使用手工制作的規(guī)則變換原始樣本作為預(yù)處理程序,例如、翻轉(zhuǎn)、剪切、縮放、反射、裁剪和旋轉(zhuǎn)。
          學(xué)習(xí)規(guī)則(Learned Transformation):該策略通過將原始的樣本復(fù)制到幾個(gè)樣本中,然后通過學(xué)習(xí)到的轉(zhuǎn)換規(guī)則進(jìn)行修改來增廣訓(xùn)練集。
          討論:因?yàn)樯贅颖静]有很好地體現(xiàn)出數(shù)據(jù)的分布,因此基于簡單地進(jìn)行人工規(guī)則進(jìn)行數(shù)據(jù)增廣而不考慮任務(wù)或者需要的數(shù)據(jù)分布可能只能提供很少的額外監(jiān)督信息。
          1.2 變換其他數(shù)據(jù)集
          該策略將來自其他數(shù)據(jù)集的樣本進(jìn)行變換,達(dá)到增廣數(shù)據(jù)得到目的。
          弱標(biāo)記或無標(biāo)記數(shù)據(jù)集(Weakly Labeled or Unlabeled Data Set):該策略使用了一個(gè)大規(guī)模的弱標(biāo)記或未標(biāo)記的相同數(shù)據(jù)集


          舉個(gè)栗子:在視頻手勢識(shí)別中,有研究團(tuán)隊(duì)使用一個(gè)大但弱標(biāo)記的手勢庫。通過訓(xùn)練集訓(xùn)練的分類器,來從若標(biāo)記手勢庫中選擇與訓(xùn)練集相同的手勢樣本,然后使用這些選擇的示例構(gòu)建最后的手勢分類器。


          類似的數(shù)據(jù)集(Similar Data Set):這種策略通過聚合來自其他類似但更大的數(shù)據(jù)集的樣本對(duì)來增廣訓(xùn)練集??梢酝ㄟ^聚合從類似數(shù)據(jù)集的樣本來生成新的樣本,其中聚合權(quán)重通常是從其他信息源提取的相似度量。


          新奇的思路:老虎數(shù)據(jù)集類似于貓數(shù)據(jù)集,因此可以使用生成對(duì)抗網(wǎng)絡(luò)(GAN),從老虎數(shù)據(jù)集中合成貓的新樣本。


          討論:1.2中這兩種方法實(shí)際成本是比較高的:弱標(biāo)記數(shù)據(jù)集質(zhì)量可能很低,從更大數(shù)據(jù)集選擇相似樣本也需要足夠的的監(jiān)督信息。

          02
          基于模型
          對(duì)于使用普通的機(jī)器學(xué)習(xí)模型來處理少樣本訓(xùn)練,則必須選擇一個(gè)小的假設(shè)空間H。一個(gè)小的假設(shè)空間僅需要訓(xùn)練更少的樣本就可以得到最優(yōu)假設(shè)。
          因此,基于模型的策略利用先驗(yàn)知識(shí)來影響假設(shè)空間的選擇,例如:對(duì)假設(shè)空間進(jìn)行約束,這樣僅用較少訓(xùn)練樣本就能實(shí)現(xiàn)最優(yōu)擬合。
          2.1 多任務(wù)學(xué)習(xí)(Multitask learning)
          多任務(wù)學(xué)習(xí)方法自發(fā)地學(xué)習(xí)多個(gè)學(xué)習(xí)任務(wù),利用跨任務(wù)共享的通用信息和每個(gè)任務(wù)的特定學(xué)習(xí)信息來實(shí)現(xiàn)權(quán)重共享,從而進(jìn)一步約束假設(shè)空間H。
          其中參數(shù)共享分為硬參數(shù)共享和軟參數(shù)共享,如下圖所示
          硬參數(shù)共享:任務(wù)之間明確共享參數(shù),可以只共享部分參數(shù),例如可以通過多個(gè)任務(wù)共享幾個(gè)網(wǎng)絡(luò)的前幾層來學(xué)習(xí)通用信息,最后一層來處理每個(gè)任務(wù)的不同輸出。其他任務(wù)只能更新其特定于任務(wù)的層,而源任務(wù)可以更新共享層和特定層。
          軟參數(shù)共享:此策略不會(huì)在各個(gè)任務(wù)中顯式地共享參數(shù)。相反,每個(gè)任務(wù)都有自己的假設(shè)空間和參數(shù)。它只鼓勵(lì)不同任務(wù)的參數(shù)相似,從而導(dǎo)致類似的假設(shè)空間。
          2.2 嵌入學(xué)習(xí)(embedding learning)—— 一般用于分類
          嵌入學(xué)習(xí)將樣本映射到低維嵌入空間,在那里可以很容易地識(shí)別相似和不同的樣本,因此H收到約束。將樣本特征和測試數(shù)據(jù)特征embedding到低維空間Z,通過相似性度量,將測試數(shù)據(jù)預(yù)測為最相似的訓(xùn)練樣本的類。
          2.3 外部記憶學(xué)習(xí)(Learning with External Memory):用外部記憶學(xué)習(xí)將所需的知識(shí)直接記憶在外部記憶中,以供檢索或更新,通過一些相似性度量。然后,它使用相似性來確定從內(nèi)存中提取哪些知識(shí),使得之后的x能夠通過外部記憶獲取相關(guān)圖像進(jìn)行比對(duì)來實(shí)現(xiàn)更好的預(yù)測。
          2.4 生成式模型(Generative Modeling)
          這個(gè)方法是基于概率分布的方法,利用先驗(yàn)知識(shí)和數(shù)據(jù)來獲得估計(jì)的分布,來限制假設(shè)空間H的形狀

          03
          基于算法
          基于算法是學(xué)習(xí)在假設(shè)空間H中搜索最佳假設(shè)h?的參數(shù)θ的策略。
          3.1 改善現(xiàn)有的參數(shù):從其他任務(wù)中獲得初始參數(shù)用于初始化搜索,然后在新的訓(xùn)練集上進(jìn)行優(yōu)化。(例如;遷移學(xué)習(xí))
          Fine-tune θ0 with Regularization(使用正則化微調(diào)θ0(之前訓(xùn)練好的參數(shù))) 當(dāng)初始化參數(shù)遇到新問題時(shí),只需少量的樣本進(jìn)行幾步梯度下降就可以取得較好的效果。防止overfitting:正則化、凍結(jié)部分層的參數(shù)、先聚類后分組反向傳播微調(diào)
          聚合一組θ0從多個(gè)網(wǎng)絡(luò)的訓(xùn)練好的θ0中選取相關(guān)的值,并將它們聚合到適合Dtrain調(diào)整的初始化中。
          新參數(shù)微調(diào)θ0:預(yù)先訓(xùn)練的θ0可能不適合新FSL任務(wù)的結(jié)構(gòu)。具體來說,該策略在學(xué)習(xí)δ的同時(shí)微調(diào)θ0,使要學(xué)習(xí)的模型參數(shù)變?yōu)棣?= {θ0,δ},其中δ為額外的新參數(shù)。
          3.2 Refine Meta-learned θ :Model-Agnostic Meta-Learning (MAML)(模型無關(guān)自適應(yīng))
          該策略是與模型無關(guān)的meta-learning的方法,其核心思想是學(xué)習(xí)模型的初始化參數(shù)使得在一步或幾步迭代后在新任務(wù)上的精度最大化。它學(xué)的不是模型參數(shù)的更新函數(shù)或是規(guī)則,它不局限于參數(shù)的規(guī)模和模型架構(gòu)(比如用RNN或siamese)。本質(zhì)上也是學(xué)習(xí)一個(gè)好的特征使得可以適合很多任務(wù)(包括分類、回歸、增強(qiáng)學(xué)習(xí)),并通過fine-tune來獲得好的效果。
          3.3 學(xué)習(xí)搜索步驟(優(yōu)化器學(xué)習(xí)):使用元學(xué)習(xí)提供的搜索步驟/更新參數(shù)的規(guī)則(最佳的梯度下降方向 or 步長)。最終學(xué)會(huì)如何在新的分類任務(wù)上,對(duì)分類器網(wǎng)絡(luò)(learner)進(jìn)行初始化和參數(shù)更新。這個(gè)優(yōu)化算法同時(shí)考慮一個(gè)任務(wù)的短時(shí)知識(shí)和跨多個(gè)任務(wù)的長時(shí)知識(shí)。






          END



          雙一流大學(xué)研究生團(tuán)隊(duì)創(chuàng)建,專注于目標(biāo)檢測與深度學(xué)習(xí),希望可以將分享變成一種習(xí)慣!

          整理不易,點(diǎn)贊三連↓

          瀏覽 85
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产在线观看一区 | 伊人婷婷狠狠 | 国产65一二三区 | 大香蕉一人在线 | 蜜桃视频操B网 |