<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          如何給模型加入先驗知識

          共 7150字,需瀏覽 15分鐘

           ·

          2024-05-05 13:31

          點擊上方小白學視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          轉載自 | 極市平臺

          來源丨h(huán)ttps://zhuanlan.zhihu.com/p/188572028
          端到端的深度神經網絡雖然能夠自動學習到一些可區(qū)分度好的特征,但是往往會擬合到一些非重要特征,導致模型會局部坍塌到一些不好的特征上面。本文通過一個簡單的鳥類分類案例來總結了五個給模型加入先驗信息的方法。

          模型加入先驗知識的必要性

          端到端的深度神經網絡是個黑盒子,雖然能夠自動學習到一些可區(qū)分度好的特征,但是往往會擬合到一些非重要特征,導致模型會局部坍塌到一些不好的特征上面。常常一些人們想讓模型去學習的特征模型反而沒有學習到。
          為了解決這個問題,給模型加入人為設計的先驗信息會讓模型學習到一些關鍵的特征。下面就從幾個方面來談談如何給模型加入先驗信息。
          為了方便展示,我這邊用一個簡單的分類案例來展示如何把先驗知識加入到一個具體的task中。我們的task是在所有的鳥類中識別出一種萌萌的鸚鵡,這中鸚鵡叫鸮(xiāo)鸚鵡,它長成下面的樣子:
          鸮(xiāo)鸚鵡
          這種鳥有個特點:
          就是它可能出現在任何地方,但就是不可能在天上,因為它是世界上唯一一種不會飛的鸚鵡(不是唯一一種不會飛的鳥)。
          好,介紹完task的背景,咱們就可以分分鐘搭建一個端到端的分類神經網絡,可以選擇的網絡結構可以有很多,如resnet, mobilenet等等,loss往往是一個常用的分類Loss,如交叉熵,高級一點的用個focal loss等等。確定好了最優(yōu)的數據(擾動方式),網絡結構,優(yōu)化器,學習率等等這些之后,往往模型的精度也就達到了一個上限。
          然后你測試模型發(fā)現,有些困難樣本始終分不開,或者是一些簡單的樣本也容易分錯。這個時候如果你還想提升網絡的精度,可以通過給模型加入先驗的方式來進一步提升模型的精度。

          基于pretrain模型給模型加入先驗

          給模型加入先驗,大家最容易想到的是把網絡的weight替換成一個在另外一個任務上pretrain好的模型weight。經過的預訓練的模型(如ImageNet預訓練)往往已經具備的識別到一些基本的圖片pattern的能力,如邊緣,紋理,顏色等等,而識別這些信息的能力是識別一副圖片的基礎。如下圖所示:
          但這些先驗信息都是一些比較general的信息,我們是否可以加入一些更加high level的先驗信息呢。

          基于輸入給模型加入先驗

          假如你有這樣的一個先驗:
          你覺得鸮鸚鵡的頭是一個區(qū)別其他它和鳥類的重要部分,也就是說相比于身體,它的頭部更能區(qū)分它和其他鳥類。
          這時怎么讓網絡更加關注鸮鸚鵡的頭部呢。這時你可以這樣做,把整個鸮鸚鵡和它的頭部作為一個網絡的兩路輸入,在網咯的后端再把兩路輸入的信息融合。以達到既關注局域,又關注整體的目的。一個簡單的示意圖如下所示。

          基于模型重現給模型加入先驗

          接著上面的設定來,假如說你覺得給模型兩路輸入太麻煩,而且增加的計算量讓你感覺很不爽。
          這時,你可以嘗試讓模型自己發(fā)現你設定的先驗知識。
          假如說你的模型可以自己輸出鳥類頭部的位置,雖然這個鳥類頭部的位置信息是你不需要的,但是輸出這樣的信息代表著你的網絡能夠locate鳥類頭部的位置,也就給鳥類的頭部更加多的attention,也就相當于給把鳥類頭部這個先驗信息給加上去了。
          當然直接模仿detection那樣去回歸出位置來這個任務太heavy了,你可以通過一個生成網絡的支路來生成一個鳥類頭部位置的Mask,一個簡單的示意圖如下:
          測試的時候不增加計算量

          基于CAM圖激活限制給模型加入先驗

          針對鸮鸚鵡的分類,我在上面的提到一個非常有意思的先驗信息:
          那就是鸮鸚鵡是世界上唯一一種不會飛的鸚鵡。
          這個信息從側面來說就是,鸮鸚鵡所有地方都可能出現,就是不可能出現在天空中(當然也不可能出現在水中)。
          也就是說不但鸮鸚鵡本身是一個分類的重點,鸮鸚鵡出現的背景也是分類的一個重要參考。假如說背景是天空,那么就一定不是鸮鸚鵡,同樣的,假如說背景是海水,那么也一定不是鸮鸚鵡,假如說背景是北極,那么也一定不是鸮鸚鵡,等等。
          也就是說,你不能通過背景來判斷一只未知的鳥是鸮鸚鵡,但是你能通過背景來判斷一只未知的鳥肯定不是鸮鸚鵡(是其他的鳥類)。
          所以假如說獲取了一張輸入圖片的激活圖(包含背景的),那么這張激活圖的鳥類身體部分肯定包含了鸮鸚鵡和其他鳥類的激活,但是鳥類身體外的背景部分只可能包含其他鳥類的激活。
          所以具體的做法是基于激活圖,通過限制激活圖的激活區(qū)域,加入目標先驗。
          CAM[1]激活圖是基于分類網絡的倒數第二層卷積層的輸出的 feature_map 的線性加權,權重就是最后一層分類層的權重,由于分類層的權重編碼了類別的信息,所以加權后的響應圖就有了基于不同類別的區(qū)域相應。(具體的介紹可以看 https://zhuanlan.zhihu.com/p/51631163),具體的激活圖生成方式可以如下表示:
          說了這么多,下面就展示展示激活圖的樣子:
          大家可以看到,上面一張是一只鸮鸚鵡的激活圖,下面是一只在天空飛翔的大雁的激活圖。
          因為鸮鸚鵡的Label是0,其他鳥類的Label是1,所以在激活圖上,只要是負值的激活區(qū)域都是鸮鸚鵡的激活,也就是Label為0的激活,只要是正值的激活都是其他鳥類的激活,也就是Label為1的激活。
          為了方便展示,我把負值的激活用冷色調來顯示,把正值的激活用暖色調來顯示,所以就是變成了上面兩幅激活圖的樣子。而右邊的數字是具體的激活矩陣(把激活矩陣進行GAP就可以變成最終輸出的Logits)。
          到這里不知道大家有沒有發(fā)現一個問題,就是無論對于鸮鸚鵡還是大雁的圖片,它們的激活圖除了分布在鳥類本身,也會有一部分分布在背景上。對于大雁我們好理解,因為大雁是飛在天空中的,而鸮鸚鵡是不可能在天空中的,所以天空的正激活是非常合理的。但是對于鸮鸚鵡來說,其在鳥類身體以外的負激活就不是太合理,因為,大雁或者是其他的鳥類,也可能在鸮鸚鵡的地面棲息環(huán)境中(但是鸮鸚鵡卻不可能在天空中)。
          所以環(huán)境不能提供任何證據來證明這一次鳥類是一只鸮鸚鵡,鸮鸚鵡的負激活只是在鳥類的身體上是合理的。而其他鳥類的正激活卻可以同時在鳥類身體上又可能在鳥類的背景上(如天空或者海洋)。
          所以我們需要這樣建模這個問題,就是在除鳥類身體的背景上,不能出現鸮鸚鵡的激活,也就是說不能出現負激活(Label為0的激活)。所以下面的激活才是合理的:
          從上面來看,在除鳥類身體外的背景部分是不存在負激活的,雖然上面的背景部分有一些正的激活(其他鳥類的激活),但是從右邊的激活矩陣來看,負激活的scale是占據絕對優(yōu)勢的,所以完全不會干擾對于鸮鸚鵡的判斷。
          所以問題來了,怎么從網絡設計方面來達到這個目的呢?
          其實可以從Loss設計方面來達到這個效果。我們假設每一個鳥都有個對應的mask,mask內是鳥類的身體部分,mask外是鳥類的背景部分。那么我們需要做的就是抑制mask外的背景部分激活矩陣的負值,把那一部分負值給抑制到0即可。
          鳥類的激活矩陣和mask的關系如下圖(紅色的曲線代表鳥的邊界mask):
          我們的Loss設計可以用下面的公式表示:
              
          Loss_cam = -sum(where(bird_mask_outside<0))
          具體的網絡的framework可以如下所示:
          其中虛線部分只是訓練時候需要用到,inference的時候是不需要的,所以這種方法也是不會占用任何在inference前向時候的計算量。

          基于輔助學習給模型加入先驗知識

          到現在為止,咱們還只是把我們的鳥類分類的task當成一個二分類來處理,即鸮鸚鵡是一類,其他的鳥類是一類。
          但是我們知道,世界的鳥類可不僅僅是兩類,除了鸮鸚鵡之外還有很多種類的鳥類。而不同鳥類的特征或許有很大的差別,比如鴕鳥的特征就是脖子很長,大雁的特征就是翅膀很大。
          假如只是把鸮鸚鵡當做一類,把其他的鳥類當做一類來學習的話,那么模型很可能不能學到可以利用的區(qū)分非鸮鸚鵡的特征,或者是會坍塌到一些區(qū)分度不強的特征上面,從而沒有學到能夠很好的區(qū)分不同其他鳥類的特征,而那些特征對去區(qū)別鸮鸚鵡和其他鳥類或許是重要的。
          所以我們有必要加入其他鳥類存在不同類別的先驗知識。而這里,我主要介紹基于輔助學習的方式去學習類似的先驗知識。首先我要解釋一下什么是輔助學習,以及輔助學習和多任務學習的區(qū)別:
          上圖的左側是多任務學習的例子,右側是輔助學習的例子。左側是個典型的face attribute的task,意思是輸入一張人臉,通過多個branch來輸出這一張人臉的年齡,性別,發(fā)型等等信息,各個branch的任務是獨立的,同時又共享同一個backbone。右邊是一個典型的輔助學習的task,意思是出入一張人臉,判斷這一張人臉的性別,同時另外開一個(或幾個)branch,通過這個branch來讓網絡學一些輔助信息,比如發(fā)型,皮膚等等,來幫助網絡主任務(分男女)的判別。
          好,回到我們的鸮鸚鵡分類的task,我們可能首先會想到下面的Pipeline:
          這樣雖然可以把不同類別的鳥類的特征都學到,但是卻削弱了網絡對于鸮鸚鵡和其他鳥類特征的分別。
          經過實驗發(fā)現,這種網絡架構不能很好的增加主任務的分類精度。為了充分的學到鸮鸚鵡和其他鳥類特征的分別,同時又能帶入不同種類鳥類類別的先驗,我們引入輔助任務:
          在上面的Pipeline中,輔助任務相比如主任務,把其他鳥類做更加細致的分類。這樣網絡就學到了區(qū)分不同其他鳥類的能力。
          但是從實驗效果來看這個Pipeline的精度并不高。經過分析原因,發(fā)現在主任務和輔助任務里面都有鸮鸚鵡這一類,這樣當回傳梯度的時候,相當于把區(qū)分鸮鸚鵡和其他鳥類的特征回傳了兩次梯度,而回傳兩次梯度明顯是沒用的,而且會干擾輔助任務學習不同其他鳥類的特征。
          所以我們可以把輔助任務的鸮鸚鵡類去除,于是便形成了下面的pipeline:
          經過實驗發(fā)現,這種pipeline是有利于主任務精度提升的,網絡對于特征明顯的其他鳥類的分類能力得到了一定程度的提升,同時對于困難類別的分類能力也有一定程度的提升。
          當然,輔助任務的branch可以不只是一類,你可以通過多個類別來定義你的輔助任務的branch:
          這時候你會想,上面的pipeline好是好,但是我沒有那么多的label啊。是的,上面的pipeline除了主任務的label標注,它還同時需要很多的輔助任務的label標注,而標注label是深度學習任務里面最讓人頭疼的問題(之一)。
          別怕,我下面介紹一個work,它基于meta-learning的方法,讓你不再為給輔助任務標注label而煩惱,它的framework如下:
          這個framework采用基于maxl[2]的方案(https://github.com/lorenmt/maxl),輔助任務的數據和label不是由人為手工劃分,而是由一個label generator來產生,label generator的優(yōu)化目標是讓主網絡在主任務的task上的loss降低,主網絡的目標是在主任務和輔助任務上的loss同時降低。
          但是這個framework有個缺點,就是訓練時間會上升一個數量級,同時label generator會比較難優(yōu)化。感興趣的同學可以自己嘗試。但是不得不說,這篇文章有兩個結論倒是很有意思:
          1. 假設 primary 和 auxiliary task 是在同一個 domain,那么 primary task 的 performance 會提高當且僅當 auxiliary task 的 complexity 高于 primary task。
          2. 假設 primary 和 auxiliary task 是在同一個 domain,那么 primary task 的最終 performance 只依賴于 complexity 最高的 auxiliary task。

          結語

          先總結一下所有可以有效的加入先驗信息的框架:
          你可以通過上述框架的選擇來加入自己的先驗信息。
          給神經網絡的黑盒子里面加入一些人為設定的先驗知識,這樣往往能給你的task帶來一定程度的提升,不過具體的task需要加入什么樣的先驗知識,需要如何加入先驗知識還需要自己探索。
          參考
          1. ^CAM https://arxiv.org/abs/1512.04150
          2. ^maxl https://arxiv.org/abs/1901.08933

              
          下載1:OpenCV-Contrib擴展模塊中文版教程
          在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內容。

          下載2:Python視覺實戰(zhàn)項目52講
          小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數、添加眼線、車牌識別、字符識別、情緒檢測、文本內容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現20個實戰(zhàn)項目,實現OpenCV學習進階。

          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~



          瀏覽 379
          1點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          1點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  在线观看国产一级片 | 偷拍自拍第一页 | 成天免费无码婬片在线观看免费 | 色色色999 | 综合色图欧美视频 |