下面我給大家分享幾個(gè)經(jīng)典的主動(dòng)學(xué)習(xí)方法,這些方法經(jīng)常被拿來作對(duì)比。在自己以后的文章里也可以考慮和以下經(jīng)典的方法進(jìn)行比較。 Entropy可直接根據(jù)預(yù)測(cè)的概率分布計(jì)算熵值,選擇熵值最大的樣本來標(biāo)注。 BALDDeep Bayesian Active Learning with Image Data
https://arxiv.org/abs/1703.02910
BGADLBayesian Generative Active Deep Learning
https://arxiv.org/abs/1904.11643
Core-setActive Learning for Convolutional Neural Networks: A Core-Set Approach
https://openreview.net/forum?id=H1aIuk-RW
LLALLearning Loss for Active Learning
https://arxiv.org/abs/1905.03677?context=cs.CV
VAALVariational Adversarial Active Learninghttps://arxiv.org/abs/1904.00370
智能醫(yī)療診斷等領(lǐng)域:在醫(yī)療領(lǐng)域,深度學(xué)習(xí)的發(fā)展為包括診斷在內(nèi)的多個(gè)方面帶來了革命性的發(fā)展。數(shù)據(jù)驅(qū)動(dòng)的方法必然需求大量的有標(biāo)注數(shù)據(jù),而標(biāo)注醫(yī)療圖像不僅耗時(shí)耗力,而且需要特定的專業(yè)知識(shí),所以利用主動(dòng)學(xué)習(xí)選擇模型難以預(yù)測(cè)的樣本進(jìn)行選擇地標(biāo)注是非常有實(shí)際意義的。 有很多論文在研究主動(dòng)學(xué)習(xí)在醫(yī)療領(lǐng)域的應(yīng)用,但在實(shí)際應(yīng)用和落地中,醫(yī)療診斷面臨的最首要的問題還是精度和泛化性能。由于醫(yī)療數(shù)據(jù)是小樣本,這些最重要和最基本的問題沒有被徹底解決,所以主動(dòng)學(xué)習(xí)的熱度并不大。但是還是有一些公司在應(yīng)用,例如騰訊 AI Lab 使用主動(dòng)學(xué)習(xí)和難例挖掘方案 中國首款智能顯微鏡獲批進(jìn)入臨床:病理診斷 AI 化,騰訊 AI Lab 打造
雖然考慮到主動(dòng)學(xué)習(xí)的出發(fā)點(diǎn)和要解決的問題都比較實(shí)際,但是目前的主動(dòng)學(xué)習(xí)方法在實(shí)際應(yīng)用的話還是存在一些問題。 性能不穩(wěn)定:制約主動(dòng)學(xué)習(xí)最大的問題就是性能不穩(wěn)定。主動(dòng)學(xué)習(xí)是根據(jù)自己指定的選擇策略從樣本中挑選,那么這個(gè)過程中策略和數(shù)據(jù)樣本就是影響性能的兩個(gè)很重要的因素。對(duì)于非常冗余的數(shù)據(jù)集,主動(dòng)學(xué)習(xí)往往會(huì)比隨機(jī)采樣效果要好,但是對(duì)于樣本數(shù)據(jù)非常多樣,冗余性較低的數(shù)據(jù)集,主動(dòng)學(xué)習(xí)有的時(shí)候會(huì)存在比隨機(jī)采樣還差的效果。數(shù)據(jù)樣本的分布還影響不同主動(dòng)學(xué)習(xí)的方法,比如基于不確定性的方法和基于多樣性的方法,在不同數(shù)據(jù)集上的效果并不一致,這種性能的不穩(wěn)定是制約人們應(yīng)用主動(dòng)學(xué)習(xí)的一個(gè)重要因素。 在實(shí)際應(yīng)用中,需要先根據(jù)主動(dòng)學(xué)習(xí)進(jìn)行數(shù)據(jù)選擇和標(biāo)注,如果此時(shí)的策略還不如隨機(jī)采樣,人們并不能及時(shí)改變或者止損,因?yàn)閿?shù)據(jù)已經(jīng)被標(biāo)注了,沉沒成本已經(jīng)產(chǎn)生了。而優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和性能的這些方法就不存在這個(gè)問題,人們可以一直嘗試不同的方法和技巧使得性能達(dá)到最好,修改和嘗試的損失很小。 而主動(dòng)學(xué)習(xí)被要求得更加苛刻,幾乎需要將設(shè)計(jì)好的策略拿來直接應(yīng)用就必須要 work 才行,如果不 work,那些被選擇的樣本還是被標(biāo)注了,還是損失時(shí)間和金錢??量痰囊蠛筒环€(wěn)定的性能導(dǎo)致人們還不如省下這個(gè)精力,直接采用隨機(jī)的標(biāo)注方式。 臟數(shù)據(jù)的挑戰(zhàn):現(xiàn)在幾乎所有的論文都在公開的數(shù)據(jù)集、現(xiàn)成的數(shù)據(jù)集上進(jìn)行測(cè)試和研究。而這些數(shù)據(jù)集其實(shí)已經(jīng)被選擇和篩選過了,去除了極端的離群值,甚至?xí)紤]到樣本平衡,人為的給少樣本的類別多標(biāo)注一些,多樣本的類別少標(biāo)注一些。而實(shí)際應(yīng)用中,數(shù)據(jù)的狀況和這種理想數(shù)據(jù)集相差甚遠(yuǎn)。主動(dòng)學(xué)習(xí)常用不確定性的選擇策略,不難想象,噪聲較大的樣本甚至離群值總會(huì)被選擇并標(biāo)注,這種樣本可能不僅不會(huì)提升模型的性能,甚至還會(huì)使性能變差。 實(shí)際中還存在 OOD(out of distribution)的問題,例如想訓(xùn)練一個(gè)貓狗分類器,直接從網(wǎng)絡(luò)中按關(guān)鍵字搜索貓狗收集大量圖片,里邊可能存在一些老虎、獅子、狼等不在貓狗類別的無關(guān)樣本,但是他們的不確定性是非常高的,被選中的話,并不會(huì)提升模型的性能。 難以遷移:主動(dòng)學(xué)習(xí)是一種數(shù)據(jù)選擇策略,那么實(shí)際應(yīng)用中必然需求更通用、泛化性更好的主動(dòng)學(xué)習(xí)策略。而目前的主動(dòng)學(xué)習(xí)策略難以在不同域、不同任務(wù)之間進(jìn)行遷移,比如設(shè)計(jì)了一個(gè)貓狗分類任務(wù)的主動(dòng)學(xué)習(xí)策略,基于不確定性或多樣性,達(dá)到了較好的性能,現(xiàn)在需要做一個(gè)新的雞鴨分類的任務(wù),那么是否還需要重新設(shè)計(jì)一個(gè)策略?如果任務(wù)是病變組織的分類呢? 由于不同任務(wù)的數(shù)據(jù)分布特點(diǎn)可能不一樣,不同任務(wù)的難易不一樣,無法保證主動(dòng)學(xué)習(xí)的策略能夠在不同數(shù)據(jù)不同任務(wù)中通用,往往需要針對(duì)固定的任務(wù)設(shè)計(jì)一個(gè)主動(dòng)學(xué)習(xí)策略。這樣就耗費(fèi)了精力,如果能有一個(gè)通用性好的主動(dòng)學(xué)習(xí)策略,那么就可以被不同任務(wù)遷移,被更廣泛地應(yīng)用,甚至直接將其部署為通用標(biāo)注軟件,為各種任務(wù)、數(shù)據(jù)集,提供主動(dòng)選擇和標(biāo)注功能。 交互不便:數(shù)據(jù)選擇策略與標(biāo)注過程聯(lián)系緊密,理想的流程是,有一個(gè)整合的軟件能夠提供主動(dòng)數(shù)據(jù)選擇,然后提供交互界面進(jìn)行標(biāo)注,這就是將主動(dòng)學(xué)習(xí)流程與標(biāo)注軟件結(jié)合。僅有高效的主動(dòng)學(xué)習(xí)策略,而不方便標(biāo)注交互,也會(huì)造成額外的精力浪費(fèi)。在流程上,現(xiàn)在主動(dòng)學(xué)習(xí)普遍是選擇出一批待標(biāo)注的樣本后,交給人們?nèi)?biāo)注,而期望人們能盡快標(biāo)注交給模型,模型繼續(xù)訓(xùn)練后再次選擇。 人們標(biāo)注的時(shí)候,模型既不能訓(xùn)練,主動(dòng)學(xué)習(xí)也不進(jìn)行其他操作,是個(gè)串行的過程,需求等待人工標(biāo)注結(jié)束后,才能進(jìn)行接下來的訓(xùn)練。這樣的流程就不那么方便和高效,想象把主動(dòng)學(xué)習(xí)+標(biāo)注的系統(tǒng)給醫(yī)生應(yīng)用,策略先選出了一些樣本,醫(yī)生僅標(biāo)注這些樣本就標(biāo)注了幾天,然后再給模型訓(xùn)練,模型訓(xùn)練一段時(shí)間后,又選擇出一些樣本給醫(yī)生,醫(yī)生和模型互相等待對(duì)方的操作,降低了效率和便利性。
最新研究方向及論文推薦
下面我介紹一些主動(dòng)學(xué)習(xí)目前最新的閱讀價(jià)值較高的論文,供大家把握研究方向和熱點(diǎn)。如果大家有興趣,可以持續(xù)關(guān)注我 github 上的 awesome-active-learning paper list,我會(huì)實(shí)時(shí)更新有價(jià)值的主動(dòng)學(xué)習(xí)方面的工作,供大家學(xué)習(xí)和交流。?
8.1 主動(dòng)學(xué)習(xí)問題和方法的探究
目前主動(dòng)學(xué)習(xí)的基本方法和問題還存在一些不足,有一些最新的方法試圖解決這些問題。 Mind Your Outliers! Investigating the Negative Impact of Outliers on Active Learning for Visual Question Answering?(作者之一,李飛飛)
Contrastive Coding for Active Learning Under Class Distribution Mismatch:https://openaccess.thecvf.com/content/ICCV2021/html/Du_Contrastive_Coding_for_Active_Lea
基于以下假設(shè):標(biāo)記數(shù)據(jù)和未標(biāo)記數(shù)據(jù)是從同一類分布中獲得的,主動(dòng)學(xué)習(xí) (AL) 是成功的。然而,它的性能在類別分布不匹配的情況下會(huì)惡化,其中未標(biāo)記的數(shù)據(jù)包含許多標(biāo)記數(shù)據(jù)的類分布之外的樣本。為了有效地處理類分布不匹配下的AL問題,作者提出了一種基于對(duì)比編碼的 AL 框架,名為 CCAL。 與現(xiàn)有的 AL 方法專注于選擇信息量最大的樣本進(jìn)行標(biāo)注不同,CCAL 通過對(duì)比學(xué)習(xí)提取語義和獨(dú)特的特征,并將它們組合在查詢策略中,以選擇具有匹配類別的信息量最大的未標(biāo)記樣本。理論上,作者證明了 CCAL 的 AL 誤差具有嚴(yán)格的上限。 LADA: Look-Ahead Data Acquisition via Augmentation for Active Learning:
8.3 主動(dòng)學(xué)習(xí)與無監(jiān)督域自適應(yīng)結(jié)合 無監(jiān)督域自適應(yīng)要對(duì)齊目標(biāo)域與源域,使模型利用源域的數(shù)據(jù)和標(biāo)簽,在無標(biāo)簽的目標(biāo)域上取得較好的性能。目前出現(xiàn)一些工作考慮源域和目標(biāo)域的關(guān)系,設(shè)計(jì)了主動(dòng)學(xué)習(xí)策略提升模型在目標(biāo)域的性能。 Multi-Anchor Active Domain Adaptation for Semantic Segmentation:https://arxiv.org/abs/2108.08012 將目標(biāo)域的分布無條件地與源域?qū)R可能會(huì)扭曲目標(biāo)域數(shù)據(jù)的特有的信息。為此,作者提出了一種新穎的基于多錨點(diǎn)的主動(dòng)學(xué)習(xí)策略,以協(xié)助域自適應(yīng)語義分割任務(wù)。通過創(chuàng)新地采用多個(gè)點(diǎn)而不是單個(gè)質(zhì)心,可以更好地將源域表征為多模態(tài)分布,實(shí)習(xí)從目標(biāo)域中選擇更具代表性和互補(bǔ)性的樣本。手動(dòng)注釋這些樣本的工作量很小,可以有效緩解目標(biāo)域分布的失真,從而獲得較大的性能增益。另外還采用多錨策略來對(duì)目標(biāo)分布進(jìn)行建模。通過軟對(duì)齊損失,對(duì)多個(gè)錨點(diǎn)周圍緊湊的目標(biāo)樣本的潛在表示進(jìn)行正則化,可以實(shí)現(xiàn)更精確的分割。
8.4 主動(dòng)學(xué)習(xí)與知識(shí)蒸餾結(jié)合 知識(shí)蒸餾過程中,teacher 給 student 傳遞知識(shí),但是什么樣的樣本能夠幫助這一過程,也是主動(dòng)學(xué)習(xí)可以研究的一個(gè)方向。 Active Learning for Lane Detection: A Knowledge Distillation Approach:
8.5 主動(dòng)學(xué)習(xí)與對(duì)比學(xué)習(xí)結(jié)合 對(duì)比學(xué)習(xí)最近勢(shì)頭比較猛,最近也有主動(dòng)學(xué)習(xí)與對(duì)比學(xué)習(xí)結(jié)合解決對(duì)比學(xué)習(xí)的問題,大家可以欣賞一下。 Active Contrastive Learning of Audio-Visual Video Representations:https://arxiv.org/abs/2009.09805 對(duì)比學(xué)習(xí)已被證明可以通過最大化實(shí)例的不同視圖之間的互信息(MI)的下限來生成音頻和視覺數(shù)據(jù)的可概括表示。然而,獲得嚴(yán)格的下限需要 MI 中的樣本大小指數(shù),因此需要大量的負(fù)樣本。我們可以通過構(gòu)建一個(gè)大型的基于隊(duì)列的字典來合并更多的樣本,但是即使有大量的負(fù)樣本,性能提升也存在理論上的限制。 作者假設(shè)隨機(jī)負(fù)采樣導(dǎo)致高度冗余的字典,導(dǎo)致下游任務(wù)的次優(yōu)表示。在本文中,作者提出了一種主動(dòng)對(duì)比學(xué)習(xí)方法,該方法構(gòu)建了一個(gè) actively sampled 字典,其中包含多樣化和信息豐富的樣本,從而提高了負(fù)樣本的質(zhì)量,并提高了數(shù)據(jù)中互信息量高的任務(wù)的性能,例如,視頻分類。
8.7 主動(dòng)學(xué)習(xí)在點(diǎn)云方面 點(diǎn)云比圖像的標(biāo)注時(shí)間更長更費(fèi)精力,尤其是像素級(jí)的點(diǎn)云標(biāo)注。近期主動(dòng)學(xué)習(xí)在點(diǎn)云方面的工作漸漸嶄露頭角,而且效果非常驚人,值得期待。下面我介紹一篇有代表性的點(diǎn)云語義分割的工作。 ViewAL: Active Learning with Viewpoint Entropy for Semantic Segmentation: