<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          目標(biāo)檢測(cè)類算法比賽的經(jīng)驗(yàn)總結(jié)

          共 8707字,需瀏覽 18分鐘

           ·

          2021-01-22 10:37


          參賽經(jīng)歷

          阿里天池:“數(shù)字人體”視覺挑戰(zhàn)賽 - 宮頸癌風(fēng)險(xiǎn)智能檢測(cè)診斷 [1]

          ?Info??2019.10.24 - 2019.11.21,目標(biāo)檢測(cè),21/2358


          Kesci:2020年全國(guó)水下機(jī)器人(湛江)大賽 - 水下目標(biāo)檢測(cè)算法賽 [2]

          ?Info??2020.2.28 - 2020.4.11,目標(biāo)檢測(cè),31/1.3k


          阿里天池:天池新品實(shí)驗(yàn)室 - 淘寶直播商品識(shí)別 [3]

          ?Info??2020.2.12 - 2020.5.23,檢索匹配,已棄賽


          我將按照以下目錄結(jié)果進(jìn)行內(nèi)容的總結(jié):
          一、數(shù)據(jù)研究
          二、數(shù)據(jù)準(zhǔn)備
          三、參數(shù)調(diào)節(jié)
          四、模型驗(yàn)證
          五、模型融合
          六、題外話

          一、數(shù)據(jù)研究
          獲取數(shù)據(jù)后的第一件事是了解并探索數(shù)據(jù),這個(gè)步驟在數(shù)據(jù)分析領(lǐng)域叫做探索性數(shù)據(jù)分析EDA(Exploratory Data Analysis)。而在CV領(lǐng)域也需要這步,關(guān)于目標(biāo)檢測(cè),我會(huì)從給定數(shù)據(jù)的具體內(nèi)容來進(jìn)行以下研究:
          1. 圖像:
          a. 寬高頻次圖:
          決定圖片預(yù)處理方式。例如:像宮頸癌病理圖屬于高分辨率圖片,那后續(xù)就得切小圖準(zhǔn)備合適的數(shù)據(jù)。
          ?了解數(shù)據(jù)采樣方式。例如:在水下檢測(cè)賽里,就發(fā)現(xiàn)雖然有5種不同的寬高搭配,但它們的寬高比就兩種:1.22和1.78,說明其水下拍攝采樣的設(shè)備可能就有兩種畫幅寬高比,只是畫幅大小可能比較多變,導(dǎo)致出現(xiàn)寬高比相同下但分辨率不同的圖片。
          b.?可視化:了解數(shù)據(jù)真實(shí)質(zhì)量,采樣環(huán)境等。

          2. 類別標(biāo)簽
          a. 類別頻次圖:是否存在類別不平衡問題,如果類別嚴(yán)重不平衡,可能需要做額外的數(shù)據(jù)增廣操作,最好研究下類別不平衡的原因,有可能是重復(fù)圖片或者標(biāo)注問題導(dǎo)致的,例如Kaggle上的鯨魚尾巴分類大賽,它數(shù)據(jù)集中存在很多重復(fù)的圖片,而且同一張圖片存在多類別標(biāo)注。

          3. 標(biāo)注框:
          a. 寬高散點(diǎn)圖:在訓(xùn)練尺度設(shè)置下,判斷模型感受野是否設(shè)置合理 [4]。在訓(xùn)練模型前,圖片往往要被Resize到給定的訓(xùn)練尺度(或多尺度),那么在繪制散點(diǎn)圖前,要先將原標(biāo)注框Resize到最大的給定尺度下,去繪制它Resize后的標(biāo)注框?qū)捀叻植紙D。之后選取Backbone模型時(shí),應(yīng)考慮模型感受野盡量大于多數(shù)標(biāo)注框的長(zhǎng)邊。
          b. 各類下寬高比頻次圖:是否個(gè)別類別存在極端寬高比情況,極端寬高比需要對(duì)錨點(diǎn)框相關(guān)默認(rèn)設(shè)置(即Anchor Ratio 和 Anchor Scale)進(jìn)行調(diào)整。
          c. 各類下框面積大小頻次圖了解數(shù)據(jù)大/中/小目標(biāo)的情況,尤其注意小目標(biāo),其次是大目標(biāo)。小目標(biāo)難檢測(cè)。而在高分辨率上的過大目標(biāo)可能需要合適的手段進(jìn)行切分,例如宮頸癌切片里的Candida異常細(xì)胞(大多數(shù)目標(biāo)的寬/高大于1000)。
          以上只是一些基本需要做的數(shù)據(jù)研究操作,但事實(shí)上,數(shù)據(jù)的處理還要基于數(shù)據(jù)的特殊性做額外的補(bǔ)充研究。這塊數(shù)據(jù)研究的一些內(nèi)容可以參考下鄭燁選手在天池上的分享 [5]。

          二、 數(shù)據(jù)準(zhǔn)備
          數(shù)據(jù)研究完后,就需要準(zhǔn)備數(shù)據(jù),簡(jiǎn)單來說就是數(shù)據(jù)預(yù)處理和數(shù)據(jù)集劃分。
          1. 數(shù)據(jù)處理:
          a. 線下數(shù)據(jù)增強(qiáng):這塊內(nèi)容與“三、參數(shù)調(diào)節(jié) – 1. 訓(xùn)練前 – 數(shù)據(jù)增強(qiáng)”重復(fù),這里不做闡述。
          b. 訓(xùn)練和測(cè)試集統(tǒng)一化:有時(shí)候訓(xùn)練集和測(cè)試集存在分布不統(tǒng)一,例如:采樣方式/地點(diǎn)不一致,標(biāo)注人員/方式不一致??赡艿脑?,盡可能保證它們的一致性,比如在水下目標(biāo)檢測(cè)里,訓(xùn)練集和測(cè)試集是在不同的水下深度拍攝的,那么圖像色調(diào)就可能會(huì)不統(tǒng)一,如果你對(duì)訓(xùn)練集做去霧或一些后處理操作的話,需要考慮是否對(duì)測(cè)試集也得提前做相同的數(shù)據(jù)處理操作。另外,在Kaggle X光肺炎檢測(cè)比賽 [6] 中,訓(xùn)練集是由唯一的專家標(biāo)記,而測(cè)試集是由三名獨(dú)立的放射醫(yī)師標(biāo)記,這種情況下,使用他們標(biāo)記的交集用于標(biāo)簽真值可能可以更好地統(tǒng)一訓(xùn)練和測(cè)試集的標(biāo)簽分布。

          2. 數(shù)據(jù)集劃分
          a. 傳統(tǒng)劃分法:傳統(tǒng)方法就是直接按比例劃分,例如原數(shù)據(jù)80%劃為訓(xùn)練集,20%劃為測(cè)試集。
          b. 分層抽樣法式劃分:按照規(guī)定的比例從各類下抽取一定的樣本,優(yōu)點(diǎn)是抽取的樣本考慮到了類別。在該劃分的測(cè)試集上,后續(xù)驗(yàn)證會(huì)有更全面且客觀的結(jié)果。
          c. Domain劃分法:按照規(guī)定比例從各Domain下抽取一定的樣本。該方法是我在參加水下目標(biāo)檢測(cè)比賽中,聽鄭燁選手提到的一個(gè)劃分方法,當(dāng)時(shí)水下圖像集是在不同年份、不同水下地點(diǎn)和不同設(shè)備拍攝的幾段視頻中截圖標(biāo)注得到的。因此可以考慮針對(duì)不同年份/不同拍攝視頻段/設(shè)備,劃分好Domain后,再從這些Domain下抽取一定比例的樣本。
          d. K折劃分法:在?[6]?中,參賽者就將相同模型的四折交叉驗(yàn)證的輸出合并,進(jìn)而檢驗(yàn)?zāi)P偷慕Y(jié)果。
          在數(shù)據(jù)集劃分中,提到的四種數(shù)據(jù)集劃分方法可以相互結(jié)合使用,例如Domain下分層抽樣式劃分,不同的劃分方法耗費(fèi)的時(shí)間都不一樣,一般我是建議如下:
          ?各類數(shù)據(jù)量大且較平衡:傳統(tǒng)劃分法。
          ?類別不平衡且某類數(shù)據(jù)少:分層抽樣式法。
          ?有明顯Domain且Domain數(shù)較少:Domain劃分法。
          ?數(shù)據(jù)量較小或算力充足:K折劃分法。

          三、參數(shù)調(diào)節(jié)
          我比較喜歡目標(biāo)檢測(cè)工具箱mmdetection [7],它已經(jīng)封裝好很多SOTA目標(biāo)檢測(cè)方法的相關(guān)代碼,很多時(shí)候你只需要調(diào)參即可。因此這部分我稱之為“參數(shù)調(diào)節(jié)”,但實(shí)際上,下面有些內(nèi)容還是需要額外的編寫代碼。
          接下來,我將以訓(xùn)練前/中/后三個(gè)過程中存在調(diào)節(jié)可能的參數(shù)或方法進(jìn)行如下總結(jié):
          1. 訓(xùn)練前:
          a. 數(shù)據(jù)增強(qiáng):
          ?空間不變性:神經(jīng)網(wǎng)絡(luò)模型具有空間不變性,為了解決它,一般需要采用一些空間增強(qiáng)手段例如平移、旋轉(zhuǎn)、翻轉(zhuǎn)、縮放、實(shí)例平衡增強(qiáng) [7]等。
          ?噪聲:神經(jīng)網(wǎng)絡(luò)模型有時(shí)候過于依賴訓(xùn)練數(shù)據(jù),缺少推斷能力而影響通用性,即使人眼能識(shí)別出噪聲圖片里的目標(biāo),但模型卻不太行,所以為了讓模型更加魯棒,可以考慮在訓(xùn)練集內(nèi)加入高斯噪聲、椒鹽噪聲等對(duì)模型進(jìn)行干擾。
          ?目標(biāo)遮擋或重疊:如果數(shù)據(jù)研究時(shí)發(fā)現(xiàn)存在多框重疊現(xiàn)象,或者存在目標(biāo)遮擋,可以試著采用Cutout [9] 或Mixup [10] 等。
          ?過采樣:有時(shí)候整體數(shù)據(jù)量過少,或某類別數(shù)少導(dǎo)致類別不平衡,可以考慮使用copy-paste [10] 、泊松融合 [11]等技巧,但要注意,增強(qiáng)的目標(biāo)不要過于突兀,不然會(huì)造成模型過擬合。
          ?圖像模糊:圖像模糊的原因有很多,例如:鏡頭模糊,霧天圖像,水下光線散射等,對(duì)此的數(shù)據(jù)增強(qiáng)手段有中值/高斯/動(dòng)態(tài)模糊、去霧算法 [13], MSRCR [2]等。
          ?其它標(biāo)簽平滑 [10], 色調(diào)歸一化 [2],Albumentation圖片數(shù)據(jù)增強(qiáng)庫 [14] 等。以上所有數(shù)據(jù)增強(qiáng)方法分線上和線下兩種使用方式,不同數(shù)據(jù)增強(qiáng)方法之間存在功能重疊,基本都能在一定程度上減少模型過擬合,但也可以會(huì)有過擬合的可能(例如copy-paste和實(shí)例平衡增強(qiáng)等會(huì)重復(fù)部分?jǐn)?shù)據(jù)集的可能)。

          2. 訓(xùn)練時(shí):
          a. 訓(xùn)練尺度:根據(jù)顯存和時(shí)間安排設(shè)置訓(xùn)練是否采取多尺度,正常來說,尺度越大越好,小目標(biāo)能更好的被檢測(cè)到,但也存在尺度調(diào)整過大,圖片失真。在設(shè)置尺度上,我一般是放開Resize對(duì)長(zhǎng)邊的依賴(即長(zhǎng)邊至少為:訓(xùn)練原圖尺寸最大長(zhǎng)短比 * Resize短邊上限),mmdetection論文提到提高短邊上限能帶來提升
          b. 測(cè)試尺度取訓(xùn)練尺度的中間值即可。假設(shè)訓(xùn)練多尺度設(shè)置是[(4096, 600), (4096, 1000)],那么測(cè)試尺度如果你想設(shè)為單尺度,可以是(4096, 800),如果是多尺度,可以是[(4096, 600), (4096, 800), (4096, 1000)]。測(cè)試多尺度會(huì)更好些,但推理速度會(huì)變慢
          c. Anchor (scales & ratios)正常來說,錨點(diǎn)框的設(shè)置保持默認(rèn)配置就好,但是如果遇到某類別目標(biāo)是極端長(zhǎng)寬比,則可能需要根據(jù)數(shù)據(jù)研究的結(jié)果適當(dāng)調(diào)整下錨點(diǎn)框?qū)捀弑嚷?/span>,而錨點(diǎn)框大小scale相對(duì)來說不太需要對(duì)其進(jìn)行過多調(diào)整。我之前試過使用YOLOv2中提到的K-means來獲取Anchor聚類結(jié)果,進(jìn)而調(diào)整Anchor的設(shè)置,但是結(jié)果不太理想,據(jù)微文 [4] 作者所說,實(shí)際感受野是一個(gè)超參,無法準(zhǔn)確求出,K- means聚類Anchor得到的范圍實(shí)際上不一定有默認(rèn)Anchor的廣。簡(jiǎn)而言之,就是不要亂動(dòng)默認(rèn)的配置,可以添加多一個(gè)Anchor Ratio,但不建議自行胡亂調(diào)參。
          d. Backbone:目標(biāo)檢測(cè)的主干網(wǎng)絡(luò)很多,選擇主干網(wǎng)絡(luò)的第一要素就是得先確認(rèn)模型的感受野是否盡可能大于數(shù)據(jù)集多數(shù)標(biāo)注框的長(zhǎng)邊。當(dāng)你確定了訓(xùn)練尺度,選擇最大Resize比例去繪制標(biāo)注框?qū)捀呱Ⅻc(diǎn)圖,然后選取合適的模型Backbone。如果模型感受野太小,只能觀察到局部特征,不足以得到整個(gè)目標(biāo)的信息;如果感受野過大,則會(huì)引入過多的無效信息?,F(xiàn)在計(jì)算感受野有兩種方法:(1)從上往下法:即從低層到高層,這種方法計(jì)算更便捷些,但只適用于比較有限的卷積,且由于沒有處理由Stride引起的抽取像素重疊的問題,使得計(jì)算的感受野會(huì)偏大些;(2)從下往上法:即從高層到低層,計(jì)算感受野是通過遞推計(jì)算,它很準(zhǔn)確。這里不詳細(xì)展開,詳情計(jì)算方式可見 [4]。限制一些SOTA的主干模型有:ResNet, ResNeXt, DenseNet, SENet等。此外,如果存在極端寬高比的目標(biāo),可以使用可變形卷積網(wǎng)絡(luò)(Deformable Convolution Net, DCN)。
          e. Neck:用的比較多的就特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks, FPN),對(duì)于小目標(biāo)檢測(cè)非常好用
          f. ROIHead:在mmdetection里RoIHead的作用是幫助模型基于RoI進(jìn)行預(yù)測(cè),現(xiàn)在比較受歡迎的模型是Cascade R-CNN,它級(jí)聯(lián)三個(gè)不同IOU閾值(0.5,0.6,0.7)的頭,但在2019廣東工業(yè)智造創(chuàng)新大賽決賽 [15] 上,某團(tuán)隊(duì)針對(duì)評(píng)測(cè)mAP要求的IOU閾值0.1、0.3和0.5,降低了級(jí)聯(lián)的閾值至0.4、0.5和0.6,從而獲得了提升,說明寬松評(píng)測(cè)下,級(jí)聯(lián)頭閾值可適當(dāng)減低以獲取更多的預(yù)測(cè)框,這種方式可能會(huì)提升性能。另外,在天池”重慶大賽-瓶裝白酒疵品質(zhì)檢”里,好像也還有選手通過增加多一個(gè)head,在某種程度上幫助模型更好的擬合數(shù)據(jù),但不一定在每個(gè)賽題數(shù)據(jù)上都起作用。
          g.混合精度訓(xùn)練: 開啟fp16能加快模型運(yùn)算速度。
          h.學(xué)習(xí)率:學(xué)習(xí)率的設(shè)置應(yīng)參考論文 [16]. 該論文提到在使用多GPU并行進(jìn)行Minibatch SGD的行為被稱作Large Minibatch SGD。假設(shè)有k個(gè)GPUs,那么Large Minibatch size =k * Minibatch size(即mmdetection中的img_per_batch),此時(shí)多GPU下學(xué)習(xí)率 = 單GPU下的Lr * k。總結(jié)來說,Lr = GPU數(shù)量 * Minibatch Size * 0.00125。
          學(xué)習(xí)率在衰退前使用warmup會(huì)好些,衰退策略使用Cosine會(huì)比Step更快幫助模型擬合數(shù)據(jù)。此外,mmdetection作者認(rèn)為像多尺度訓(xùn)練這樣的訓(xùn)練增強(qiáng)應(yīng)該需要24epoch數(shù)進(jìn)行訓(xùn)練,但一般來說1x的訓(xùn)練epoch數(shù)就能應(yīng)付較多的場(chǎng)景。個(gè)人認(rèn)為,1x(2epochs)和2x(24epochs)的選擇得看訓(xùn)練后的損失曲線或mAP曲線的表現(xiàn)來決定。

          3. 訓(xùn)練后:
          a.如果EDA發(fā)現(xiàn)存在大量同類下多框重疊,例如水下圖像中經(jīng)常多個(gè)海膽目標(biāo)重疊,建議使用Soft NMS。此外,在mmdetection中NMS都是在類內(nèi)完成的,如果EDA發(fā)現(xiàn)數(shù)據(jù)不存在類間重疊(這種情況比較少發(fā)生),則可以考慮自己額外補(bǔ)充類間NMS(即所有類下的框一起NMS)。

          四、模型驗(yàn)證
          模型驗(yàn)證階段看三個(gè)曲線:各類別AP曲線、不同IoU下的MAP曲線、損失曲線。
          1. AP曲線:發(fā)現(xiàn)哪個(gè)類別的目標(biāo)檢測(cè)效果差,后續(xù)可以針對(duì)表現(xiàn)差的類別進(jìn)行模型改進(jìn),例如: 專家模型,改變數(shù)據(jù)處理方式等。
          2. MAP曲線: 更好的貼合比賽的評(píng)測(cè)指標(biāo),給出最直觀的結(jié)果。
          3. 損失曲線: 觀察模型擬合表現(xiàn),如果模型損失下降過快或過慢,可適當(dāng)調(diào)節(jié)學(xué)習(xí)率或?qū)W習(xí)率衰減節(jié)點(diǎn)的設(shè)置。

          五、模型融合
          1. 融合選擇
          在知乎上,[17] ?提供了關(guān)于模型集成的幾種選擇:
          a. 同樣的參數(shù),不同的初始化方式。
          b. 不同的參數(shù),通過交叉驗(yàn)證,選取最好幾組。
          c. 同樣的參數(shù),不同迭代次數(shù)訓(xùn)練下的。
          d. 不同的模型,線性融合,例如RNN和傳統(tǒng)模型。

          2. 融合方式:
          a.? 直接合并: 就是根據(jù)驗(yàn)證集的表現(xiàn),選取不同模型設(shè)置下,最好表現(xiàn)的類別結(jié)果進(jìn)行合并,例如有2個(gè)不同的模型設(shè)置(設(shè)置1和2)且預(yù)測(cè)類別有2個(gè)(類別A和B),類別A在模型設(shè)置2下表現(xiàn)最好,而類別B在模型設(shè)置1下表現(xiàn)最好,那么最后的提交結(jié)果應(yīng)該由模型設(shè)置2下的類別A結(jié)果和模型設(shè)置1下的類別B結(jié)果合并組成。優(yōu)點(diǎn)是該合并比較簡(jiǎn)單快速,缺點(diǎn)是它要求驗(yàn)證集的真實(shí)反應(yīng)能力強(qiáng),比如之前宮頸癌細(xì)胞檢測(cè)比賽,數(shù)據(jù)集很大,驗(yàn)證集表現(xiàn)和線上測(cè)試集表現(xiàn)基本一致,它就很適合直接合并模型結(jié)果。
          b. WBF: 權(quán)重框融合Weighted Boxes Fusion也是比較受歡迎的模型集成方法,它將同類下達(dá)到某IoU的框們,進(jìn)行加權(quán)平均得到最終的框,權(quán)重為各預(yù)測(cè)框上預(yù)測(cè)類別的分?jǐn)?shù)。WBF有兩種融合思路: 不同backbone的融合和不同結(jié)構(gòu)的模型的融合,據(jù)論文(代碼已開源 [18])所述這種方法比前者提升更大。在使用中要注意,Soft NMS輸出結(jié)果要搭配max的置信度融合方法(即在兩個(gè)模型預(yù)測(cè)結(jié)果中選擇其中最大的置信度作為平均融合框的置信度,避免平均融合后的結(jié)果不會(huì)受冗余低分框影響),而普通NMS輸出結(jié)果搭配avg融合方式即可。

          六、題外話
          1. 比賽及隊(duì)友選擇
          比賽可以根據(jù)個(gè)人喜好進(jìn)行選擇,比賽平臺(tái)有很多,阿里天池、Kesci及各大公司在它們官網(wǎng)放的比賽等,個(gè)人比較喜歡天池,因?yàn)楹芏鄷r(shí)候官方會(huì)公布baseline方案,選手可以進(jìn)行學(xué)習(xí),而且交流氛圍且對(duì)比賽最終答辯的分享都做得很好,對(duì)數(shù)據(jù)錯(cuò)誤的更新也十分及時(shí),相反地,一些比賽如果后期不公開答辯或選手思路,除非前排大佬主動(dòng)公開,否則對(duì)于抱著學(xué)習(xí)態(tài)度的參賽者來說很難去獲取優(yōu)秀的項(xiàng)目思路。所以對(duì)于剛開始參加比賽的新手來說,要看重是否該比賽的學(xué)習(xí)價(jià)值較高(較易上手但存在深入研究的空間、優(yōu)秀代碼是否會(huì)開源、參賽者討論情況等)。后期參加多幾次某個(gè)特定領(lǐng)域的比賽后,就可以在之前比賽的基礎(chǔ)上深入去實(shí)踐自己的想法。我其實(shí)不是太建議剛開始就組隊(duì),因?yàn)橐话闱闆r大佬不會(huì)愿意花過多成本帶新人(要先進(jìn)入大佬的眼,才有機(jī)會(huì)合作),而如果你找同水平新人組隊(duì),一個(gè)比賽切分幾塊去做的話,你可能會(huì)缺乏自我思考和失去熟悉整個(gè)比賽項(xiàng)目的機(jī)會(huì)。最后在自己參加一個(gè)比賽后,有個(gè)項(xiàng)目實(shí)施全貌,再考慮后期組隊(duì)。建議一般是在組隊(duì)截止前幾天再找隊(duì)友,把自己當(dāng)前成績(jī)和背景在比賽群交代好,基本都能找到隊(duì)友。至于如何選擇隊(duì)友有幾個(gè)方面要看:
          a. 時(shí)間安排:雙方時(shí)間能不能合理的安排在比賽上。
          b. 已有成績(jī):當(dāng)前比賽成績(jī)?有想嘗試的想法沒?
          c. 背景:學(xué)生/上班?主要還是時(shí)間安排上,另外有服務(wù)器資源沒?專業(yè)背景?擅長(zhǎng)?過往比賽經(jīng)歷?
          d. 其它:外文閱讀能力,代碼能力,溝通能力等。

          2. 參賽心得
          雖然我參加的比賽不算太多,但確實(shí)打比賽能讓疫情空閑的自己有更好的主觀能動(dòng)性,也讓我結(jié)識(shí)了很多參賽者,我個(gè)人公號(hào)開始做的原由其實(shí)是為了讓自己以后想要回顧當(dāng)初比賽項(xiàng)目細(xì)節(jié)時(shí),能方便我復(fù)盤。我公開比賽思路和代碼的原因除了幫助個(gè)人復(fù)盤外,還有一個(gè)原因是想鼓勵(lì)和監(jiān)督自己能認(rèn)真去記錄這些知識(shí)點(diǎn),因?yàn)楹芏鄷r(shí)候,當(dāng)你寫給自己看和寫給別人看時(shí),是完全不一樣的心態(tài)。開源會(huì)讓自己在寫代碼時(shí)更注重代碼的可讀性,寫思路分享時(shí)更注重實(shí)驗(yàn)細(xì)節(jié)的描述。雖然公號(hào)更新很少,但還是得到了很多朋友的支持。在參賽過程中,我剛開始主攻目標(biāo)檢測(cè)比賽,因?yàn)閯傞_始不了解,所以輸入了很多論文和思路,并不斷輸出實(shí)踐。但到后期就沉迷于調(diào)參,不太喜歡看外文文獻(xiàn)或花一定時(shí)間研究一些在實(shí)現(xiàn)上比較復(fù)雜的思路,輸入少而過分輸出是很件不好的事,包括現(xiàn)在我寫這篇比賽經(jīng)驗(yàn)分享中,我也發(fā)現(xiàn)了有些知識(shí)點(diǎn)還不夠深入,只是知其然而不知其所以然,后續(xù)我會(huì)陸續(xù)進(jìn)行知識(shí)點(diǎn)掃盲。最后啰嗦一句,我開源的淘寶直播服裝檢索代碼不是個(gè)合格的baseline方案(目標(biāo)檢測(cè)網(wǎng)絡(luò)和檢索網(wǎng)絡(luò)沒有實(shí)現(xiàn)端對(duì)端的訓(xùn)練),但考慮到部分?jǐn)?shù)據(jù)預(yù)處理代碼和EDA代碼對(duì)一些參賽者可能有幫助,所以我還沒在Github上關(guān)閉該倉庫,近期我會(huì)關(guān)閉該項(xiàng)目避免誤導(dǎo)更多人入坑。因?yàn)樽罱验_始入職培訓(xùn)了,可能會(huì)有很長(zhǎng)一段時(shí)間不會(huì)對(duì)公號(hào)進(jìn)行更新,希望大家諒解,祝各位學(xué)業(yè)或工作順利。也在此感謝下比賽過程中幫助過我的朋友們,謝謝。

          博客? ? ? ? ? ? ?:https://www.cnblogs.com/alvinai/
          Github? ? ? ? ?:https://github.com/AlvinAi96
          微信公眾號(hào)??:zaicode
          個(gè)人郵箱? ?? [email protected]

          參考文獻(xiàn):
          [1] 阿里天池大賽項(xiàng)目:“數(shù)字人體”視覺挑戰(zhàn)賽 - 宮頸癌風(fēng)險(xiǎn)智能檢測(cè)診斷:
          https://mp.weixin.qq.com/s/ZBeSjLa924h4l4MP0vTInQ
          [2] Kesci大賽項(xiàng)目:2020年全國(guó)水下機(jī)器人(湛江)大賽 - 水下目標(biāo)檢測(cè)算法賽:
          https://mp.weixin.qq.com/s/Mh8HAjIOVZ3KxWNxciq1mw
          [3] 阿里天池大賽項(xiàng)目:天池新品實(shí)驗(yàn)室 - 淘寶直播商品識(shí)別:
          https://mp.weixin.qq.com/s/06Ywh1YHROgyfomZ2836pg
          [4] 目標(biāo)檢測(cè)和感受野的總結(jié)與想法:
          https://www.cnblogs.com/pprp/p/12346759.html
          [5] 天池CV賽事老司機(jī),手把手帶你入門目標(biāo)檢測(cè)賽題:
          https://tianchi.aliyun.com/course/video?spm=5176.12282027.0.0.2be8379cwYiIGM&liveId=41141
          [6] Kaggle X光肺炎檢測(cè)比賽第二名方案解析 | CVPR 2020 Workshop:
          https://mp.weixin.qq.com/s/X3JoTS3JqlT1uxFpChujRA
          [7] mmdetection目標(biāo)檢測(cè)工具箱:
          https://github.com/open-mmlab/mmdetection
          [8] 兩年三刷Pascal VOC最佳紀(jì)錄,阿里圖靈實(shí)驗(yàn)室怎樣解決目標(biāo)檢測(cè):
          https://baijiahao.baidu.com/s?id=1652911649267060207&wfr=spider&for=pc
          [9] Improved Regularization of Convolutional Neural Networks with Cutout:
          https://arxiv.org/abs/1708.04552
          [10] Bag of Freebies for Training Object Detection Neural Networks:
          https://arxiv.org/abs/1902.04103
          [11] Augmentation for small object detection:
          https://arxiv.org/abs/1902.07296v1
          [12] Poisson Image Editing:
          https://www.cs.virginia.edu/~connelly/class/2014/comp_photo/proj2/poisson.pdf
          [13] 【綜述】圖像去霧的前世今生:
          https://mp.weixin.qq.com/s/SKJy8X5_UH8-W1yFRDQEoA
          [14] Albumentations數(shù)據(jù)增強(qiáng)庫:
          https://github.com/albumentations-team/albumentations
          [15] “數(shù)據(jù)引領(lǐng)飛粵云端” 2019廣東工業(yè)智造創(chuàng)新大賽-決賽答辯直播 - 《布匹疵點(diǎn)智能識(shí)別賽道》:
          https://tianchi.aliyun.com/course/video?liveId=41117?
          [16] Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour:
          https://arxiv.org/abs/1706.02677
          [17] WBF開源代碼:
          https://github.com/ZFTurbo/Weighted-Boxes-Fusion
          [18] 知乎:你有哪些deep learning(rnn、cnn)調(diào)參的經(jīng)驗(yàn)?:
          https://www.zhihu.com/question/41631631
          瀏覽 30
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  久久婷婷五月 | 俺也去网av | 欧美黄片视频播放 | 成人在线看mv | 国人免费无码区久久久免费 |