<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          大道至簡:算法工程師煉丹Trick手冊

          共 2563字,需瀏覽 6分鐘

           ·

          2021-02-28 21:26

          點(diǎn)擊上方AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”

          重磅干貨,第一時間送達(dá)

          作者丨時晴
          來源丨煉丹筆記
          編輯丨極市平臺

          導(dǎo)讀

           

          如何提高煉丹速度?本文總結(jié)了算法工程師須知的十個煉丹trick,附有相關(guān)代碼,可直接上手。

          Focal Loss

          針對類別不平衡問題,用預(yù)測概率對不同類別的loss進(jìn)行加權(quán)。Focal loss對CE loss增加了一個調(diào)制系數(shù)來降低容易樣本的權(quán)重值,使得訓(xùn)練過程更加關(guān)注困難樣本。

          loss = -np.log(p) loss = (1-p)^G * loss

          Dropout

          隨機(jī)丟棄,抑制過擬合,提高模型魯棒性。

          Normalization

          Batch Normalization 于2015年由 Google 提出,開 Normalization 之先河。其規(guī)范化針對單個神經(jīng)元進(jìn)行,利用網(wǎng)絡(luò)訓(xùn)練時一個 mini-batch 的數(shù)據(jù)來計算該神經(jīng)元的均值和方差,因而稱為 Batch Normalization。

          x = (x - x.mean()) / x.std()

          relu

          用極簡的方式實(shí)現(xiàn)非線性激活,緩解梯度消失。

          x = max(x, 0)

          Cyclic LR

          每隔一段時間重啟學(xué)習(xí)率,這樣在單位時間內(nèi)能收斂到多個局部最小值,可以得到很多個模型做集成。

          scheduler = lambda x: ((LR_INIT-LR_MIN)/2)*(np.cos(PI*(np.mod(x-1,CYCLE)/(CYCLE)))+1)+LR_MIN

          With Flooding


          當(dāng)training loss大于一個閾值時,進(jìn)行正常的梯度下降;當(dāng)training loss低于閾值時,會反過來進(jìn)行梯度上升,讓training loss保持在一個閾值附近,讓模型持續(xù)進(jìn)行“random walk”,并期望模型能被優(yōu)化到一個平坦的損失區(qū)域,這樣發(fā)現(xiàn)test loss進(jìn)行了double decent。

          flood = (loss - b).abs() + b

          Group Normalization

          Face book AI research(FAIR)吳育昕-愷明聯(lián)合推出重磅新作Group Normalization(GN),提出使用Group Normalization 替代深度學(xué)習(xí)里程碑式的工作Batch normalization。一句話概括,Group Normbalization(GN)是一種新的深度學(xué)習(xí)歸一化方式,可以替代BN。

          def GroupNorm(x, gamma, beta, G, eps=1e-5):    # x: input features with shape [N,C,H,W]    # gamma, beta: scale and offset, with shape [1,C,1,1]    # G: number of groups for GN    N, C, H, W = x.shape    x = tf.reshape(x, [N, G, C // G, H, W])    mean, var = tf.nn.moments(x, [2, 3, 4], keep dims=True)    x = (x - mean) / tf.sqrt(var + eps)    x = tf.reshape(x, [N, C, H, W])    return x * gamma + beta

          Label Smoothing

          abel smoothing將hard label轉(zhuǎn)變成soft label,使網(wǎng)絡(luò)優(yōu)化更加平滑。標(biāo)簽平滑是用于深度神經(jīng)網(wǎng)絡(luò)(DNN)的有效正則化工具,該工具通過在均勻分布和hard標(biāo)簽之間應(yīng)用加權(quán)平均值來生成soft標(biāo)簽。它通常用于減少訓(xùn)練DNN的過擬合問題并進(jìn)一步提高分類性能。

          targets = (1 - label_smooth) * targets + label_smooth / num_classes

          Wasserstein GAN

          • 徹底解決GAN訓(xùn)練不穩(wěn)定的問題,不再需要小心平衡生成器和判別器的訓(xùn)練程度
          • 基本解決了Collapse mode的問題,確保了生成樣本的多樣性
          • 訓(xùn)練過程中終于有一個像交叉熵、準(zhǔn)確率這樣的數(shù)值來指示訓(xùn)練的進(jìn)程,數(shù)值越小代表GAN訓(xùn)練得越好,代表生成器產(chǎn)生的圖像質(zhì)量越高
          • 不需要精心設(shè)計的網(wǎng)絡(luò)架構(gòu),最簡單的多層全連接網(wǎng)絡(luò)就可以做到以上3點(diǎn)。

          Skip Connection

          一種網(wǎng)絡(luò)結(jié)構(gòu),提供恒等映射的能力,保證模型不會因網(wǎng)絡(luò)變深而退化。

          F(x) = F(x) + x

          參考文獻(xiàn):

          • https://www.zhihu.com/question/427088601
          • https://arxiv.org/pdf/1701.07875.pdf
          • https://zhuanlan.zhihu.com/p/25071913
          • https://www.zhihu.com/people/yuconan/posts


          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱



          下載1:何愷明頂會分享


          AI算法與圖像處理」公眾號后臺回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


          下載2:終身受益的編程指南:Google編程風(fēng)格指南


          AI算法與圖像處理」公眾號后臺回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!



          下載3 CVPR2020

          AI算法與圖像處公眾號后臺回復(fù):CVPR2020即可下載1467篇CVPR 2020論文


          覺得不錯就點(diǎn)亮在看吧


          瀏覽 30
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  五月婷丁香久久 | www.污污在线观看 | 俺来也俺也去无码 | 三级经典欧美大战高潮 | 骚逼五月婷婷影院 |