<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          效果提升18%!百度EasyDL自研數(shù)據(jù)增強(qiáng)服務(wù)加持AI模型開發(fā)

          共 5776字,需瀏覽 12分鐘

           ·

          2020-08-14 11:18


          點(diǎn)擊上方“CVer”,選擇加"星標(biāo)"置頂

          重磅干貨,第一時(shí)間送達(dá)

          在 AI 模型開發(fā)的過程中,許多開發(fā)者被不夠充足的訓(xùn)練數(shù)據(jù)擋住了提升模型效果的腳步,一個(gè)擁有出色效果的深度學(xué)習(xí)模型,支撐它的通常是一個(gè)龐大的標(biāo)注數(shù)據(jù)集。因此,提升模型的效果的通用方法是增加數(shù)據(jù)的數(shù)量和多樣性。但在實(shí)踐中,收集數(shù)目龐大的高質(zhì)量數(shù)據(jù)并不容易,在某些特定領(lǐng)域與應(yīng)用場景甚至難以獲取大量數(shù)據(jù)。那么如何能在有限數(shù)據(jù)的情況下提升模型的效果呢?


          隨著深度學(xué)習(xí)的發(fā)展,數(shù)據(jù)增強(qiáng)技術(shù)可以協(xié)助開發(fā)者解決這一問題。數(shù)據(jù)增強(qiáng)技術(shù)通過對數(shù)據(jù)本身進(jìn)行一定程度的擾動(dòng)從而產(chǎn)生“新”數(shù)據(jù),模型通過不斷學(xué)習(xí)大量的“新”數(shù)據(jù)來提升泛化能力。


          不同數(shù)據(jù)集的數(shù)據(jù)特性決定了其所適用的數(shù)據(jù)增強(qiáng)策略組合,在沒有對數(shù)據(jù)特性有專業(yè)理解能力的情況下,用戶很難構(gòu)建出能與數(shù)據(jù)集特性強(qiáng)相關(guān)的數(shù)據(jù)增強(qiáng)策略組合。比如在標(biāo)準(zhǔn)的 ImageNet 數(shù)據(jù)預(yù)處理流程中有使用 Random Crop(隨機(jī)剪裁)、Random Flip(隨機(jī)翻轉(zhuǎn))等數(shù)據(jù)增強(qiáng)技術(shù),取得了不錯(cuò)的效果增益,但在某些特定用戶場景(如零售場景 SKU 摳圖場景)數(shù)據(jù)邊緣存在重要信息時(shí) Random Crop 會(huì)導(dǎo)致信息的損失、在某些特定用戶場景(如數(shù)字識(shí)別)時(shí) Random Flip 會(huì)導(dǎo)致特征的混淆。因此如何根據(jù)數(shù)據(jù)特征來自動(dòng)化搜索數(shù)據(jù)增強(qiáng)策略組合成為了一個(gè)熱門的研究方向。


          追溯學(xué)術(shù)界對自動(dòng)數(shù)據(jù)增強(qiáng)領(lǐng)域的研究,最具影響力的一篇論文是 Google 在2018年提出的 AutoAugment 技術(shù)。隨后,相關(guān)的優(yōu)化論文層出不窮,簡單梳理依據(jù)現(xiàn)有方法的一些建模思想,如圖1。


          ▲?圖1 自動(dòng)數(shù)據(jù)增強(qiáng)算法建模思路歸類


          • 強(qiáng)化學(xué)習(xí):AutoAugment [1] 借鑒了基于強(qiáng)化學(xué)習(xí)的架構(gòu)搜索算法,在離散化的搜索空間內(nèi)通過 PPO(Proximal Policy Optimization)算法來訓(xùn)練一個(gè) policy generator, policy generator 的獎(jiǎng)勵(lì)信號(hào)是其生成的 policy 應(yīng)用于子網(wǎng)絡(luò)訓(xùn)練完畢后的驗(yàn)證集準(zhǔn)確率。其問題在于 AutoAugment 的搜索成本非常高,還無法滿足工業(yè)界的業(yè)務(wù)需求,難以應(yīng)用在業(yè)務(wù)模型開發(fā)中。

          • 密度匹配:Fast AutoAugment [2] 采用了密度匹配的策略,希望驗(yàn)證數(shù)據(jù)通過數(shù)據(jù)增強(qiáng)后的數(shù)據(jù)點(diǎn)能與原始訓(xùn)練數(shù)據(jù)集的分布盡量匹配。這個(gè)思路直覺上可以排除一些導(dǎo)致數(shù)據(jù)集畸變的增強(qiáng)策略,但沒有解決“如何尋找最優(yōu)策略”這一問題。

          • 遺傳進(jìn)化:PBA [3] 采用了 PBT 的遺傳進(jìn)化策略,在多個(gè)網(wǎng)絡(luò)的并發(fā)訓(xùn)練中不斷“利用”和“擾動(dòng)”網(wǎng)絡(luò)的權(quán)重,以期獲得最優(yōu)的數(shù)據(jù)增強(qiáng)調(diào)度策略。這個(gè)思路直覺上是可以通過優(yōu)勝劣汰來搜索到最優(yōu)策略。

          • 網(wǎng)格搜索:RandAugment [4] 通過統(tǒng)一的強(qiáng)度和概率參數(shù)來大幅減小搜索空間,期望能用網(wǎng)格搜索就解決數(shù)據(jù)增強(qiáng)搜索的問題。但這一技術(shù)并不具備策略的可解釋性,拋開實(shí)現(xiàn)手段不談,這篇論文更像是對 AutoAugment 的自我否定(注: RandAugment 也是 Google 出品的論文)。

          • 對抗學(xué)習(xí):Adversarial AutoAugment [5] 在 AutoAugment 的基礎(chǔ)上借鑒了 GAN 的對抗思想,讓 policy generator 不斷產(chǎn)生難樣本,并且使 policy generator 和分類器能并行訓(xùn)練,降低了搜索時(shí)長。但整體搜索成本還是非常高。

          • 可微分:DADA [6]借鑒了 DARTS 的算法設(shè)計(jì)思路,將離散的參數(shù)空間通過 Gumbel-Softmax 重參數(shù)化成了可微分的參數(shù)優(yōu)化問題,大大降低了搜索成本。

          在上述的建模思路中,遺傳進(jìn)化和可微分的建模思路更適合應(yīng)用到模型開發(fā)中,因?yàn)檫@兩種思路將自動(dòng)數(shù)據(jù)增強(qiáng)搜索的成本降低到了線上業(yè)務(wù)承受的資源范圍內(nèi),并且具備較好的策略可解釋性。基于對建模思路的評估和判斷,百度工程師決定將遺傳進(jìn)化和可微分思路應(yīng)用到零門檻 AI 開發(fā)平臺(tái) EasyDL 中,便于開發(fā)者進(jìn)一步優(yōu)化模型效果。


          EasyDL 面向企業(yè)開發(fā)者提供智能標(biāo)注、模型訓(xùn)練、服務(wù)部署等全流程功能,針對 AI 模型開發(fā)過程中繁雜的工作,提供便捷高效的平臺(tái)化解決方案,并且內(nèi)置了豐富的預(yù)訓(xùn)練模型與優(yōu)化的多種算法網(wǎng)絡(luò),用戶可在少量業(yè)務(wù)數(shù)據(jù)上獲得高精度的模型效果。EasyDL 面向不同人群提供了經(jīng)典版、專業(yè)版、行業(yè)版三種產(chǎn)品形態(tài)。


          目前,遺傳進(jìn)化 PBA 技術(shù)已經(jīng)在 EasyDL 平臺(tái)中的成功實(shí)現(xiàn),可微分的技術(shù)思路在 EasyDL 業(yè)務(wù)中的實(shí)踐也在持續(xù)探索中。


          PBA 采用了 PBT [7]的遺傳進(jìn)化策略,通過訓(xùn)練一群神經(jīng)網(wǎng)絡(luò)(種群,Trials)來找出超參數(shù)調(diào)度。Trials 之間會(huì)周期性地將高性能 Trial 的權(quán)重復(fù)制給低性能的 Trial(exploit),并且會(huì)有一定的超參擾亂策略(explore),如圖2的 PBT 流程圖。


          ▲?2 PBT 算法流程圖

          ???????

          然而實(shí)際將能力落地到平臺(tái)中并不容易,工程師們在復(fù)現(xiàn)論文開源代碼的過程中發(fā)現(xiàn)了一些問題:


          1. 開源代碼采用了 Ray 的 Population Based Training 實(shí)現(xiàn),但這個(gè)接口并不能保證并行的 Trials 一定能實(shí)現(xiàn)同步的 exploit, 尤其在資源受限的情況下,很大概率會(huì)出現(xiàn)進(jìn)化程度較高的 Trial 和進(jìn)化程度較低的 Trial 之間的 exploit,這樣的錯(cuò)誤進(jìn)化是不可接受的。

          2. 開源代碼僅實(shí)現(xiàn)了單機(jī)多卡版本的搜索能力,想擴(kuò)展到多機(jī)多卡能力,需要基于 Ray 做二次開發(fā)。

          3. 開源代碼僅實(shí)現(xiàn)了圖像分類的自動(dòng)數(shù)據(jù)增強(qiáng)搜索,并未提供物體檢測等其他任務(wù)的數(shù)據(jù)增強(qiáng)搜索能力。

          4. 開源代碼現(xiàn)有增強(qiáng)算子實(shí)現(xiàn)方式比較低效。


          綜合以上考慮,最終百度工程師從零開始構(gòu)建了基于 PBA 的自動(dòng)數(shù)據(jù)增強(qiáng)搜索服務(wù)。


          這一自研自動(dòng)數(shù)據(jù)增強(qiáng)搜索服務(wù)有以下幾個(gè)特點(diǎn):


          • 實(shí)現(xiàn)了標(biāo)準(zhǔn)的 PBT 算法,支持種群 Trials 的同步 exploit、explore,保證公平進(jìn)化。

          • 支持分布式拓展,可不受限的靈活調(diào)節(jié)并發(fā)種群數(shù),支持。

          • 搜索服務(wù)與任務(wù)解耦,已支持飛槳深度學(xué)習(xí)平臺(tái)的圖像分類、物體檢測任務(wù),并且可擴(kuò)展到其他的視覺任務(wù)與文本任務(wù)。

          • 數(shù)據(jù)增強(qiáng)算子基于 C++ 高效實(shí)現(xiàn)。


          自研的能力效果如何呢?在公開數(shù)據(jù)集上,百度工程師基于自研的自動(dòng)數(shù)據(jù)增強(qiáng)搜索服務(wù)與現(xiàn)有的 Benchmark 進(jìn)行了對齊,其中表一的 ImageNet Benchmark 在 PaddleClas [8]框架上訓(xùn)練,表二的 Coco Benchmark 在 PaddleDetection [9]框架上訓(xùn)練。


          結(jié)果顯示,EasyDL自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)能達(dá)到與 AutoAugment 同樣高的精度,并有大幅的速度優(yōu)勢。目前,用于數(shù)據(jù)增強(qiáng)搜索的分類、檢測算子已經(jīng)與 AutoAugment 對齊,后續(xù)將會(huì)持續(xù)不斷擴(kuò)充更多更高效的算子,進(jìn)一步提升模型效果。


          模型數(shù)據(jù)變化策略Top1 Acc數(shù)據(jù)增強(qiáng)策略搜索時(shí)長(GPU hours)
          ResNet50標(biāo)準(zhǔn)變換0.7731\
          AutoAugment0.779515000[1](P100)
          EasyDL 自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)0.779645(V100)

          MobileNetV3_

          small_x1_0

          標(biāo)準(zhǔn)變換0.682\
          EasyDL 自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)0.6867928(V100)

          ▲?表一 ImageNet Benchmark [8]


          模型數(shù)據(jù)變化策略Box AP增強(qiáng)策略搜索時(shí)長(GPU hours)

          Faster_RCNN_R50_

          VD_FPN_3x

          AutoAugment39.948*400[10](TPU)
          EasyDL?自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)39.390(V100)

          ?▲?表二 Coco Benchmark [9]


          EasyDL 目前已在經(jīng)典版上線了手動(dòng)數(shù)據(jù)增強(qiáng)服務(wù),在專業(yè)版上線了自動(dòng)數(shù)據(jù)增強(qiáng)搜索服務(wù)。在圖像分類單標(biāo)簽的任務(wù)上,工程師隨機(jī)挑選了11個(gè)線上任務(wù)進(jìn)行效果評測。如下圖,使用專業(yè)版自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)后,11個(gè)任務(wù)準(zhǔn)確率平均提長了5.42%,最高一項(xiàng)任務(wù)獲得了18.13%的效果提升。


          ▲?圖3 圖像分類單分類效果評測


          在物體檢測任務(wù)上,通過隨機(jī)挑選的12個(gè)線上任務(wù)進(jìn)行了效果評測,效果對比如下圖,使用專業(yè)版自動(dòng)數(shù)據(jù)增強(qiáng)服務(wù)后11個(gè)任務(wù)準(zhǔn)確率平均提升了1.4%,最高一項(xiàng)任務(wù)獲得了4.2%的效果提升。


          ▲?圖4 物體檢測效果評測


          EasyDL 平臺(tái)通過交互式的界面,為用戶提供簡單易上手的操作體驗(yàn)。同樣,使用 EasyDL 的數(shù)據(jù)增強(qiáng)服務(wù)操作非常簡便。


          目前,由于訓(xùn)練環(huán)境的資源消耗不同,EasyDL 經(jīng)典版與專業(yè)版提供兩種數(shù)據(jù)增強(qiáng)策略。


          • 在經(jīng)典版中,已經(jīng)上線了手動(dòng)配置數(shù)字增強(qiáng)策略。如圖5,用戶可以在訓(xùn)練模型頁面選擇“手動(dòng)配置”,實(shí)現(xiàn)數(shù)據(jù)增強(qiáng)算子的使用。

          • 在專業(yè)版中,由于提供訓(xùn)練環(huán)境的多種選擇,目前已支持自動(dòng)搜索策略。如圖6,在新建任務(wù)頁面的“數(shù)據(jù)增強(qiáng)策略”中選擇“自動(dòng)搜索”,再設(shè)置需要搜索的算子范圍,即可立刻實(shí)現(xiàn)自動(dòng)數(shù)據(jù)增強(qiáng)。


          ▲?圖5 經(jīng)典版手動(dòng)數(shù)據(jù)增強(qiáng)使用流程


          ▲?圖6 專業(yè)版自動(dòng)數(shù)據(jù)增強(qiáng)使用流程

          ?

          為了讓開發(fā)者使用 EasyDL 更便捷高效地開發(fā)效果出色的模型,EasyDL 在框架設(shè)計(jì)中內(nèi)置了多個(gè)組件與多種能力。如 EasyDL 智能搜索服務(wù)的整體架構(gòu)圖(圖7)所示,其底層基礎(chǔ)組件是分布式智能搜索,具備多機(jī)多卡搜索、訓(xùn)練容錯(cuò)、支持多種搜索優(yōu)化算法等特性?;诜植际街悄芩阉魈峁┑暮诵哪芰?,產(chǎn)品構(gòu)建了自動(dòng)數(shù)據(jù)增強(qiáng)搜索、超參搜索、NAS 搜索等服務(wù),盡可能讓用戶可以在無需關(guān)心技術(shù)細(xì)節(jié)的情況下,簡便使用 EasyDL 提供的多項(xiàng)搜索服務(wù),獲得模型效果的優(yōu)化。


          ▲?圖7 EasyDL 智能搜索服務(wù)整體架構(gòu)圖


          在各行各業(yè)加速擁抱 AI 的今天,有越來越多的企業(yè)踏上智能化轉(zhuǎn)型之路,借助 AI 能力完成降本增效。但在 AI 賦能產(chǎn)業(yè)的過程中,大規(guī)模的商業(yè)化落地十分復(fù)雜,需要企業(yè)投入大量的精力。由于不同行業(yè)、場景存在著差異化與碎片化,對 AI 的需求也不盡相同。因此,一個(gè)能夠隨場景變化定制開發(fā) AI 模型的平臺(tái)至關(guān)重要。通過零算法門檻的平臺(tái)能力覆蓋千變?nèi)f化的場景需求,并提供靈活適應(yīng)具體業(yè)務(wù)的多種部署方式,這就是 EasyDL。


          EasyDL 零門檻 AI 開發(fā)平臺(tái),目前已在工業(yè)制造、智能安防、零售快消、交通運(yùn)輸、互聯(lián)網(wǎng)、教育培訓(xùn)等行業(yè)廣泛落地。


          百度搜索“EasyDL”或點(diǎn)擊“閱讀原文”,開發(fā)高精度 AI 模型。

          ?

          [1]:Cubuk E D, Zoph B, Mane D, et al. Autoaugment: Learning augmentation policies from data[J]. arXiv preprint arXiv:1805.09501, 2018.

          [2]:Lim S, Kim I, Kim T, et al. Fast autoaugment[C]//Advances in Neural Information Processing Systems. 2019: 6665-6675.

          [3]:Ho D, Liang E, Chen X, et al. Population based augmentation: Efficient learning of augmentation policy schedules[C]//International Conference on Machine Learning. 2019: 2731-2741.

          [4]:Cubuk E D, Zoph B, Shlens J, et al. Randaugment: Practical automated data augmentation with a reduced search space[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. 2020: 702-703.

          [5]:Zhang X, Wang Q, Zhang J, et al. Adversarial autoaugment[J]. arXiv preprint arXiv:1912.11188, 2019.

          [6]:Li Y, Hu G, Wang Y, et al. DADA: Differentiable Automatic Data Augmentation[J]. arXiv preprint arXiv:2003.03780, 2020.
          [7]:Jaderberg M, Dalibard V, Osindero S, et al. Population based training of neural networks[J]. arXiv preprint arXiv:1711.09846, 2017.

          [8]:https://paddleclas.readthedocs.io/zh_CN/latest/advanced_tutorials/image_augmentation/ImageAugment.html#id6

          [9]:https://github.com/PaddlePaddle/PaddleDetection/tree/master/configs/autoaugment

          [10]:Zoph B, Cubuk E D, Ghiasi G, et al. Learning data augmentation strategies for object detection[J]. arXiv preprint arXiv:1906.11172, 2019.


          整理不易,請點(diǎn)贊和在看

          瀏覽 67
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  五月婷婷激情四射 | AAAAAAAAAA黄片 | 78视频入口 | 天天色情 | 亚洲视屏在线免费观看 |