<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          yolov8 模型架構(gòu)輕量化,極致降低參數(shù)量

          共 3601字,需瀏覽 8分鐘

           ·

          2024-05-22 11:00

          向AI轉(zhuǎn)型的程序員都關(guān)注了這個(gè)號(hào)??????



          模型輕量化加速是深度學(xué)習(xí)領(lǐng)域的重要研究方向,旨在減小模型的體積和計(jì)算復(fù)雜度,從而提高在資源受限設(shè)備上的運(yùn)行效率,模型參數(shù)量在輕量化加速中扮演著至關(guān)重要的角色。

          首先,模型參數(shù)量直接決定了模型的復(fù)雜度和存儲(chǔ)空間需求。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,模型參數(shù)數(shù)量急劇增加,導(dǎo)致模型體積龐大,給存儲(chǔ)和傳輸帶來了巨大挑戰(zhàn)。通過減少模型參數(shù)量,可以有效降低模型的體積,從而減小存儲(chǔ)空間需求,使模型更容易在嵌入式設(shè)備和移動(dòng)設(shè)備上部署。

          其次,模型參數(shù)量對(duì)計(jì)算資源的需求有顯著影響。在模型訓(xùn)練和推理過程中,參數(shù)量的大小直接決定了所需的計(jì)算量。減少模型參數(shù)量可以降低計(jì)算資源的消耗,提高計(jì)算效率,使得模型在資源受限設(shè)備上能夠更快地完成訓(xùn)練和推理任務(wù)。

          此外,模型參數(shù)量還影響著模型的泛化能力和魯棒性。過多的參數(shù)可能導(dǎo)致模型過擬合,降低其泛化能力;而減少參數(shù)量則有助于防止過擬合,提高模型的魯棒性。因此,在模型輕量化加速過程中,通過合理減少參數(shù)量,可以在保持模型性能的同時(shí),實(shí)現(xiàn)模型的輕量化。

          為了降低模型參數(shù)量,研究人員采用了多種方法,如剪枝、量化、蒸餾等。這些方法可以有效地移除模型中的冗余參數(shù),降低模型的復(fù)雜度和存儲(chǔ)空間需求。在剪枝過程中,研究人員會(huì)識(shí)別并移除模型中的冗余連接和權(quán)重較小的參數(shù);在量化過程中,會(huì)將模型中的高精度參數(shù)轉(zhuǎn)換為低精度參數(shù),從而減少參數(shù)數(shù)量并降低計(jì)算復(fù)雜度;在蒸餾過程中,則會(huì)將大模型的知識(shí)轉(zhuǎn)移到小模型中,使小模型在保持一定性能的同時(shí)減少參數(shù)量。

          本文將從另外一個(gè)角度,即模型的結(jié)構(gòu)設(shè)計(jì)方面,實(shí)現(xiàn)參數(shù)量的最小,并以YOLOV8為例子,通過模型結(jié)構(gòu)的輕量化設(shè)計(jì),在保證模型性能穩(wěn)定不變的前提下極致的壓縮參數(shù)量


          一、設(shè)計(jì)思路



          從模型結(jié)構(gòu)看V8主要有兩個(gè)大的模塊構(gòu)成,就是backbone和head模塊,因此降低參數(shù)量我們就從這兩模塊開始

          二、bakebone模塊輕量化參數(shù)

          1.CSPPC替換c2f卷積塊



          論文地址:https://arxiv.org/pdf/2303.03667.pdf

          如上圖,其中利用了PConv模塊大量降低參數(shù)量

          其中

          PConv(部分卷積)的基本原理是利用特征圖的冗余,從而減少計(jì)算和內(nèi)存訪問。具體來說,PConv 只在輸入通道的一部分上應(yīng)用常規(guī)卷積進(jìn)行空間特征提取,而保留剩余通道不變。這種設(shè)計(jì)的優(yōu)勢(shì)在于:

          1.減少計(jì)算復(fù)雜度:PConv 通過在較少的通道上進(jìn)行計(jì)算,降低了浮點(diǎn)操作(FLOPs)的數(shù)量。例如,如果部分率設(shè)置為 1/4,則PConv的計(jì)算量只有常規(guī)卷積的 1/16.

          2.降低內(nèi)存訪問:與常規(guī)卷積相比,PConv減少了內(nèi)存訪問量,這對(duì)于輸入輸出(/0)受限的設(shè)備尤其有益

          3.保持特征信息流:盡管只對(duì)輸入通道的一部分進(jìn)行計(jì)算,但保留的通道在后續(xù)的逐點(diǎn)卷積(PWConv)層中仍然有用,允許特征信息在所有通道中流動(dòng)

          2.Down_wt替換backbone下采樣模塊


          上圖是ADown,其是在202402021最新發(fā)布的yolov9模型結(jié)構(gòu)中提出的

          檢測(cè)頭輕量化參數(shù)


          論文地址:https://arxiv.org/pdf/2306.15988.pdf


          主要改進(jìn)機(jī)制:

          1.底層特征融合: AFPN通過引入底層特征的逐步融合,首先融合底層特征,接著深層特征,最后整合頂層特征。這種層級(jí)融合的方式有助于更好地利用不同層次的語義信息,提高檢測(cè)性能。

          2,自適應(yīng)空間融合;引入自適應(yīng)空間融合機(jī)制(ASFF),在多級(jí)特征融合過程中引入變化的空間權(quán)重,加強(qiáng)關(guān)鍵級(jí)別的重要性,同時(shí)抑制來自不同對(duì)象的矛盾信息的影響。這有助于提高檢測(cè)性能,尤其在處理矛盾信息時(shí)更為有效。

          3.底層特征對(duì)齊: AFPN采用漸近融合的思想,使得不同層次的特征在融合過程中逐漸接近,減小它們之間的語義差距。通過底層特征的

          逐步整合,提高了特征融合的效果,使得模型更能理解和利用不同層次的信息。個(gè)人總結(jié):AFPN的靈感就像是搭積木一樣,它不是一下子把所有的積木都放到一起,而是逐步地將不同層次的積木慢慢整合在一起。這樣一來,我們可以更好地理解和利用每一層次的積木,從而構(gòu)建一個(gè)更牢固的目標(biāo)檢測(cè)系統(tǒng)。同時(shí),引入了一種智能的機(jī)制,能夠根據(jù)不同情況調(diào)整注意力,更好地處理矛盾信息。


          模型結(jié)構(gòu)輕量化參數(shù)對(duì)比

          原yolov8參數(shù):3011043

          輕量化后參數(shù):1436977


          通過以上模塊的替換使得模型參數(shù)降低至原來的一半不到,且精度不變,這是通過剪枝、蒸餾都沒辦到的




          閱讀過本文的人還看了以下文章:


          整理開源的中文大語言模型,以規(guī)模較小、可私有化部署、訓(xùn)練成本較低的模型為主



          《大語言模型》PDF下載


          動(dòng)手學(xué)深度學(xué)習(xí)-(李沐)PyTorch版本


          YOLOv9電動(dòng)車頭盔佩戴檢測(cè),詳細(xì)講解模型訓(xùn)練


          TensorFlow 2.0深度學(xué)習(xí)案例實(shí)戰(zhàn)


          基于40萬表格數(shù)據(jù)集TableBank,用MaskRCNN做表格檢測(cè)


          《基于深度學(xué)習(xí)的自然語言處理》中/英PDF


          Deep Learning 中文版初版-周志華團(tuán)隊(duì)


          【全套視頻課】最全的目標(biāo)檢測(cè)算法系列講解,通俗易懂!


          《美團(tuán)機(jī)器學(xué)習(xí)實(shí)踐》_美團(tuán)算法團(tuán)隊(duì).pdf


          《深度學(xué)習(xí)入門:基于Python的理論與實(shí)現(xiàn)》高清中文PDF+源碼


          《深度學(xué)習(xí):基于Keras的Python實(shí)踐》PDF和代碼


          特征提取與圖像處理(第二版).pdf


          python就業(yè)班學(xué)習(xí)視頻,從入門到實(shí)戰(zhàn)項(xiàng)目


          2019最新《PyTorch自然語言處理》英、中文版PDF+源碼


          《21個(gè)項(xiàng)目玩轉(zhuǎn)深度學(xué)習(xí):基于TensorFlow的實(shí)踐詳解》完整版PDF+附書代碼


          《深度學(xué)習(xí)之pytorch》pdf+附書源碼


          PyTorch深度學(xué)習(xí)快速實(shí)戰(zhàn)入門《pytorch-handbook》


          【下載】豆瓣評(píng)分8.1,《機(jī)器學(xué)習(xí)實(shí)戰(zhàn):基于Scikit-Learn和TensorFlow》


          《Python數(shù)據(jù)分析與挖掘?qū)崙?zhàn)》PDF+完整源碼


          汽車行業(yè)完整知識(shí)圖譜項(xiàng)目實(shí)戰(zhàn)視頻(全23課)


          李沐大神開源《動(dòng)手學(xué)深度學(xué)習(xí)》,加州伯克利深度學(xué)習(xí)(2019春)教材


          筆記、代碼清晰易懂!李航《統(tǒng)計(jì)學(xué)習(xí)方法》最新資源全套!


          《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》最新2018版中英PDF+源碼


          將機(jī)器學(xué)習(xí)模型部署為REST API


          FashionAI服裝屬性標(biāo)簽圖像識(shí)別Top1-5方案分享


          重要開源!CNN-RNN-CTC 實(shí)現(xiàn)手寫漢字識(shí)別


          yolo3 檢測(cè)出圖像中的不規(guī)則漢字


          同樣是機(jī)器學(xué)習(xí)算法工程師,你的面試為什么過不了?


          前海征信大數(shù)據(jù)算法:風(fēng)險(xiǎn)概率預(yù)測(cè)


          【Keras】完整實(shí)現(xiàn)‘交通標(biāo)志’分類、‘票據(jù)’分類兩個(gè)項(xiàng)目,讓你掌握深度學(xué)習(xí)圖像分類


          VGG16遷移學(xué)習(xí),實(shí)現(xiàn)醫(yī)學(xué)圖像識(shí)別分類工程項(xiàng)目


          特征工程(一)


          特征工程(二) :文本數(shù)據(jù)的展開、過濾和分塊


          特征工程(三):特征縮放,從詞袋到 TF-IDF


          特征工程(四): 類別特征


          特征工程(五): PCA 降維


          特征工程(六): 非線性特征提取和模型堆疊


          特征工程(七):圖像特征提取和深度學(xué)習(xí)


          如何利用全新的決策樹集成級(jí)聯(lián)結(jié)構(gòu)gcForest做特征工程并打分?


          Machine Learning Yearning 中文翻譯稿


          螞蟻金服2018秋招-算法工程師(共四面)通過


          全球AI挑戰(zhàn)-場(chǎng)景分類的比賽源碼(多模型融合)


          斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)


          python+flask搭建CNN在線識(shí)別手寫中文網(wǎng)站


          中科院Kaggle全球文本匹配競(jìng)賽華人第1名團(tuán)隊(duì)-深度學(xué)習(xí)與特征工程



          不斷更新資源

          深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析、python

           搜索公眾號(hào)添加: datayx  















          瀏覽 159
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  夜夜嗨网站 | 伊人狼在线 | 欧美成人猛片AAAAAAA | 亚洲123区 | 亚洲自拍中文 |