<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          Fire-YOLO:一種用于火災(zāi)檢測(cè)的小目標(biāo)檢測(cè)方法

          共 7481字,需瀏覽 15分鐘

           ·

          2022-06-01 11:01


          點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)

          作者丨CY
          來(lái)源丨當(dāng)交通遇上機(jī)器學(xué)習(xí)
          編輯丨極市平臺(tái)

          極市導(dǎo)讀

          ?

          本次介紹的文章是太原理工大學(xué)團(tuán)隊(duì)在2022年發(fā)表在《Sustainability》的關(guān)于火災(zāi)檢測(cè)的小目標(biāo)實(shí)時(shí)檢測(cè)工作。

          1.文章信息

          論文鏈接:https://www.mdpi.com/2071-1050/14/9/4930/htm

          2.摘要

          針對(duì)森林火災(zāi)圖像中小目標(biāo)、類(lèi)火目標(biāo)和類(lèi)煙目標(biāo)的檢測(cè),以及不同自然光下的火災(zāi)檢測(cè),提出了一種改進(jìn)的Fire-YOLO深度學(xué)習(xí)算法。Fire-YOLO檢測(cè)模型從三維擴(kuò)展了特征提取網(wǎng)絡(luò),增強(qiáng)了火災(zāi)小目標(biāo)識(shí)別的特征傳播,提高了網(wǎng)絡(luò)性能,減少了模型參數(shù)。進(jìn)一步,通過(guò)特征金字塔的提升,得到了性能最好的預(yù)測(cè)框。與最先進(jìn)的目標(biāo)檢測(cè)網(wǎng)絡(luò)相比,F(xiàn)ire-YOLO取得了優(yōu)異的結(jié)果,尤其是在火災(zāi)和煙霧的小目標(biāo)檢測(cè)方面??傮w而言,F(xiàn)ire-YOLO檢測(cè)模型可以有效地處理小火源目標(biāo)、類(lèi)火和類(lèi)煙目標(biāo)的檢測(cè)。當(dāng)輸入圖像尺寸為416 × 416分辨率時(shí),平均檢測(cè)時(shí)間為0.04 s /幀,可以提供實(shí)時(shí)的森林火災(zāi)檢測(cè)。此外,文章提出的算法也可以應(yīng)用于其他復(fù)雜情況下的小目標(biāo)檢測(cè)。

          3.簡(jiǎn)介

          火災(zāi)探測(cè)對(duì)于保護(hù)森林資源、保護(hù)人民生命財(cái)產(chǎn)至關(guān)重要。近年來(lái),隨著火災(zāi)圖像探測(cè)成為研究熱點(diǎn),圖像探測(cè)具有探測(cè)時(shí)間早、精度高、系統(tǒng)安裝靈活、能有效探測(cè)大空間復(fù)雜建筑結(jié)構(gòu)火災(zāi)等優(yōu)點(diǎn)。一類(lèi)方法基于火災(zāi)發(fā)生時(shí)的顏色識(shí)別,但基于顏色的方法對(duì)亮度和陰影非常敏感。因此,這些方法產(chǎn)生的假警報(bào)數(shù)量很高。

          隨著機(jī)器學(xué)習(xí)的發(fā)展,深度學(xué)習(xí)技術(shù)已廣泛應(yīng)用于檢測(cè)。有學(xué)者提出了一種使用微調(diào)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的早期火災(zāi)探測(cè)框架,但該模型具有較高的計(jì)算成本。有的學(xué)者使用深度融合CNN進(jìn)行煙霧探測(cè),它結(jié)合了注意機(jī)制、特征級(jí)和決策級(jí)融合模塊。然而,仍有一些小目標(biāo)未能實(shí)現(xiàn)。有的學(xué)者使用了一種基于區(qū)域的快速卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),根據(jù)空間特征檢測(cè)可疑火災(zāi)區(qū)域(SRoF)和非火災(zāi)區(qū)域。這可以通過(guò)減少錯(cuò)誤探測(cè)成功地提高火災(zāi)探測(cè)精度,但探測(cè)速度相對(duì)較慢。有的學(xué)者提出了一種基于YOLO-V3和YOLO-V4的森林煙霧檢測(cè)算法。與YOLO-V4相比,YOLO-V3的模型更小,更易于部署。在此基礎(chǔ)上,文章選擇了YOLO-V3模型作為整體算法,并對(duì)其進(jìn)行了改進(jìn)。提出了對(duì)YOLO-V3算法的改進(jìn)。網(wǎng)絡(luò)中加入了空心卷積和DenseNet,提高了火災(zāi)早期小規(guī)?;鹧娴奶綔y(cè)效果。然而,方法存在火焰定位不準(zhǔn)確和屏蔽性能差的問(wèn)題。I-YOLOv3-tiny模型通過(guò)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化、多尺度融合和K-均值聚類(lèi)來(lái)提高檢測(cè)精度,但檢測(cè)速度有待提高。通過(guò)提高特征圖的分辨率,它減少了火災(zāi)探測(cè)中的誤差,但由于計(jì)算量的增加,相應(yīng)的處理時(shí)間也增加了。將分類(lèi)模型和目標(biāo)檢測(cè)模型結(jié)合用于火災(zāi)探測(cè)的方法降低了計(jì)算成本,提高了探測(cè)精度。盡管如此,它不適用于火災(zāi)早期小目標(biāo)的探測(cè)場(chǎng)景。有的學(xué)者通過(guò)將原始網(wǎng)絡(luò)結(jié)構(gòu)中的兩步降采樣卷積網(wǎng)絡(luò)替換為圖像雙分割和雙線性上采樣網(wǎng)絡(luò),擴(kuò)大了小目標(biāo)的特征,提高了小目標(biāo)的檢測(cè)精度。雖然這會(huì)增加參數(shù)的數(shù)量,但計(jì)算成本也會(huì)增加。對(duì)于具有實(shí)時(shí)性要求的火災(zāi)探測(cè),仍需進(jìn)一步改進(jìn)。這些問(wèn)題給火災(zāi)場(chǎng)景中小目標(biāo)的檢測(cè)帶來(lái)了巨大的挑戰(zhàn)。

          4.模型

          A. YOLO-V3

          YOLO- v3是由YOLO和YOLOV2網(wǎng)絡(luò)演化而來(lái)的對(duì)象檢測(cè)模型。與Faster R-CNN相比,YOLO- v3是單級(jí)檢測(cè)算法,這意味著YOLO網(wǎng)絡(luò)不需要Regional Proposal network (RPN),而是直接檢測(cè)圖像中的目標(biāo)。這樣既考慮了檢測(cè)速度和檢測(cè)精度,又減小了模型參數(shù)的尺寸。

          YOLO-V3對(duì)每個(gè)類(lèi)別獨(dú)立使用邏輯回歸,取代了DarkENT-19到DarkENT-53的特征提取網(wǎng)絡(luò)。YOLO-V3幾乎與其他目標(biāo)檢測(cè)算法一樣精確,但速度至少是后者的兩倍。YOLO-V3的特征提取網(wǎng)絡(luò)為Darknet-53。Darknet-53通過(guò)不斷地使用卷積、標(biāo)準(zhǔn)化、池化等操作,提取輸入到Y(jié)OLO-V3網(wǎng)絡(luò)的火災(zāi)圖像的特征,并通過(guò)卷積不斷地對(duì)火災(zāi)圖像進(jìn)行特征提取。這種方法廣泛應(yīng)用于其他各種網(wǎng)絡(luò)模型中,ResNet也通過(guò)增加網(wǎng)絡(luò)的深度來(lái)提高網(wǎng)絡(luò)的精度。雖然可以同時(shí)縮放兩個(gè)或三個(gè)維度,但由于深度和寬度之間有一定的關(guān)系,需要進(jìn)行復(fù)雜的手動(dòng)調(diào)整,也就是說(shuō)只能調(diào)整深度和寬度才能達(dá)到更好的精度。目前,YOLO-V3模型在火災(zāi)探測(cè)中并未得到廣泛應(yīng)用。

          B.Fire-YOLO

          Fire-YOLO是一種單階段檢測(cè)模型。FireYOLO用于火災(zāi)探測(cè)的步驟如下所示。首先,網(wǎng)絡(luò)輸入火災(zāi)圖像分為S×S網(wǎng)格,和檢測(cè)在每個(gè)探測(cè)單元格:是否有火焰或者煙霧的中心目標(biāo)是發(fā)現(xiàn)落在S2的網(wǎng)格,網(wǎng)格負(fù)責(zé)檢測(cè)目標(biāo)被檢測(cè)出來(lái)。然后,每個(gè)網(wǎng)格預(yù)測(cè)3個(gè)邊界框,并給出這些邊界框的置信度。置信計(jì)算的定義如下。

          當(dāng)目標(biāo)落在網(wǎng)格中時(shí)Pγ = 1,否則Pγ = 0。IoU表示預(yù)測(cè)邊界框與真實(shí)邊界框的重合。置信度反映了網(wǎng)格中是否存在對(duì)象以及包含對(duì)象時(shí)預(yù)測(cè)邊界框的準(zhǔn)確性。當(dāng)多個(gè)包圍盒同時(shí)檢測(cè)到同一目標(biāo)時(shí),YOLO網(wǎng)絡(luò)將使用非最大抑制(Non-Maximum Suppression, NMS)方法選擇最佳包圍盒。利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)視頻中的火情和煙霧進(jìn)行分類(lèi)來(lái)檢測(cè)火情,具有良好的準(zhǔn)確率。文章提出的Fire-YOLO模型從深度、寬度和分辨率三個(gè)維度考慮,實(shí)現(xiàn)了更加均衡的網(wǎng)絡(luò)架構(gòu)。Fire-YOLO火災(zāi)探測(cè)步驟如下圖所示。將輸入圖像劃分為S×S網(wǎng)格,每個(gè)網(wǎng)格預(yù)測(cè)三個(gè)邊界框和置信度分?jǐn)?shù)。然后,使用非最大值抑制方法選擇最佳邊界框。

          Effentnet的提出為設(shè)計(jì)一種標(biāo)準(zhǔn)化的卷積神經(jīng)網(wǎng)絡(luò)尺度方法提供了可能。通過(guò)平衡網(wǎng)絡(luò)深度、寬度和分辨率這三個(gè)維度,可以在深度、寬度和分辨率這三個(gè)維度上實(shí)現(xiàn)更均衡的網(wǎng)絡(luò)架構(gòu),而無(wú)需復(fù)雜的人工調(diào)整。由于火災(zāi)數(shù)據(jù)集中大量的檢測(cè)對(duì)象為小火焰和煙霧,這種簡(jiǎn)單高效的復(fù)合尺度變換方法相對(duì)于其他的一維尺度變換方法可以進(jìn)一步提高火災(zāi)的檢測(cè)精度,并能充分節(jié)約計(jì)算資源。最終,文章使用的改進(jìn)后的Effentnet比精度相同的卷積神經(jīng)網(wǎng)絡(luò)速度更快,參數(shù)更少,模型更小,具有明顯的優(yōu)勢(shì)。提出的Fire-YOLO火災(zāi)探測(cè)模型網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。

          與YOLO-V3中特征提取網(wǎng)絡(luò)Darknet53中使用的殘塊不同,F(xiàn)ire-YOLO的特征提取網(wǎng)絡(luò)使用了一個(gè)移動(dòng)倒瓶頸卷積(MBConv),該卷積由深度卷積和擠壓-激活網(wǎng)絡(luò)(SENet)組成。MBConv塊的結(jié)構(gòu),最重要的是,一個(gè)1×1卷積內(nèi)核用于增加圖像的維數(shù),接下來(lái)通過(guò)切除卷積和SENet反過(guò)來(lái),最后用1×1卷積內(nèi)核來(lái)減少圖像的維數(shù)輸出。輸入圖像經(jīng)過(guò)特征提取網(wǎng)絡(luò)并上采樣后,得到對(duì)應(yīng)的特征圖,即圖像對(duì)應(yīng)的向量特征矩陣。為了獲得小目標(biāo)的高層特征信息,特征圖將經(jīng)過(guò)卷積集處理,卷積集由5個(gè)卷積層組成,卷積核交替為1 × 1和3 × 3。然后利用池化層將高維向量扁平化為一維向量,由激活函數(shù)進(jìn)行處理。將這些向量輸入到激活函數(shù)中,得到相應(yīng)的分類(lèi)結(jié)果,并選擇最有可能的結(jié)果作為特征提取網(wǎng)絡(luò)輸出。針對(duì)Darknet-53特征提取網(wǎng)絡(luò)在深度、寬度和分辨率三個(gè)維度平衡方面的性能缺陷,文章在文章提出的fire數(shù)據(jù)集上使用改進(jìn)的Effecentnet特征提取網(wǎng)絡(luò),彌補(bǔ)了Darknet-53在小目標(biāo)檢測(cè)方面的性能不足,提高了小目標(biāo)檢測(cè)的特征提取能力。對(duì)于輸入的小目標(biāo)圖像,增強(qiáng)了小目標(biāo)特征的學(xué)習(xí)能力,提高了小目標(biāo)特征提取網(wǎng)絡(luò)的性能。

          為了更好地處理小目標(biāo)圖像,F(xiàn)ire-YOLO模型首先將輸入圖像縮放到416 × 416像素,然后使用Effecentnet從圖像中提取特征。經(jīng)過(guò)多層的深度可分卷積、全局平均池化、特征壓縮和特征擴(kuò)展,對(duì)深度可分卷積學(xué)習(xí)到的特征映射進(jìn)行上采樣。通過(guò)特征金字塔處理得到不同尺度的預(yù)測(cè)框。文章提出的Fire-YOLO模型預(yù)測(cè)了13 × 13、26 × 26、52 × 52三種不同尺度的邊界盒。用于小目標(biāo)檢測(cè)的深度可分離卷積結(jié)合了逐條通道卷積和逐級(jí)點(diǎn)卷積兩種級(jí)別,提取不同粒度的小目標(biāo)特征。深度可分卷積的結(jié)構(gòu)如下圖所示。

          通過(guò)比較YOLO-V3中使用的Darknet-53特征提取網(wǎng)絡(luò)、快速R-CNN中使用的RPN目標(biāo)建議網(wǎng)絡(luò)和Fire YOLO中使用的深度可分離卷積,發(fā)現(xiàn)深度可分離卷積在計(jì)算復(fù)雜度方面具有優(yōu)異的性能。這種卷積結(jié)構(gòu)加快了模型的訓(xùn)練速度,提高了模型的檢測(cè)精度。在火災(zāi)探測(cè)模型的實(shí)際應(yīng)用中,可以加快網(wǎng)絡(luò)的處理速度,如果計(jì)算量較小,可以達(dá)到實(shí)時(shí)圖像處理的目的,從而實(shí)現(xiàn)火災(zāi)危險(xiǎn)的實(shí)時(shí)探測(cè)。同時(shí),該模型的硬件要求也降低了,以便于部署。

          SENet主要由兩個(gè)階段組成。第一個(gè)階段是擠壓階段。第二個(gè)階段是激發(fā)階段。在獲得擠壓的矢量后,使用完全連接的層,并預(yù)測(cè)每個(gè)通道的重要性。隨后,將其應(yīng)用于與初始特征映射相對(duì)應(yīng)的信道,以便小目標(biāo)的特征信息將被賦予更高的優(yōu)先級(jí)。SENet的結(jié)構(gòu)如下圖所示。

          在深度學(xué)習(xí)網(wǎng)絡(luò)模型中,激活函數(shù)是一個(gè)連續(xù)可導(dǎo)的非線性函數(shù),可以擬合非線性關(guān)系。激活函數(shù)及其導(dǎo)數(shù)的形式比較簡(jiǎn)單,可以加快網(wǎng)絡(luò)的學(xué)習(xí)速度。正確使用激活函數(shù)對(duì)模型的訓(xùn)練和模型對(duì)目標(biāo)預(yù)測(cè)的準(zhǔn)確性都具有重要意義?;罨瘮?shù)的導(dǎo)數(shù)不宜過(guò)大或過(guò)小,最好穩(wěn)定在1左右。文章提出的模型使用了Swish激活函數(shù),其表達(dá)式為:

          其中β是常數(shù)或可訓(xùn)練參數(shù)。Swish具有無(wú)上界、無(wú)下界、光滑、非單調(diào)的特點(diǎn)。Swish在深度模式上比ReLU要好。乙狀結(jié)腸的飽和函數(shù)很容易導(dǎo)致梯度的消失,借鑒ReLU的影響,當(dāng)它是非常大的,它將方法,但當(dāng)x→∞,函數(shù)的一般趨勢(shì)比ReLU ReLU相似但更復(fù)雜。Swish函數(shù)可以看作是一個(gè)介于線性函數(shù)和ReLU函數(shù)之間的平滑函數(shù)。

          C. 性能指標(biāo)

          文章利用訓(xùn)練后的Fire-YOLO模型對(duì)測(cè)試圖像進(jìn)行一系列實(shí)驗(yàn),驗(yàn)證算法的性能。評(píng)價(jià)神經(jīng)網(wǎng)絡(luò)模型有效性的相關(guān)指標(biāo)有:precision, recall, F1, AP值。在二元分類(lèi)問(wèn)題中,根據(jù)真類(lèi)別和預(yù)測(cè)類(lèi)別的組合,樣本可分為四種類(lèi)型:真陽(yáng)性(TP)、假陽(yáng)性(FP)、真陰性(TN)和假陰性(FN)。分類(lèi)結(jié)果的混淆矩陣如下表所示。

          其余指標(biāo)的公式根據(jù)混淆矩陣計(jì)算如下:

          5.實(shí)驗(yàn)分析

          本節(jié)介紹訓(xùn)練網(wǎng)絡(luò)的實(shí)驗(yàn)環(huán)境、數(shù)據(jù)集、模型效果評(píng)價(jià)指標(biāo)以及實(shí)驗(yàn)結(jié)果分析。通過(guò)一系列不同模型的對(duì)比實(shí)驗(yàn),分析了文章提出的新模型的優(yōu)越性。實(shí)驗(yàn)過(guò)程中使用了火數(shù)據(jù)集和小目標(biāo)數(shù)據(jù)集。通過(guò)fire數(shù)據(jù)集對(duì)目標(biāo)檢測(cè)網(wǎng)絡(luò)的準(zhǔn)確性進(jìn)行了驗(yàn)證和評(píng)估,在不同光照條件、類(lèi)火煙霧目標(biāo)等復(fù)雜環(huán)境下具有良好的檢測(cè)效果;在小目標(biāo)火力數(shù)據(jù)集上驗(yàn)證了該檢測(cè)方法。結(jié)果證實(shí),F(xiàn)ire-YOLO更容易檢測(cè)到較小的目標(biāo)。Fire-YOLO檢測(cè)模型接收416 × 416像素圖像作為輸入,由于GPU性能限制,批處理大小設(shè)為8,每個(gè)模型訓(xùn)練100 epoch,初始學(xué)習(xí)速率為10?3,50 epoch后除以10。

          A. 數(shù)據(jù)采集

          實(shí)驗(yàn)中使用的數(shù)據(jù)集是通過(guò)采集消防公益平臺(tái)上的消防圖片來(lái)構(gòu)建的。將fire數(shù)據(jù)集和小目標(biāo)數(shù)據(jù)集分別劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,以便在相同的實(shí)驗(yàn)設(shè)置下對(duì)不同的模型進(jìn)行訓(xùn)練。第一個(gè)數(shù)據(jù)集為火焰數(shù)據(jù)集,文章使用的圖像數(shù)據(jù)是公共網(wǎng)站上收集的火災(zāi)和煙霧圖像。這19819張?jiān)紙D像包括不同天氣和光線線下的火焰和煙霧。在對(duì)以上數(shù)據(jù)集圖像進(jìn)行編號(hào)后,使用LabelImg工具進(jìn)行手動(dòng)標(biāo)記,包括繪制邊框和分類(lèi)類(lèi)別。考慮到標(biāo)簽與數(shù)據(jù)的對(duì)應(yīng)關(guān)系,為保證數(shù)據(jù)集分布均勻,將數(shù)據(jù)集按70%、20%、10%的比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。為了保證實(shí)驗(yàn)環(huán)境相同,最終數(shù)據(jù)集以PASCAL VOC數(shù)據(jù)集格式存儲(chǔ)。為了防止神經(jīng)網(wǎng)絡(luò)中過(guò)擬合,對(duì)于像素區(qū)域不清晰的陽(yáng)性樣本不進(jìn)行標(biāo)記。完成的數(shù)據(jù)集如下表所示。

          第二個(gè)數(shù)據(jù)集為小目標(biāo)檢測(cè)數(shù)據(jù)集,文章自制了370張圖像的數(shù)據(jù)集。數(shù)據(jù)集的內(nèi)容都是包含小目標(biāo)的火焰和煙霧。通過(guò)將250 × 250像素的火焰圖像嵌入到1850 × 1850像素的圖像中,可以使被探測(cè)目標(biāo)在圖像中的面積非常小。最后使用LabelImg工具手工標(biāo)注小目標(biāo)。

          B. 算法的比較分析

          為了驗(yàn)證模型的性能,文章使用火焰和煙霧圖像作為訓(xùn)練集。將所提出的模型與YOLO-V3和Faster R-CNN檢測(cè)方法進(jìn)行了比較。三種模型在試驗(yàn)過(guò)程中的P-R曲線如圖5所示。

          準(zhǔn)確率、召回率、F1評(píng)分和mAP值如下表所示。

          基于以上結(jié)果,文章提出的Fire-YOLO在檢測(cè)性能上優(yōu)于YOLO-V3和Faster R-CNN。Fire-YOLO模型的精度為0.915,F1的值為0.73,mAP的值為0.802,高于其他兩個(gè)模型,體現(xiàn)了該模型的優(yōu)越性。同時(shí)Fire-YOLO降低了計(jì)算成本,節(jié)約了資源,更有利于社會(huì)的可持續(xù)發(fā)展。

          C. 小目標(biāo)的檢測(cè)性能

          在火災(zāi)探測(cè)過(guò)程中,由于攝像機(jī)離火源太遠(yuǎn),實(shí)際的火源位置在捕獲的圖像中只占很小的區(qū)域,這將導(dǎo)致網(wǎng)絡(luò)模型對(duì)火焰和煙霧的探測(cè)非常差。通過(guò)比較三種不同的目標(biāo)檢測(cè)模型在小目標(biāo)火災(zāi)數(shù)據(jù)集上的準(zhǔn)確率、召回率和mAP,可以得出文章提出的Fire-YOLO模型對(duì)非常小的目標(biāo)對(duì)象的檢測(cè)效率優(yōu)于Faster R-CNN和未改進(jìn)的YOLO-V3網(wǎng)絡(luò)。訓(xùn)練于射擊小目標(biāo)數(shù)據(jù)集的Fire-YOLO對(duì)待檢測(cè)小目標(biāo)圖像在深度、寬度和分辨率三個(gè)維度上進(jìn)行自適應(yīng)調(diào)整,增強(qiáng)了信息之間的交互作用。從而增強(qiáng)了Fire-YOLO提取小目標(biāo)特征的能力,提高了小目標(biāo)物體的檢測(cè)精度。下表給出了三種模型方法對(duì)小目標(biāo)射擊數(shù)據(jù)集評(píng)價(jià)指標(biāo)的具體結(jié)果。

          三種不同模型對(duì)小目標(biāo)火力數(shù)據(jù)集的檢測(cè)效率差異較大。文章提出的Fire-YOLO模型的準(zhǔn)確率和召回率比其他模型更顯著。準(zhǔn)確率可達(dá)75.48%,可實(shí)現(xiàn)對(duì)小目標(biāo)的檢測(cè)。森林火災(zāi)的早期及時(shí)發(fā)現(xiàn)可以大大減少對(duì)生態(tài)環(huán)境的破壞,減少火災(zāi)造成的經(jīng)濟(jì)損失,促進(jìn)生態(tài)環(huán)境的可持續(xù)發(fā)展。訓(xùn)練后Fire-YOLO網(wǎng)絡(luò)模型具有良好的火力目標(biāo)探測(cè)效率。文章使用Fire-YOLO模型來(lái)檢測(cè)非常小的火力目標(biāo),并將檢測(cè)結(jié)果圖形化顯示。較小的射擊目標(biāo)是小目標(biāo)射擊數(shù)據(jù)集中驗(yàn)證數(shù)據(jù)集中的所有圖像。對(duì)Fire-YOLO進(jìn)行了30多個(gè)驗(yàn)證插圖的驗(yàn)證,最終的圖像檢測(cè)結(jié)果如下圖所示。Fire-YOLO可以檢測(cè)到圖片中所有的火和煙,而YOLO-V3和Faster R-CNN在檢測(cè)結(jié)果中只能檢測(cè)到圖像中的部分目標(biāo)。

          D. 類(lèi)火和類(lèi)煙目標(biāo)的探測(cè)性能

          通過(guò)對(duì)比模型對(duì)豐富的類(lèi)火和類(lèi)煙圖像的檢測(cè)性能,可以發(fā)現(xiàn)Fire-YOLO對(duì)類(lèi)火和類(lèi)煙目標(biāo)具有更好的檢測(cè)效率。除了Fire-YOLO,其他模型分別將圖像中的光和云誤判為火和煙。顯然,F(xiàn)ire-YOLO對(duì)圖像紋理特征更加敏感,這是由于在特征提取網(wǎng)絡(luò)中結(jié)合了1 × 1卷積核和SE模塊。最后,提高了該模型在探測(cè)混淆目標(biāo)時(shí)的魯棒性。三種模型的類(lèi)火和類(lèi)煙檢測(cè)結(jié)果如下圖所示。在上述情況下,F(xiàn)ire-YOLO模型大大減少了誤檢的發(fā)生,減少了勞動(dòng)力消耗,節(jié)約了社會(huì)資源。

          E. 模型在不同自然光下的檢測(cè)性能

          本節(jié)通過(guò)對(duì)比不同自然光照條件下的多幅火災(zāi)圖像,測(cè)試Fire-YOLO在真實(shí)環(huán)境中的性能。在實(shí)際火災(zāi)探測(cè)現(xiàn)場(chǎng),會(huì)出現(xiàn)光線不足或光線很強(qiáng)的情況。在這種場(chǎng)景下,會(huì)對(duì)火災(zāi)探測(cè)產(chǎn)生一定的影響。使用大尺度f(wàn)eature map對(duì)模型進(jìn)行改進(jìn),識(shí)別小目標(biāo)對(duì)象,但在弱光條件下存在誤判。檢測(cè)結(jié)果如下圖所示。通過(guò)比較FasterR-CNN、YOLO-V3和Fire-YOLO模型的檢測(cè)性能,結(jié)果表明該模型在不同光照條件下具有良好的性能,對(duì)光照變化具有較強(qiáng)的魯棒性。Fire-YOLO模式的這些優(yōu)勢(shì)可以減少火災(zāi)對(duì)森林的危害,減少溫室效應(yīng)對(duì)人類(lèi)的影響,促進(jìn)可持續(xù)發(fā)展。

          文章提出的Fire- YOLO模型在小目標(biāo)、類(lèi)火、類(lèi)煙探測(cè)以及不同明度下的火災(zāi)探測(cè)等方面都取得了令人滿意的效果。在實(shí)際應(yīng)用中,該方法不僅具有實(shí)時(shí)性,而且具有良好的魯棒性。然而文章檢測(cè)算法仍然存在檢測(cè)精度低、檢測(cè)半遮擋目標(biāo)具有挑戰(zhàn)性的問(wèn)題。這可能是由于在實(shí)際環(huán)境中探測(cè)火焰時(shí),火災(zāi)的可變性和火災(zāi)蔓延的復(fù)雜性,造成了火災(zāi)檢查的困境,如下圖所示。

          6.結(jié)論

          文章結(jié)合火災(zāi)探測(cè)的effentnet方法,對(duì)YOLO-V3檢測(cè)模型進(jìn)行改進(jìn)。新提出的模型可用于探測(cè)火焰和煙霧。文章提出的Fire-YOLO模型使用effecentnet對(duì)輸入圖像進(jìn)行特征提取,促進(jìn)了模型的特征學(xué)習(xí),提高了網(wǎng)絡(luò)性能,優(yōu)化了YOLO-V3模型對(duì)極小目標(biāo)的檢測(cè)過(guò)程。實(shí)驗(yàn)結(jié)果表明,文章提出的Fire-YOLO模型比YOLO-V3模型性能更好,比FasterR-CNN性能更好。Fire-YOLO模型也能實(shí)時(shí)探測(cè)火力目標(biāo)。森林火災(zāi)的快速準(zhǔn)確檢測(cè)可以減少森林火災(zāi)造成的經(jīng)濟(jì)損失,提高森林及其生態(tài)環(huán)境的保護(hù),促進(jìn)資源的可持續(xù)發(fā)展。未來(lái)的工作將集中在應(yīng)用現(xiàn)有的模型來(lái)探測(cè)視頻中火災(zāi)的大小等實(shí)際任務(wù)。此外,對(duì)小目標(biāo)的檢測(cè)和模型進(jìn)行優(yōu)化,進(jìn)一步提高檢測(cè)模型的精度。

          好消息!?

          小白學(xué)視覺(jué)知識(shí)星球

          開(kāi)始面向外開(kāi)放啦??????




          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車(chē)道線檢測(cè)、車(chē)輛計(jì)數(shù)、添加眼線、車(chē)牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱(chēng)+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 39
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  韩国在线观看一区 | 亚洲.欧美.丝袜.中文.综合 | 亚洲色情免费电影 | 婷婷丁香人妻天天爽 | 自拍偷拍在线播放 |