<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          基于傳統(tǒng)方法與深度學(xué)習(xí)方法的圖片相似度算法比較

          共 14349字,需瀏覽 29分鐘

           ·

          2024-07-06 21:56

          作者:王華溢,黃要誠(chéng),蔡波等

          來(lái)源:《計(jì)算機(jī)系統(tǒng)應(yīng)用》期刊
          編輯:陳萍萍的公主@一點(diǎn)人工一點(diǎn)智能
          原文:https://www.c-s-a.org.cn/html/2024/2/9413.html

          摘要:
          圖片相似度比對(duì)作為計(jì)算機(jī)視覺(jué)的一個(gè)研究方向,具有廣泛的應(yīng)用前景,例如人臉識(shí)別、行人重識(shí)別和目標(biāo)跟蹤等。然而, 目前有關(guān)圖片相似度算法的總結(jié)和歸納相對(duì)較少, 并且將其應(yīng)用在實(shí)際工業(yè)生產(chǎn)中也存在挑戰(zhàn)。
          本文總結(jié)了傳統(tǒng)圖像處理算法和深度學(xué)習(xí)圖像處理算法在圖片相似度比對(duì)方面的原理與表現(xiàn),旨在選取最佳的算法用于藥品圖片相似度比對(duì)的場(chǎng)景中。
          在傳統(tǒng)圖像處理算法中, ORB算法在測(cè)試集上表現(xiàn)最佳,準(zhǔn)確率為93.09%;在深度學(xué)習(xí)算法中,采用改進(jìn)的孿生網(wǎng)絡(luò)結(jié)構(gòu)、發(fā)明了一種標(biāo)簽生成法、設(shè)置特定的數(shù)據(jù)增強(qiáng)策略并增加一個(gè)特征面分類(lèi)網(wǎng)絡(luò),從而提高了訓(xùn)練效率和準(zhǔn)確率。最終的測(cè)試結(jié)果顯示,改進(jìn)的孿生網(wǎng)絡(luò)表現(xiàn)最佳,可以實(shí)現(xiàn)98.56%的準(zhǔn)確率和27.80次/s的推理速度。
          綜上所述, 采用改進(jìn)的孿生網(wǎng)絡(luò)算法更適用于藥品圖片的快速比對(duì), 并且有望在未來(lái)的醫(yī)藥行業(yè)中得到廣泛應(yīng)用。
          引言
          隨著數(shù)字圖像處理技術(shù)的不斷發(fā)展和應(yīng)用,圖片相似度算法在計(jì)算機(jī)視覺(jué)、圖像檢索等領(lǐng)域中扮演著重要的角色。截至目前, 許多相關(guān)文獻(xiàn)將一些圖片相似度算法用于實(shí)際應(yīng)用中, 例如人臉識(shí)別[1]、簽名比對(duì)[2]、車(chē)牌比對(duì)[3]、目標(biāo)跟蹤[4]、行人重識(shí)別[5]等, 然而對(duì)于傳統(tǒng)圖片相似度比對(duì)算法與基于深度學(xué)習(xí)的圖片相似度比對(duì)算法的概括與總結(jié),很少有文獻(xiàn)提及。為此, 本文歸納與總結(jié)了一些傳統(tǒng)圖片相似度比對(duì)算法與基于深度學(xué)習(xí)的圖片相似度比對(duì)算法,并將這些算法用于藥品圖片相似度比對(duì)這一實(shí)際應(yīng)用中。 表1列舉了本文要對(duì)比的一些圖片相似度比對(duì)算法。
          表1中, 直方圖法、余弦相似度法、全局哈希法、SIFT與ORB算法屬于傳統(tǒng)圖像處理范疇, 孿生網(wǎng)絡(luò)是基于深度學(xué)習(xí)的圖像處理算法。
          表1 常用圖片相似度比對(duì)算法
          直方圖法通過(guò)統(tǒng)計(jì)圖像中不同像素點(diǎn)的個(gè)數(shù),得出像素點(diǎn)分布直方圖,進(jìn)而使用幾種相關(guān)性計(jì)算方法計(jì)算兩張圖片像素點(diǎn)分布直方圖之間的相關(guān)性,最后根據(jù)計(jì)算結(jié)果判斷兩張圖片是否相似;余弦相似度法常用于文本相似度或圖片相似度的計(jì)算。在應(yīng)用余弦相似度比較兩張圖片是否相似之前,需先將圖片轉(zhuǎn)換為向量形式,之后, 通過(guò)計(jì)算兩向量的余弦相似度來(lái)判斷兩張圖片是否相似;哈希法分為全局哈希法和局部哈希法。其中, 全局哈希法包括均值哈希(AHash)、感知(PHash)和差值哈希(DHash)算法, 基本原理是將圖像轉(zhuǎn)換為一個(gè)固定長(zhǎng)度的二進(jìn)制編碼, 通過(guò)計(jì)算兩編碼的距離判斷兩張圖片是否相似;局部哈希法包括SIFT (scale-invariant feature transform)、ORB (oriented FAST and rotated BRIEF)算法,基本原理是找到并量化圖像中的特征點(diǎn),通過(guò)計(jì)算兩張圖片量化特征點(diǎn)間的距離判斷是否相似;孿生網(wǎng)絡(luò)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中包含兩個(gè)完全相同的子網(wǎng)絡(luò),也被稱(chēng)為“孿生子網(wǎng)絡(luò)”。這兩個(gè)子網(wǎng)絡(luò)具有相同的結(jié)構(gòu)和參數(shù),并且共享權(quán)重, 但是在訓(xùn)練過(guò)程中它們被獨(dú)立地處理不同的輸入數(shù)據(jù)。其常被用于比較兩個(gè)輸入數(shù)據(jù)之間的相似度或距離, 在圖像比對(duì)、文本匹配、人臉識(shí)別等領(lǐng)域被廣泛應(yīng)用。 表2列出了傳統(tǒng)圖像處理算法與深度學(xué)習(xí)圖像處理方法的優(yōu)缺點(diǎn)。
          表2 傳統(tǒng)方法與深度學(xué)習(xí)方法的優(yōu)缺點(diǎn)
          表2中, 傳統(tǒng)圖像處理方法經(jīng)過(guò)長(zhǎng)時(shí)間的發(fā)展和研究, 其算法和模型已經(jīng)非常成熟, 具有相對(duì)較高的精度;此外, 設(shè)計(jì)出的算法會(huì)利用專(zhuān)家的先驗(yàn)知識(shí), 使算法的結(jié)果更加可解釋?zhuān)?并有利于深入研究算法的性能。相較于深度學(xué)習(xí)方法, 傳統(tǒng)方法的算法和模型規(guī)模較小, 需要的計(jì)算資源和時(shí)間較少。然而, 對(duì)于數(shù)據(jù)量較大、復(fù)雜度高的任務(wù), 傳統(tǒng)方法的效率和精度會(huì)有所下降, 其泛化能力不足, 而且對(duì)于一些復(fù)雜的圖像特征提取效果也不佳。
          深度學(xué)習(xí)方法能夠從原始數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取出高階特征,從而處理更加復(fù)雜、抽象的問(wèn)題,減少了人工特征提取的繁瑣過(guò)程。同時(shí), 其還具有良好的可擴(kuò)展性和可伸縮性, 也可以實(shí)現(xiàn)模型的并行化和加速, 具有較強(qiáng)的泛化能力。然而, 深度學(xué)習(xí)模型的結(jié)構(gòu)和參數(shù)規(guī)模較大, 其內(nèi)部的處理機(jī)制比較復(fù)雜, 導(dǎo)致其結(jié)果往往難以被解釋和理解。此外, 對(duì)于數(shù)據(jù)量較小的任務(wù), 深度學(xué)習(xí)算法往往需要更多的數(shù)據(jù)才能達(dá)到較好的效果, 且存在過(guò)擬合的風(fēng)險(xiǎn)。
          綜上所述, 表1中的傳統(tǒng)處理方法普遍存在計(jì)算速度偏高、復(fù)雜度與泛化能力偏低的特點(diǎn),基于深度學(xué)習(xí)的圖像處理算法普遍存在計(jì)算速度偏低、復(fù)雜度與泛化能力偏高的情況。然而, 在實(shí)際應(yīng)用中, 通常利用GPU加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理, 因此使用孿生網(wǎng)絡(luò)進(jìn)行推理的速度與傳統(tǒng)方法進(jìn)行推理的速度旗鼓相當(dāng)。
          本文主要貢獻(xiàn)包括以下4個(gè)方面。
          (1)我們首先比較了一系列圖像相似度比對(duì)算法在藥品圖片相似度比對(duì)任務(wù)中的表現(xiàn)。其次, 我們改進(jìn)了效果最好的孿生網(wǎng)絡(luò)算法, 進(jìn)一步提升了其性能。實(shí)驗(yàn)結(jié)果顯示, 該算法的推理速度約為38次/s, 準(zhǔn)確率達(dá)到了98.5%。最終, 該算法成功應(yīng)用于該任務(wù)。
          (2)為解決藥品圖片特征點(diǎn)少所造成相似度匹配失效的情況, 本文在圖片相似度比對(duì)前先判斷圖片中特征點(diǎn)數(shù)量是否達(dá)到比對(duì)標(biāo)準(zhǔn)。我們?cè)O(shè)計(jì)了一套準(zhǔn)則來(lái)制作標(biāo)簽,使用ResNet分類(lèi)網(wǎng)絡(luò),最終在測(cè)試集上的分類(lèi)準(zhǔn)確率達(dá)95.51%。
          (3)鑒于孿生網(wǎng)絡(luò)需要成對(duì)的輸入, 本文設(shè)計(jì)出一種標(biāo)簽制作方法, 在訓(xùn)練期間既能保證數(shù)據(jù)在GPU與CPU之間的傳輸速率, 又能保證正負(fù)樣本均衡。
          (4)鑒于樣本圖像受拍攝現(xiàn)場(chǎng)光照以及藥盒顏色的影響, 本文設(shè)計(jì)了一系列數(shù)據(jù)增強(qiáng)策略來(lái)模擬現(xiàn)實(shí)情況, 增強(qiáng)孿生網(wǎng)絡(luò)的泛化能力。
          相關(guān)工作
          直方圖法的起源可以追溯到19世紀(jì)初,當(dāng)時(shí)英國(guó)的數(shù)學(xué)家皮爾遜提出了統(tǒng)計(jì)學(xué)中的頻數(shù)分布表,為后來(lái)直方圖法的發(fā)展提供了基礎(chǔ)。在圖像相似度比對(duì)領(lǐng)域,直方圖法也得到了廣泛的應(yīng)用。王寧邦等人[11]利用直方圖匹配法, 使用巴氏系數(shù)(Bhattacharyya)判斷兩張資產(chǎn)圖片的直方圖是否相似, 進(jìn)而實(shí)現(xiàn)資產(chǎn)圖片的核對(duì);薛向陽(yáng)等人[12]提出了一種基于聚類(lèi)的顏色直方圖匹配法, 用于檢索自然風(fēng)格相近的圖像;蘆俊等人[13]使用直方圖法并結(jié)合差分進(jìn)化算法進(jìn)行目標(biāo)圖片與模板圖片的匹配;鄒承明等人[14]使用直方圖法與灰度共生矩陣法結(jié)合的方式進(jìn)行圖片匹配;陳會(huì)鴿等人[15]使用目標(biāo)圖片直方圖與模板圖片直方圖作差的方式進(jìn)行中央空調(diào)風(fēng)管附塵度檢測(cè);丁建平等人[16]使用相關(guān)系數(shù)計(jì)算不同視頻幀中目標(biāo)圖像灰度直方圖的相關(guān)性, 從而進(jìn)行鐵路目標(biāo)追蹤。
          在18世紀(jì),瑞士數(shù)學(xué)家歐拉在研究數(shù)學(xué)向量時(shí)首次提出了余弦相似度的概念。后來(lái)余弦相似度法也被廣泛應(yīng)用于圖像處理、文本處理等領(lǐng)域。李陽(yáng)齊等人[17]將音樂(lè)屬性轉(zhuǎn)化為特征向量, 使用余弦相似度計(jì)算不同音樂(lè)間的相似性;劉冰等人[18]使用余弦相似度進(jìn)行當(dāng)前位置強(qiáng)度向量與定位服務(wù)器數(shù)據(jù)庫(kù)中的位置強(qiáng)度向量比對(duì),從而定位當(dāng)前位置;魏瑋等人[19]利用余弦相似度更正SIFT算法誤匹配的人臉特征, 進(jìn)而提高人臉匹配的準(zhǔn)確度。
          哈希法起源于1992年,當(dāng)時(shí)NASA的天文學(xué)家發(fā)明了一種叫做“星形哈希 (star-hash)”算法[20], 用于識(shí)別并匹配天文圖像。徐賢局等人[21]使用AHash得到無(wú)疵點(diǎn)織物和有疵點(diǎn)織物的圖片向量, 使用漢明距離計(jì)算差異, 定位疵點(diǎn)位置;趙杰等人[22]利用PHash得到不同圖片區(qū)域的向量, 通過(guò)計(jì)算相鄰圖片塊向量的相似性及位移矢量檢測(cè)圖像篡改區(qū)域;郭瑋[23]利用分塊圖像的PHash進(jìn)行不同區(qū)域類(lèi)型遙感圖像的匹配;吳子岳等人[24]使用拉普拉斯變換與DHash結(jié)合的方式得到不同視頻幀目標(biāo)區(qū)域的向量, 利用漢明距離計(jì)算其差異, 從而實(shí)現(xiàn)目標(biāo)跟蹤。
          圖像間的相似度比對(duì)可以間接轉(zhuǎn)化為特征點(diǎn)間的相似度比對(duì)。特征檢測(cè)算法起源于20世紀(jì)六七十年代,當(dāng)時(shí)的研究主要是基于手工設(shè)計(jì)的濾波器和邊緣檢測(cè)算子,例如Sobel算子[25]、Laplacian算子[26]等, 用于尋找圖像中的邊緣和角點(diǎn)等特征。1996年, Lowe等人[9]提出SIFT算法。于明等人[27]使用SIFT算法進(jìn)行充電孔的識(shí)別與定位;韓宇等人[28]使用改進(jìn)的SIFT算法實(shí)現(xiàn)無(wú)人機(jī)航拍圖片的快速匹配;任晶秋等人[29]使用Harris與SIFT結(jié)合的方式進(jìn)行圖片的快速匹配。
          ORB是另一種特征點(diǎn)檢測(cè)與描述算法, 由Rublee等人[10]于2011年提出。其設(shè)計(jì)在保持速度優(yōu)勢(shì)的同時(shí)提高SIFT特征算法的精度, 以適應(yīng)嵌入式設(shè)備等計(jì)算能力有限的場(chǎng)景。楊金玲等人[30]使用改進(jìn)的ORB算法進(jìn)行近紅外和可見(jiàn)光圖像的特征點(diǎn)檢測(cè)與匹配;姚三坤等人[31]使用改進(jìn)的ORB算法進(jìn)行視頻不同幀場(chǎng)景的匹配。
          孿生網(wǎng)絡(luò)最初應(yīng)用于簽名識(shí)別和文本相似度計(jì)算。該模型是由Bromley等人[2]在1993年提出, 它包含兩個(gè)完全相同的子網(wǎng)絡(luò), 子網(wǎng)絡(luò)間共享權(quán)重。訓(xùn)練時(shí)并行處理兩個(gè)輸入序列, 對(duì)輸出進(jìn)行比較并計(jì)算損失。2006年, Hadsell等人[32]提出了一種計(jì)算孿生網(wǎng)絡(luò)損失的方法:Contrastive Loss,該方法利用歐氏距離來(lái)度量?jī)蓚€(gè)樣本之間的相似度;火善棟[33]使用孿生網(wǎng)絡(luò)進(jìn)行人臉識(shí)別, 訓(xùn)練時(shí)使用Contrastive Loss;吳正文[34]使用U-Net類(lèi)型的孿生網(wǎng)絡(luò), 并結(jié)合注意力機(jī)制進(jìn)行遙感建筑物變化檢測(cè)。
          以上文獻(xiàn)只是針對(duì)某個(gè)任務(wù),選取一種或兩種圖片相似度比對(duì)算法進(jìn)行分析,為此, 本文將使用上述提及的所有算法用于藥品圖片相似度比對(duì), 并從中選取最佳算法用于實(shí)際工業(yè)生產(chǎn)中。
          圖片相似度算法對(duì)比研究
          2.1 直方圖法
          直方圖法統(tǒng)計(jì)圖片的顏色和灰度分布情況。計(jì)算直方圖時(shí), 將像素值范圍劃分成若干區(qū)間, 每個(gè)區(qū)間內(nèi)像素點(diǎn)數(shù)量即為該區(qū)間的統(tǒng)計(jì)量。
          本文實(shí)驗(yàn)中,區(qū)間范圍為0–255,每個(gè)像素值代表一個(gè)區(qū)間。 圖1展示了兩張樣例圖片, 圖2展示了圖1中兩張圖片的像素分布直方圖。
          圖1 兩張樣例圖片
          圖2 兩張圖片的像素分布直方圖
          計(jì)算像素分布直方圖的相關(guān)性方法有Correlation、Chi-Square、Intersection、Bhattacharyya distance。
          Correlation計(jì)算公式見(jiàn)式(1):
          其中,  , N為直方圖中bin的個(gè)數(shù)(即組數(shù))。計(jì)算結(jié)果最大值為1,最小值為?1,取絕對(duì)值后, 值越大, 相關(guān)度越高。
          Chi-Square計(jì)算公式見(jiàn)式(2):
          計(jì)算結(jié)果越小,相關(guān)度越高, 最小值為0, 最大值無(wú)上界。
          Intersection計(jì)算公式見(jiàn)式(3):
          計(jì)算結(jié)果越大,相關(guān)度越高, 最大值無(wú)上界, 最小值為0。
          Bhattacharyya distance計(jì)算公式見(jiàn)式(4):
          計(jì)算結(jié)果越小,相關(guān)度越高, 最小值為0, 最大值為1. 表3列出了圖1的相關(guān)性計(jì)算結(jié)果。
          表3 4種度量計(jì)算結(jié)果
          表3中, 4種度量計(jì)算結(jié)果與實(shí)際幾乎相反, 且易受外界因素影響, 例如亮度、藥盒顏色等, 因此不能作為圖片相似度比對(duì)的最佳算法, 在實(shí)驗(yàn)部分會(huì)進(jìn)一步說(shuō)明。
          2.2 余弦相似度法
          余弦相似度是一種常用的圖片相似度比對(duì)法。在預(yù)處理階段, 將兩張圖片調(diào)整為同樣大小、灰度化圖片。此步的目的是獲得相同規(guī)模的圖片向量, 方便計(jì)算。利用得到的兩個(gè)圖片向量A, B, 代入式(5)中, 得到結(jié)果。
          結(jié)果在[?1,1]之間,值接近1表示兩個(gè)向量相似、接近?1表示兩個(gè)向量不相似。本文為余弦相似度設(shè)置一個(gè)合適的閾值,例如 0.8,表示當(dāng)兩張圖片的余弦相似度大于等于0.8 時(shí),判定兩張圖片相似。以圖1為例,兩張圖片的余弦相似度為0.80183,可以判定其相似。
          2.3 全局哈希法
          哈希法通過(guò)將圖片轉(zhuǎn)換為一系列數(shù)字表示,從而快速比較兩張圖片的相似度。全局哈希法將整張圖片作為一個(gè)整體進(jìn)行哈希處理,得到一組唯一的哈希碼。全局哈希法包含:AHash、PHash、DHash。
          AHash計(jì)算過(guò)程如下。
          (1)縮小圖片至8×8大小。
          (2)灰度化縮小后的圖片,計(jì)算出所有像素的平均灰度值P^。
          (3)根據(jù)式(6)比較每個(gè)像素的灰度值P(i,j)與平均灰度值P^,得到由0,1組成的64位哈希碼。
          PHash在A(yíng)Hash的基礎(chǔ)上增加DCT (discrete cosine transform),進(jìn)而獲取圖片低頻信息,計(jì)算過(guò)程如下。
          (1)將圖片縮小至32×32大小并進(jìn)行灰度化處理。
          (2)進(jìn)行DCT變換, 取前8×8個(gè)DCT系數(shù), 計(jì)算其平均值
          (3)根據(jù)式(7)比較每個(gè)DCT系數(shù)dct(i,j)與DCT系數(shù)的平均值,得到由0、1組成的64位哈希碼。
          DHash計(jì)算過(guò)程如下。
          (1)將圖片縮小到9×8并灰度化,得到P(i,j)。
          (2)根據(jù)式(8)比較相鄰像素之間的差異,得到由0、1組成的64位哈希碼。
          得到兩張圖片的哈希碼后,統(tǒng)計(jì)對(duì)應(yīng)位置元素相同的個(gè)數(shù)并設(shè)定閾值,如果相同的個(gè)數(shù)大于等于閾值,則判定兩張圖片相似。以圖1為例,表4展示了3種全局哈希法的計(jì)算結(jié)果。
          表4 3種哈希計(jì)算結(jié)果
          表4中,3種方法的計(jì)算結(jié)果約占哈希碼總長(zhǎng)度的一半, 后續(xù)的實(shí)驗(yàn)會(huì)說(shuō)明這3種算法并不適用。
          2.4 SIFT算法
          SIFT算法是一種尺度不變的特征轉(zhuǎn)換算法, 能夠定位圖像中的局部性特征, 在尺度空間中尋找極值點(diǎn), 并提取出其位置、尺度、旋轉(zhuǎn)不變量。
          SIFT算法流程分為3步:尺度空間檢測(cè)和極值點(diǎn)定位、特征點(diǎn)方向賦值、特征點(diǎn)描述子生成。
          2.4.1 尺度空間檢測(cè)和極值點(diǎn)定位
          為使特征點(diǎn)具備尺度不變性, SIFT算法使用高斯核函數(shù)G(x,y,σ)對(duì)圖像I(x,y)進(jìn)行不同尺度的濾波(卷積運(yùn)算), 得到一系列不同尺度的尺度空間L(x,y,σ),見(jiàn)式(9)、式(10)。
          之后使用高斯差分對(duì)其中的尺度空間進(jìn)行極值點(diǎn)定位。高斯差分尺度空間的計(jì)算見(jiàn)式(11)。
          圖3展示了高斯差分過(guò)程,SIFT算法取4層差分空間的中間兩層做極值點(diǎn)檢測(cè),見(jiàn)圖4。每一個(gè)采樣點(diǎn)與其相鄰的26個(gè)點(diǎn)進(jìn)行比較,如果采樣點(diǎn)的值是相鄰點(diǎn)中的最大值或最小值,則被視為極值點(diǎn)。
          圖3 高斯差分
          圖4 極值點(diǎn)檢測(cè)
          2.4.2 特征點(diǎn)方向賦值
          為使特征點(diǎn)具備旋轉(zhuǎn)不變性,需要為每一個(gè)特征點(diǎn)分配一個(gè)基準(zhǔn)方向。對(duì)于某尺度下的圖像L(x,y),用像素插值估計(jì)圖像梯度幅值m(x,y)與方向θ(x,y),見(jiàn)式(12)。之后統(tǒng)計(jì)以特征點(diǎn)3σ′=3×1.5σ為中心范圍內(nèi)的像素梯度幅值及方向。
          利用梯度直方圖統(tǒng)計(jì)法,將得到的梯度方向劃分成36個(gè)區(qū)域(每區(qū)域10°),取直方圖峰值的方向定為主方向。
          2.4.3 特征點(diǎn)描述子生成
          此時(shí)每一個(gè)特征點(diǎn)都包含位置、尺度與方向信息,根據(jù)這些信息計(jì)算特征點(diǎn)的描述子。式(13)劃定以關(guān)鍵點(diǎn)為中心的距離范圍,默認(rèn)d=4。
          圖5展示d=2時(shí),關(guān)鍵點(diǎn)梯度直方圖統(tǒng)計(jì)結(jié)果,每個(gè)區(qū)域45°,一個(gè)關(guān)鍵點(diǎn)可由d×d×8位向量表示。實(shí)際每個(gè)關(guān)鍵點(diǎn)會(huì)產(chǎn)生128位特征描述子。
          圖5 關(guān)鍵點(diǎn)描述子的生成
          特征匹配時(shí),使用曼哈頓距離度量?jī)蓮垐D片特征點(diǎn)描述子之間的距離,并采用Brute-Force算法找到最接近的特征點(diǎn)。設(shè)定閾值, 當(dāng)成功匹配的特征點(diǎn)對(duì)數(shù)量超過(guò)閾值時(shí), 認(rèn)定兩張圖片相似。在圖6中, 使用SIFT算法對(duì)圖1中的特征點(diǎn)進(jìn)行匹配, 總共得到240對(duì)相似關(guān)鍵點(diǎn)(兩張圖片分別檢測(cè)到391、368個(gè)關(guān)鍵點(diǎn))。
          圖6 SIFT算法匹配結(jié)果
          2.5 ORB算法
          ORB算法是一種快速檢測(cè)圖像上的關(guān)鍵點(diǎn)并創(chuàng)建其特征向量的算法, 由oriented FAST特征檢測(cè)[35]與rotated BRIEF特征描述算法[36]組成。為滿(mǎn)足縮放不變性, 首先構(gòu)建圖像金字塔, 見(jiàn)式(14)。之后對(duì)每一層圖像進(jìn)行關(guān)鍵點(diǎn)檢測(cè)與描述。
          其中,第1行表示第s層的縮放尺度,第2行表示第s層的圖像尺寸,默認(rèn)σ0=1.2。
          2.5.1 Oriented FAST特征檢測(cè)算法步驟
          1)對(duì)每一個(gè)像素點(diǎn), 確定其周?chē)鶵×R范圍內(nèi)的邊緣像素點(diǎn), 若其中有連續(xù)K個(gè)像素值與中心點(diǎn)像素值相差大于閾值T,則該中心點(diǎn)視為關(guān)鍵點(diǎn)。
          2使用Harris角點(diǎn)[37]響應(yīng)函數(shù)解決特征點(diǎn)分布密集的情況:計(jì)算每個(gè)特征點(diǎn)的響應(yīng)值V, 選取前N個(gè)V值較大的關(guān)鍵點(diǎn)作為最終的關(guān)鍵點(diǎn)。
          3使用強(qiáng)度質(zhì)心法(intensity centroid)[38]計(jì)算特征點(diǎn)的方向, 強(qiáng)度質(zhì)心法假設(shè)角的強(qiáng)度偏離其中心。
          式(15)計(jì)算特征點(diǎn)所在圖像塊的矩量,I(x,y)為圖像灰度值,x,y∈[?r,r],r為以特征點(diǎn)為中心的圖像塊半徑,通過(guò)式(16)計(jì)算出灰度值質(zhì)心,通過(guò)式(17)計(jì)算特征點(diǎn)與灰度值質(zhì)心之間的方向θ,并將其作為主方向。
          2.5.2 Rotated BRIEF特征描述算法
          1在原始BRIEF特征描述算法中,以特征點(diǎn)為中心,S×S的范圍內(nèi),隨機(jī)選取N組點(diǎn)對(duì),由式(18)、式(19)計(jì)算出關(guān)鍵點(diǎn)的二進(jìn)制特征描述。
          其中, p(x)表示圖像區(qū)塊p在點(diǎn)x的灰度值, fn(p)表示特征點(diǎn)的n位向量表示。由于原始BRIEF對(duì)噪聲敏感,在計(jì)算式(19)前需進(jìn)行平滑處理:在31×31的圖像塊上使用5×5的子窗口平滑圖像。
          2鑒于圖像平面旋轉(zhuǎn)后造成匹配效果差的現(xiàn)象,提出steered BRIEF:根據(jù)特征點(diǎn)的旋轉(zhuǎn)方向調(diào)整BRIEF的方向。具體地,在特征點(diǎn)S×S (默認(rèn)S=31)范圍內(nèi)選取n對(duì)點(diǎn)集,根據(jù)角度θ與旋轉(zhuǎn)矩陣Rθ,得到旋轉(zhuǎn)后的坐標(biāo),見(jiàn)式(20),之后利用式(21)得到旋轉(zhuǎn)后的特征點(diǎn)描述,最后使用貪婪搜索選取256個(gè)低相關(guān)性的像素塊對(duì),作為最終的特征點(diǎn)描述子。
          特征匹配時(shí),以?xún)煞鶊D片特征點(diǎn)描述子間的漢明距離為度量,使用Brute-Force算法匹配距離兩幅圖最近的特征點(diǎn)。設(shè)定閾值, 當(dāng)成功匹配的特征點(diǎn)對(duì)數(shù)量超過(guò)閾值時(shí), 認(rèn)定兩張圖片相似。在圖7中, 使用ORB算法對(duì)圖1中的特征點(diǎn)進(jìn)行匹配, 總共得到277對(duì)相似關(guān)鍵點(diǎn)(兩張圖片分別檢測(cè)到410、387個(gè)關(guān)鍵點(diǎn))。
          圖7 ORB算法匹配結(jié)果
          2.6 孿生網(wǎng)絡(luò)
          孿生網(wǎng)絡(luò)是一種深度學(xué)習(xí)模型,該模型結(jié)構(gòu)由兩個(gè)相同的子網(wǎng)絡(luò)組成,每個(gè)子網(wǎng)絡(luò)都有相同的層次結(jié)構(gòu)和參數(shù)。這兩個(gè)子網(wǎng)絡(luò)并行地接受輸入,并通過(guò)共享權(quán)重來(lái)提取輸入樣本的特征表示。這種共享權(quán)重的設(shè)計(jì)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到一種通用的特征表示,從而對(duì)輸入樣本進(jìn)行比較和匹配。經(jīng)典孿生網(wǎng)絡(luò)結(jié)構(gòu)見(jiàn)圖8
          圖8 經(jīng)典孿生網(wǎng)絡(luò)結(jié)構(gòu)
          圖8中, 對(duì)于成對(duì)的輸入圖片, 孿生網(wǎng)絡(luò)將每個(gè)樣本通過(guò)共享權(quán)重的Backbone (子網(wǎng)絡(luò))進(jìn)行前向傳播,提取得到對(duì)應(yīng)的圖片特征向量。然后, 將兩特征向量維度從多維變換成一維(Flatten操作),在訓(xùn)練時(shí)使用對(duì)比損失(式(22)),測(cè)試時(shí)根據(jù)計(jì)算得到的歐氏距離(式(23)),設(shè)定閾值判定兩張圖片是否相似。
          式(22)中,兩樣本相同則Y=1,否則Y=0,默認(rèn)m=2. 表示如果兩樣本的距離達(dá)到臨界值,則斷定兩樣本不同,網(wǎng)絡(luò)區(qū)分正確, 如果兩樣本相似, 則只考慮樣本間的距離作為損失。
          另外,本文提出了一種改進(jìn)的孿生網(wǎng)絡(luò)結(jié)構(gòu)(見(jiàn)圖9),用來(lái)進(jìn)一步提升識(shí)別準(zhǔn)確率。
          圖9 改進(jìn)的孿生網(wǎng)絡(luò)結(jié)構(gòu)
          類(lèi)似地,圖片經(jīng)過(guò)Backbone提取成對(duì)的特征向量后,對(duì)成對(duì)向量作差并取絕對(duì)值,然后使用全連接網(wǎng)絡(luò)進(jìn)一步學(xué)習(xí)差異向量,訓(xùn)練時(shí)損失計(jì)算使用二分類(lèi)交叉熵?fù)p失,見(jiàn)式(24):
          其中, N為樣本數(shù), 表示樣本i的標(biāo)簽, 表示樣本i預(yù)測(cè)為正類(lèi)的概率。測(cè)試時(shí)全連接網(wǎng)絡(luò)的輸出經(jīng)過(guò)Sigmoid函數(shù)(將結(jié)果約束在[0,1]范圍內(nèi)),并設(shè)定閾值判定兩張圖片是否相似。
          相比經(jīng)典孿生網(wǎng)絡(luò)結(jié)構(gòu),改進(jìn)的孿生網(wǎng)絡(luò)具有以下優(yōu)勢(shì)。
          (1)充分捕捉輸入樣本間的差異信息。通過(guò)將向量作差(距離度量)得到差異向量, 其中每個(gè)維度表示對(duì)應(yīng)特征的差異。差異向量包含豐富的信息, 因?yàn)樗鼈兎从沉溯斎霕颖驹诟鱾€(gè)特征上的差異程度。傳入全連接層后, 網(wǎng)絡(luò)可以通過(guò)學(xué)習(xí)適當(dāng)?shù)臋?quán)重和偏差來(lái)進(jìn)一步提取和組合這些差異特征,從而計(jì)算出更具區(qū)分性的Loss。然而傳統(tǒng)方案中僅僅使用距離度量作為L(zhǎng)oss計(jì)算,無(wú)法充分利用向量中的細(xì)微差異,從而限制了模型的表達(dá)能力。
          (2)訓(xùn)練穩(wěn)定性高。在傳統(tǒng)方案中,對(duì)比損失在訓(xùn)練過(guò)程中易出現(xiàn)Loss=0的情況(Y=0,m? ?0)。在訓(xùn)練初期,這會(huì)導(dǎo)致Loss值波動(dòng)明顯(時(shí)而為0,時(shí)而很大)。相反,改進(jìn)的孿生網(wǎng)絡(luò)結(jié)構(gòu)使用交叉熵?fù)p失函數(shù),在計(jì)算Loss前先計(jì)算Softmax,為模型的預(yù)測(cè)結(jié)果提供概率分布,不會(huì)出現(xiàn)某類(lèi)別概率完全為0的情況,這表明Loss≠0,也意味著在訓(xùn)練初期Loss波動(dòng)幅度相對(duì)較小,訓(xùn)練過(guò)程更穩(wěn)定。
          鑒于實(shí)時(shí)性的要求, Backbone選用輕量級(jí)的VGG16和ResNet18卷積網(wǎng)絡(luò)。VGG16包含5個(gè)卷積模塊, 1個(gè)全連接模塊。每個(gè)卷積模塊由多層3×3卷積、ReLU激活函數(shù)、最大池化層組成,全連接模塊由3個(gè)全連接層組成;ResNet18包含5個(gè)卷積模塊、1個(gè)均值池化層和1個(gè)全連接層。第1個(gè)卷積模塊由7×7卷積組成,其余4個(gè)卷積模塊由多層3×3卷積組成,每個(gè)模塊中包含殘差連接。
          特征面分類(lèi)策略
          3.1 存在問(wèn)題
          圖10,數(shù)據(jù)集中存在藥盒面是完全空白、大部分空白或因光照及藥盒顏色導(dǎo)致圖片模糊不清的情況,這些情況會(huì)使特征檢測(cè)與提取算法失效。
          圖10 特征少的藥品圖片樣例
          3.2 問(wèn)題解決
          為解決上述問(wèn)題,在進(jìn)行特征提取前,設(shè)計(jì)一個(gè)分類(lèi)網(wǎng)絡(luò)判斷藥盒面是否有較多的特征。選用ResNet18作為二分類(lèi)網(wǎng)絡(luò),訓(xùn)練時(shí)采用二分類(lèi)交叉熵?fù)p失(式(24)),最終分類(lèi)網(wǎng)絡(luò)在測(cè)試集的準(zhǔn)確率達(dá)95.51%,推理速度達(dá)77.10張/s。
          實(shí)驗(yàn)
          由于傳統(tǒng)的特征檢測(cè)方法是根據(jù)圖像本身固有屬性進(jìn)行的(例如像素值的比較、檢測(cè)圖像的角點(diǎn)),不需要利用大量數(shù)據(jù)去學(xué)習(xí)、提取圖像的特征,所以對(duì)于傳統(tǒng)方法的圖片相似度比對(duì)只在測(cè)試集中展示其準(zhǔn)確率。
          4.1 數(shù)據(jù)集與標(biāo)簽
          數(shù)據(jù)集含有153種藥品,每種藥品拍攝多張藥盒4–6個(gè)面的圖片并放入對(duì)應(yīng)類(lèi)別的文件夾中,每類(lèi)藥品圖片數(shù)量從59–752張不等,平均299張/類(lèi)別,數(shù)據(jù)集總共45826張圖片。 表5展示了數(shù)據(jù)集所有藥品中,每個(gè)藥盒面圖片數(shù)量的最小值、最大值以及平均值。
          表5 所有藥品類(lèi)別中藥盒每面圖片數(shù)量統(tǒng)計(jì)
          我們將1–133類(lèi)中的圖片劃分為訓(xùn)練集,總計(jì)42437張, 134–153類(lèi)的圖片劃分為測(cè)試集,總計(jì)3389張。 圖11展示了從訓(xùn)練集中隨機(jī)挑選的5種藥品圖片,每種藥品隨機(jī)選取4個(gè)面。
          圖11 數(shù)據(jù)集圖片示例
          4.1.1 特征面分類(lèi)的標(biāo)簽制作
          根據(jù)第3.2節(jié)提出的解決方案,通過(guò)設(shè)置圖片的名稱(chēng)來(lái)制作標(biāo)簽。具體的, 將圖片名稱(chēng)設(shè)置為“種類(lèi)標(biāo)識(shí)_圖片序號(hào)_特征面種類(lèi)(1表示滿(mǎn)足特征匹配的圖片)”格式, 寫(xiě)入到。txt文件內(nèi), 方便訓(xùn)練時(shí)讀取。
          4.1.2 圖片對(duì)比標(biāo)簽的制作
          我們提出了一種標(biāo)簽制作的方法,能夠在不影響CPU與GPU之間傳輸速度的情況下,保持正負(fù)樣本的平衡。常規(guī)圖片對(duì)的采集見(jiàn)算法1。
          但算法1存在以下缺點(diǎn)。
          (1)在訓(xùn)練的過(guò)程中, 隨機(jī)的選擇圖片非常影響數(shù)據(jù)在CPU與GPU的傳輸速率。
          (2)由于隨機(jī)性, 最終只會(huì)產(chǎn)生4萬(wàn)多對(duì)訓(xùn)練數(shù)據(jù), 而且僅考慮了類(lèi)間非相似圖片對(duì), 沒(méi)有考慮類(lèi)內(nèi)非相似圖片對(duì)。
          為解決上述問(wèn)題,本文設(shè)計(jì)了一種高效的方法,在訓(xùn)練前生成圖片名稱(chēng)對(duì),在訓(xùn)練的時(shí)候僅僅讀取文本中的內(nèi)容即可,圖片命名格式同第4.1.1節(jié)的命名格式。見(jiàn)算法2。
          算法2中,正樣本的獲取充分考慮每一張圖片,負(fù)樣本的獲取不僅考慮了類(lèi)間非相似圖片,而且考慮類(lèi)內(nèi)非相似圖片,最后訓(xùn)練集總共獲得約310萬(wàn)對(duì)圖片,測(cè)試集總共獲得約12萬(wàn)對(duì)圖片,在訓(xùn)練與測(cè)試的時(shí)候僅讀取。txt文件中的樣本名稱(chēng)即可。
          4.1.3 數(shù)據(jù)增強(qiáng)
          在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型時(shí),為增強(qiáng)其泛化能力,通常對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)。針對(duì)藥盒圖片, 設(shè)置了圖片上下翻轉(zhuǎn)、水平翻轉(zhuǎn)、旋轉(zhuǎn)以及色彩變換。其中上下翻轉(zhuǎn)、水平翻轉(zhuǎn)的概率設(shè)置為0.5;旋轉(zhuǎn)角度設(shè)置為0或180°;為減輕光照及藥盒顏色對(duì)模型的影響,制定了色彩變換策略,主要從亮度、對(duì)比度、飽和度以及色調(diào)4個(gè)方面進(jìn)行調(diào)整。由于數(shù)據(jù)集中存在很多忽明忽暗的圖片,所以在亮度方面調(diào)整力度較大,參數(shù)范圍在[0.5,1.5]、對(duì)比度與飽和度參數(shù)范圍在[0.9,1.1],色調(diào)參數(shù)范圍在[?0.1,0.1]。
          4.2 訓(xùn)練與測(cè)試細(xì)節(jié)
          本文的實(shí)驗(yàn)配置環(huán)境如下:對(duì)于特征面分類(lèi)網(wǎng)絡(luò)與孿生網(wǎng)絡(luò)的訓(xùn)練,在武漢大學(xué)超算平臺(tái)上完成,操作系統(tǒng)為CentOS 7.5 Linux,顯卡型號(hào)為Nvidia Tesla V100 16 GB, 采用PyTorch深度學(xué)習(xí)框架;對(duì)于所有圖片相似度對(duì)比算法的測(cè)試, 在本地運(yùn)行, 操作系統(tǒng)為Windows 10, 顯卡型號(hào)為Nvidia RTX 3050Ti,采用PyTorch深度學(xué)習(xí)框架及OpenCV算法包。
          4.2.1 特征面分類(lèi)網(wǎng)絡(luò)
          在訓(xùn)練與測(cè)試前,將圖片調(diào)整到224×224大小。訓(xùn)練時(shí), 設(shè)置Epoch=30,Batchsize=64,初始學(xué)習(xí)率Lr=0.001,采用Adam優(yōu)化器并設(shè)置學(xué)習(xí)率每隔7 epoch削減1/10.
          4.2.2 孿生網(wǎng)絡(luò)
          在訓(xùn)練與測(cè)試前,將圖片調(diào)整到224×224大小。訓(xùn)練時(shí), 設(shè)置Epoch=5,Batchsize=64,初始學(xué)習(xí)率Lr=0.0005,采用Adam優(yōu)化器并設(shè)置學(xué)習(xí)率每隔2 Epoch削減1/2,根據(jù)經(jīng)驗(yàn), 圖8的兩種方案在訓(xùn)練與測(cè)試時(shí)設(shè)置閾值為0.8. 為增強(qiáng)孿生網(wǎng)絡(luò)的泛化能力,訓(xùn)練時(shí)不考慮特征面是否有效(見(jiàn)第3節(jié))。
          4.3 結(jié)果與時(shí)間對(duì)比
          4.3.1 特征面分類(lèi)結(jié)果
          訓(xùn)練完成后,使用準(zhǔn)確率最高的權(quán)重進(jìn)行測(cè)試,結(jié)果見(jiàn)表6
          表6 特征面分類(lèi)網(wǎng)絡(luò)準(zhǔn)確率與推理速度
          模型在測(cè)試集上效果表現(xiàn)良好,且推理速度快, 滿(mǎn)足實(shí)時(shí)性的要求。
          4.3.2 傳統(tǒng)圖像算法比對(duì)結(jié)果
          由于傳統(tǒng)圖像算法不需要大量訓(xùn)練數(shù)據(jù),在計(jì)算準(zhǔn)確率與推理速度時(shí),僅利用測(cè)試集中的數(shù)據(jù)。
          對(duì)于直方圖法、余弦相似度法、全局哈希法,由于方法相較于ORB與SIFT更不穩(wěn)定,我們從測(cè)試集抽取1000對(duì)圖片進(jìn)行正負(fù)樣本對(duì)輸出值分析,見(jiàn)表7
          表7中, 直方圖法下標(biāo)1、2、3、4分別代表Correlation、Chi-Square、Intersection、Bhattacharyya distance這4種度量方法。對(duì)于直方圖的4種距離計(jì)算方法,正樣本對(duì)的距離輸出均值與負(fù)樣本對(duì)的距離輸出均值基本一致,所以很難設(shè)置一個(gè)閾值將其準(zhǔn)確區(qū)分;對(duì)于余弦相似度比較法,情況與直方圖法類(lèi)似,而且由于其中涉及矩陣運(yùn)算,且沒(méi)有GPU加速,速度會(huì)略慢;同理, 3種全局哈希法出現(xiàn)同樣的情況;對(duì)于SIFT與ORB算法, 正樣本對(duì)的距離輸出均值與負(fù)樣本對(duì)的距離輸出均值差別較大, 可以設(shè)定一個(gè)閾值進(jìn)行準(zhǔn)確判斷:取正樣本輸出均值與負(fù)樣本輸出均值的平均值, 計(jì)算得SIFT算法閾值約為160, ORB算法閾值約為200. 之后使用計(jì)算得到的閾值測(cè)試SIFT與ORB算法在完整測(cè)試集中的表現(xiàn), 見(jiàn)表8
          表7 正負(fù)樣本對(duì)輸出值分析
          表8 SIFT與ORB算法的表現(xiàn)
          由于ORB用到的算子運(yùn)行速度快、準(zhǔn)確率高,所以O(shè)RB算法表現(xiàn)較好,準(zhǔn)確率達(dá)93.09%,推理速度達(dá)31.88次/s。
          4.3.3 孿生網(wǎng)絡(luò)比對(duì)結(jié)果
          根據(jù)訓(xùn)練結(jié)果,選擇使網(wǎng)絡(luò)損失最低、準(zhǔn)確率最高的權(quán)重文件進(jìn)行測(cè)試,訓(xùn)練與測(cè)試結(jié)果見(jiàn)表9
          表9 孿生網(wǎng)絡(luò)準(zhǔn)確率與推理速度
          表9中, 下標(biāo)1代表使用改進(jìn)的孿生網(wǎng)絡(luò)結(jié)構(gòu), 下標(biāo)2代表使用經(jīng)典孿生網(wǎng)絡(luò)結(jié)構(gòu)。可以看到使用改進(jìn)的孿生網(wǎng)絡(luò)準(zhǔn)確率更高, 正是由于其使用表達(dá)能力強(qiáng)的全連接網(wǎng)絡(luò)能夠充分捕捉輸入樣本間的差異信息;而經(jīng)典的孿生網(wǎng)絡(luò)結(jié)構(gòu),對(duì)于兩特征向量的關(guān)系學(xué)習(xí)較弱,僅僅在計(jì)算損失的時(shí)候進(jìn)行關(guān)系學(xué)習(xí)。根據(jù)表8表9,選取準(zhǔn)確率Top2的模型進(jìn)行最終的測(cè)試。
          4.3.4 總結(jié)果
          本節(jié)將特征面分類(lèi)網(wǎng)絡(luò)與孿生網(wǎng)絡(luò)結(jié)合,采用以下策略進(jìn)行測(cè)試:對(duì)于測(cè)試過(guò)程中的某一對(duì)圖片,用特征面分類(lèi)網(wǎng)絡(luò)判斷這兩張圖片是否有一張滿(mǎn)足特征面匹配的條件,如果是則進(jìn)行圖片比對(duì),否則跳過(guò)(不參與最終準(zhǔn)確率的計(jì)算),在測(cè)試集中的表現(xiàn)見(jiàn)表10
          表10 綜合結(jié)果
          根據(jù)表10,最終選擇ResNet18+ResNet181模型,其準(zhǔn)確率高達(dá)98.56%,推理速度達(dá)約28次/s,既滿(mǎn)足了準(zhǔn)確率的要求,又滿(mǎn)足了實(shí)時(shí)性的要求。
          結(jié)論
          本文首先闡述了一系列圖片相似度比對(duì)算法及相關(guān)工作,并著重改進(jìn)孿生網(wǎng)絡(luò)算法。之后設(shè)置實(shí)驗(yàn), 從中選取準(zhǔn)確率最高、實(shí)時(shí)性較好算法用于實(shí)際應(yīng)用中。
          根據(jù)實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)傳統(tǒng)圖像處理算法雖然在實(shí)時(shí)性方面表現(xiàn)優(yōu)秀,且不需要用大量數(shù)據(jù)去訓(xùn)練,但其泛化能力較弱,并不滿(mǎn)足實(shí)際要求;在深度學(xué)習(xí)圖像處理算法上:為提高神經(jīng)網(wǎng)絡(luò)的泛化性能,設(shè)計(jì)一種高效的標(biāo)簽生成方法,在保證正負(fù)樣本平衡的情況下,加速數(shù)據(jù)在CPU與GPU之間的傳輸速度,使訓(xùn)練過(guò)程更高效;在數(shù)據(jù)預(yù)處理方面,考慮到實(shí)際場(chǎng)景中光照、藥盒顏色等影響因素,我們從亮度、對(duì)比度、飽和度與色調(diào)等方面按照一定概率進(jìn)行數(shù)據(jù)增強(qiáng);在對(duì)數(shù)據(jù)集進(jìn)行檢查時(shí),發(fā)現(xiàn)并不是每個(gè)面都具有較強(qiáng)的特征,所以進(jìn)行圖片相似度比對(duì)前,先使用特征面分類(lèi)網(wǎng)絡(luò)過(guò)濾特征少的面;在網(wǎng)絡(luò)結(jié)構(gòu)方面,我們提出了一種改進(jìn)的孿生網(wǎng)絡(luò),在Backbone為ResNet181的情況下,測(cè)試集上準(zhǔn)確率最高達(dá)到98.50%,比同類(lèi)型經(jīng)典孿生網(wǎng)絡(luò)結(jié)構(gòu)準(zhǔn)確率高出2.99%;將特征面分類(lèi)網(wǎng)絡(luò)與改進(jìn)的孿生網(wǎng)絡(luò)結(jié)合,在測(cè)試集上最高準(zhǔn)確率達(dá)98.56%,推理速度達(dá)到約28次/s,同時(shí)滿(mǎn)足準(zhǔn)確性和實(shí)時(shí)性要求。
          目前工作仍存在不足之處:在閾值的選擇上仍有缺陷,現(xiàn)在是根據(jù)正負(fù)樣本對(duì)產(chǎn)生的相似度值取平均來(lái)設(shè)定閾值或根據(jù)數(shù)據(jù)的分布情況設(shè)定閾值,但這種做法合理性較弱、主觀(guān)性較強(qiáng),為此如何科學(xué)且有效地選擇閾值是未來(lái)要研究的方面。

          瀏覽 31
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  韩国毛片手机在线完整版 | 欧美成人A片Ⅴ一区二区三区动漫 | 免费看日本黄色一级片 | 999精品在线视频 | 国产综合在线观看视频国产 |