<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          圖像中的裂紋檢測(cè)

          共 3889字,需瀏覽 8分鐘

           ·

          2024-05-24 10:07

          點(diǎn)擊上方小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)


          01. 數(shù)據(jù)集

          我們首先需要從互聯(lián)網(wǎng)上獲取包含墻壁裂縫的圖像(URL格式)數(shù)據(jù)。總共包含1428張圖像:其中一半是新的且未損壞的墻壁;其余部分顯示了各種尺寸和類型的裂縫。

          第一步:讀取圖像,并調(diào)整大小。

          images = []for url in tqdm.tqdm(df['content']):    response = requests.get(url)    img = Image.open(BytesIO(response.content))    img = img.resize((224, 224))    numpy_img = img_to_array(img)    img_batch = np.expand_dims(numpy_img, axis=0)    images.append(img_batch.astype('float16'))images = np.vstack(images)

          從下面的示例中您可以看到,在我們的數(shù)據(jù)中顯示了不同類型的墻體裂縫,其中一些對(duì)我來(lái)說(shuō)也不容易識(shí)別。

          圖例


          02. 機(jī)器學(xué)習(xí)模型


          我們想要建立一個(gè)機(jī)器學(xué)習(xí)模型,該模型能夠?qū)Ρ趫D像進(jìn)行分類并同時(shí)檢測(cè)異常的位置。為了達(dá)到這個(gè)目的需要建立一個(gè)有效的分類器。它將能夠讀取輸入圖像并將其分類為“損壞”或“未損壞”兩個(gè)部分。在最后一步,我們將利用分類器學(xué)到的知識(shí)來(lái)提取有用的信息,這將有助于我們檢測(cè)異常情況。對(duì)于這個(gè)類任務(wù),我們選擇在Keras中重載VGG16來(lái)完成它。

          vgg_conv = vgg16.VGG16(weights='imagenet', include_top=False, input_shape = (224, 224, 3))for layer in vgg_conv.layers[:-8]:    layer.trainable = False

          導(dǎo)入了VGG架構(gòu),并允許訓(xùn)練最后兩個(gè)卷積模塊,以便我們的模型能夠具有一定的特殊性。除此之外,我們還需要去除原始模型的頂層,并將其替換為另一種結(jié)構(gòu)。

          x = vgg_conv.outputx = GlobalAveragePooling2D()(x)x = Dense(2, activation="softmax")(x)model = Model(vgg_conv.input, x)model.compile(loss = "categorical_crossentropy", optimizer = optimizers.SGD(lr=0.0001, momentum=0.9), metrics=["accuracy"])

          在分類階段,GlobalAveragePooling層通過(guò)提取每個(gè)要素圖的平均值來(lái)減小前一層的大小,這種選擇加上中間致密層的省略用法可以避免過(guò)度擬合。如果小伙伴可以使用GPU,則培訓(xùn)非常簡(jiǎn)單。COLAB為我們提供了加快這一過(guò)程所需的武器。我們還使用了Keras提供的簡(jiǎn)單數(shù)據(jù)生成器進(jìn)行圖像增強(qiáng)。

          最終,我們能夠達(dá)到0.90的整體精度,還不錯(cuò)!

          局部異常

          現(xiàn)在我們要對(duì)檢測(cè)出異常的圖像進(jìn)行一定的操作,使墻壁圖像裂縫被突出。我們需要的有用信息位于頂層。因此我們可以訪問(wèn):卷積層:上層是VGG結(jié)構(gòu),還有網(wǎng)絡(luò)創(chuàng)建的更多重要功能。我們選擇了最后一個(gè)卷積層(“ block5_conv3 ”),并在此處剪切了我們的分類模型。我們已經(jīng)重新創(chuàng)建了一個(gè)中間模型,該模型以原始圖像為輸入,輸出相關(guān)的激活圖。考慮到維度,我們的中間模型增加了初始圖像的通道(新功能)并減小了尺寸(高度和寬度)。

          最終密度層:對(duì)于每個(gè)感興趣的類別,我們都需要這些權(quán)重,這些權(quán)重負(fù)責(zé)提供分類的最終結(jié)果。

          有了這些壓縮的物體,我們掌握了定位裂縫的所有知識(shí)。我們希望將它們“繪制”在原始圖像上,以使結(jié)果易于理解且易于看清。“解壓縮”此信息在python中很容易:我們只需進(jìn)行雙線性上采樣即可調(diào)整每個(gè)激活圖的大小并計(jì)算點(diǎn)積。

          執(zhí)行一個(gè)簡(jiǎn)單的函數(shù)即可訪問(wèn):

          def plot_activation(img):    pred = model.predict(img[np.newaxis,:,:,:])    pred_class = np.argmax(pred)    weights = model.layers[-1].get_weights()[0]    class_weights = weights[:, pred_class]    intermediate = Model(model.input,                         model.get_layer("block5_conv3").output)    conv_output = intermediate.predict(img[np.newaxis,:,:,:])    conv_output = np.squeeze(conv_output)    h = int(img.shape[0]/conv_output.shape[0])    w = int(img.shape[1]/conv_output.shape[1])    act_maps = sp.ndimage.zoom(conv_output, (h, w, 1), order=1)    out = np.dot(act_maps.reshape((img.shape[0]*img.shape[1],512)),                  class_weights).reshape(img.shape[0],img.shape[1])    plt.imshow(img.astype('float32').reshape(img.shape[0],               img.shape[1],3))    plt.imshow(out, cmap='jet', alpha=0.35)    plt.title('Crack' if pred_class == 1 else 'No Crack')

          我在下面的圖像中顯示結(jié)果,在該圖像中,我已在分類為裂紋的測(cè)試圖像上繪制了裂紋熱圖。我們可以看到,熱圖能夠很好地泛化并指出包含裂縫的墻塊。

          在裂紋圖像中顯示異常


          03. 總結(jié)

          在這篇文章中,我們?yōu)楫惓WR(shí)別和定位提供了一種機(jī)器學(xué)習(xí)解決方案。所有這些功能都可以通過(guò)實(shí)現(xiàn)單個(gè)分類模型來(lái)訪問(wèn)。在訓(xùn)練過(guò)程中,我們的神經(jīng)網(wǎng)絡(luò)會(huì)獲取所有相關(guān)信息,從而可以進(jìn)行分類,并在最后給出墻壁裂紋的信息。


                
          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺、目標(biāo)跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):Python視覺實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 39
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  蜜芽成人在线视频 | 亚洲老骚逼 | 黑人大几巴入口 | 亚洲夜色在线 | 日韩精品一区二区在线观看 |