<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          用于自動(dòng)駕駛的實(shí)時(shí)車道線檢測(cè)和智能告警

          共 2241字,需瀏覽 5分鐘

           ·

          2021-07-14 17:08

          點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)

          本文轉(zhuǎn)自:計(jì)算機(jī)視覺(jué)life

          導(dǎo)讀

          車道線檢測(cè) + 距離告警 + 轉(zhuǎn)彎曲率半徑計(jì)算。


          代碼:https://github.com/MaybeShewill-CV/lanenet-lane-detection

          來(lái)自模型的車道線預(yù)測(cè)
          介紹


          自動(dòng)駕駛將在未來(lái)十年給旅行帶來(lái)革命性的變化。目前,自動(dòng)駕駛應(yīng)用正在進(jìn)行各種應(yīng)用案例的測(cè)試,包括乘用車、機(jī)器人出租車、自動(dòng)商業(yè)送貨卡車、智能叉車和用于農(nóng)業(yè)的自動(dòng)拖拉機(jī)。

          自動(dòng)駕駛需要一個(gè)計(jì)算機(jī)視覺(jué)感知模塊來(lái)理解和導(dǎo)航環(huán)境。感知模塊的作用包括:

          • 檢測(cè)車道線
          • 檢測(cè)其他物體:車輛、人、環(huán)境中的動(dòng)物
          • 跟蹤檢測(cè)到的對(duì)象
          • 預(yù)測(cè)他們可能的運(yùn)動(dòng)

          一個(gè)好的感知系統(tǒng)應(yīng)該能夠在各種駕駛條件下 —— 白天/晚上,夏天/冬天,雨雪等等,實(shí)時(shí)做到這一點(diǎn)。在這篇博客中,我們著眼于一個(gè)實(shí)時(shí)模型,用于檢測(cè)車道線、其他車輛等,并生成警報(bào)。

          訓(xùn)練一個(gè)實(shí)時(shí)的車道線檢測(cè)器


          車道檢測(cè)問(wèn)題通常被定義為語(yǔ)義或?qū)嵗指顔?wèn)題,目標(biāo)是識(shí)別屬于車道類別的像素。

          TUSimple是車道檢測(cè)任務(wù)常用的數(shù)據(jù)集。該數(shù)據(jù)集包含3626個(gè)道路場(chǎng)景的標(biāo)注視頻剪輯。每個(gè)剪輯有20幀。這些數(shù)據(jù)是通過(guò)安裝在車上的攝像頭捕捉到的。下面分享了一個(gè)示例圖像及其標(biāo)注。

          來(lái)自TUSimple 數(shù)據(jù)集的示例圖像以及車道線掩碼

          在這個(gè)數(shù)據(jù)集上,我們可以訓(xùn)練一個(gè)語(yǔ)義分割模型來(lái)分割出屬于lane類的像素。U-Net model非常適合做這個(gè),因?yàn)樗且粋€(gè)具有實(shí)時(shí)推理速度的輕量級(jí)模型。U-Net是一種帶有跳躍連接的編譯碼器和解碼器模塊的編譯碼器模型。模型架構(gòu)如下所示。

          來(lái)自U-Net論文的U-Net模型結(jié)構(gòu)

          然而,損失函數(shù)需要修改為Dice損失系數(shù)。車道線分割問(wèn)題是一個(gè)極其不平衡的數(shù)據(jù)問(wèn)題。圖像中的大多數(shù)像素屬于背景類。Dice Loss基于Sorenson-Dice系數(shù),其對(duì)false positives和false negatives的重要性相似,這使得它在處理不平衡數(shù)據(jù)問(wèn)題時(shí)表現(xiàn)得更好。Dice損失試圖匹配groundtruth和預(yù)測(cè)模型中的車道線像素,希望能夠得到一個(gè)清晰的邊界預(yù)測(cè)。

          LaneNet模型


          這里,我使用了LaneNet模型來(lái)生成車道線。LaneNet模型是一種兩階段車道線預(yù)測(cè)器。第一階段是一個(gè)編碼器-解碼器模型,為車道線創(chuàng)建分割掩碼。第二階段是車道先定位網(wǎng)絡(luò),從掩碼中提取的車道點(diǎn)作為輸入,使用LSTM學(xué)習(xí)一個(gè)二次函數(shù)來(lái)預(yù)測(cè)車道線點(diǎn)。

          下圖顯示了這兩個(gè)階段的運(yùn)行情況。左邊是原始圖像,中間是階段1的車道線掩碼輸出,右邊是階段2的最終輸出。

          LaneNet模型的解釋
          生成智能告警


          我將車道線預(yù)測(cè)與物體檢測(cè)結(jié)合起來(lái),生成智能警報(bào)。這些智能警報(bào)可能涉及:

          • 檢測(cè)其他車輛是否在車道線內(nèi),并量度與他們的距離
          • 檢測(cè)鄰近車道上是否有車輛的存在
          • 了解彎曲道路的轉(zhuǎn)彎半徑

          在這里,我使用YOLO-v5來(lái)檢測(cè)道路上的汽車和人。YOLO-v5在檢測(cè)道路上的其他車輛方面做得很好。推理時(shí)間也非常快。

          下面我們用YOLO v5來(lái)測(cè)量自己的車和前面最近的車的距離。模型返回的距離以像素為單位,可以根據(jù)相機(jī)參數(shù)轉(zhuǎn)換成米。由于TUSimple數(shù)據(jù)集的相機(jī)參數(shù)未知,我根據(jù)車道線的標(biāo)準(zhǔn)寬度估計(jì)了像素到米的轉(zhuǎn)換。

          距離度量的報(bào)警

          我們可以類似地計(jì)算車道的曲率半徑,并將其用于汽車的轉(zhuǎn)向模塊。

          曲率半徑的測(cè)量
          總結(jié)


          在這篇博客中,我們探討了在自動(dòng)駕駛中準(zhǔn)確和快速檢測(cè)車道線的問(wèn)題。然后,我們使用YOLOv5來(lái)構(gòu)建對(duì)道路上其他物體的理解。這可以用來(lái)生成智能警報(bào)。


          英文原文:https://towardsdatascience.com/real-time-lane-detection-and-alerts-for-autonomous-driving-1f0a021390ee



          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 77
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日日夜夜撸撸 | 亚洲视频在线一区 | 欧美精品色图 | 人人干天天做 | 日本无码中文字幕乱码aⅴ的特色 |