<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          計算機視覺近10年發(fā)展回顧與未來發(fā)展方向

          共 2669字,需瀏覽 6分鐘

           ·

          2020-12-23 16:40

          點擊上方小白學(xué)視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          在未來十年中,計算機視覺將取得長足發(fā)展。在本文中,我們將探討2010~2020年間計算機視覺的發(fā)展趨勢和取得的突破性成就,以及未來計算機視覺的發(fā)展目標。

          01. 計算機視覺簡史
          在整個80年代,90年代和00年代,計算機視覺是一項非常困難的任務(wù)。甚至在實驗室環(huán)境中的也很難得到較好的處理結(jié)果。在那個年代,用于訓(xùn)練視覺學(xué)習(xí)的機器學(xué)習(xí)系統(tǒng)是通過特征工程手動設(shè)計而成。
          那什么是特征工程?這意味著我們用“專家”的直覺進行了特殊的設(shè)計,這些辦法對圖像中的特定模式起作用,從而為學(xué)習(xí)計算機視覺創(chuàng)造許多有用的功能。多年來,我們積累了許多不同的辦法,每種辦法都有自己的縮寫:HOGSIFT,ORB甚至SURF。但是,不幸的現(xiàn)實是,解決現(xiàn)實世界中的問題需要花費大量的時間將這些技巧的融合在一起以達到較好的效果。我們可以用他們來檢測道路上的分界線,但是無法用于識別和區(qū)分人臉等。建立通用系統(tǒng)仍然是遙不可及的夢想。
          02. 超越特征的工程
          在2010年初計算機視覺發(fā)生了巨大變化,當(dāng)時我們看到了自計算機本身發(fā)明以來計算機視覺領(lǐng)域的最大革命。2012年,在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽上,一種名為AlexNet的計算機視覺算法比其競爭對手提高了10%。世界震驚了。關(guān)于它的最神奇的事情是:該模型沒有使用手動設(shè)計的部分。相反,該模型依賴于稱為神經(jīng)網(wǎng)絡(luò)的通用學(xué)習(xí)系統(tǒng)。AlexNet的突破在于使用GPU(圖形處理單元)來更快地訓(xùn)練計算機視覺模型:AlexNet在兩個消費級GPU上進行了6天的訓(xùn)練。為了進行比較,OpenAI于2020年發(fā)布的GPT3在355年的模擬等效時間里進行了培訓(xùn),培訓(xùn)費用約為4,600,000美元。自從AlexNet以來,我們繼續(xù)添加清晰明確的數(shù)據(jù)點:數(shù)據(jù)集越大,模型越大,并且訓(xùn)練的時間越長,我們的學(xué)習(xí)功能就越好。
          最近,在最近幾年中,隨著transformers的出現(xiàn),我們看到了視覺算法的新突破。transformers是一種基于編碼器和解碼器的深度學(xué)習(xí)架構(gòu),這些編碼器和解碼器在自然語言(NLP)任務(wù)中已經(jīng)流行了一段時間了。來自Facebook的AI研究小組的DETR論文引起了轟動,它們展示了如何使用transformers來獲得視覺任務(wù)的最新性能。transformers比當(dāng)前流行的計算機視覺算法(例如MaskRCNN)更易于實現(xiàn),并且代表了朝著減少計算機視覺自動化的方向又邁出一步。我們花在開發(fā)和調(diào)整算法上的時間越少,就越可能完成日益復(fù)雜的任務(wù)。
          在未來的十年中,這些都將對計算機視覺產(chǎn)生巨大的影響,目前關(guān)于智能代理(IoT攝像頭,Alexa和Google Home設(shè)備等)是在云上還是直接在設(shè)備本身上存在許多爭議。

          03. 數(shù)據(jù)功能和用于計算機視覺的合成數(shù)據(jù)
          我們已經(jīng)討論了算法和硬件?,F(xiàn)在,我們陷入了AI難題中最重要的部分:數(shù)據(jù)。
          歷史趨勢向我們展示了以下內(nèi)容:一、算法變得越來越通用,二、人工設(shè)定數(shù)據(jù)的需求越來越小。其結(jié)果是計算機視覺的性能更多地取決于用于訓(xùn)練它的數(shù)據(jù)。這不足為奇,我們所有人都看到科技巨頭聚集了大量的數(shù)據(jù)集。
          但是,獲取龐大的數(shù)據(jù)集并不能解決所有的AI的問題。因為這些數(shù)據(jù)集,無論是從Internet上抓取還是在室內(nèi)精心上演和捕獲,都不是訓(xùn)練更通用的自主算法的最佳選擇。這種“真實數(shù)據(jù)”所含有的誤差不可避免地會滲入計算機視覺算法中。此外,真實數(shù)據(jù)不容易輸入培訓(xùn)中:需要對其進行清理,標記,注釋和修復(fù)。
          因此,我們發(fā)現(xiàn)已經(jīng)要準備好迎接技術(shù)變革的新時代了,就像引入神經(jīng)網(wǎng)絡(luò)和transformers一樣重要。數(shù)據(jù)是阻礙計算機視覺發(fā)展的最大障礙。我們認為,解決方案是數(shù)據(jù)合成??焖俣x:合成數(shù)據(jù)是由計算機創(chuàng)建和生成的數(shù)據(jù)(例如視頻游戲或電影中看到的CGI)。完全控制此虛擬世界意味著可以使用像素標簽(請考慮元數(shù)據(jù),例如哪些像素對應(yīng)于圖像中的臉部),甚至是在現(xiàn)實世界數(shù)據(jù)集中可能無法標記的標簽。
          數(shù)據(jù)合成仍處于早期階段。與2010年代非常相似,目前每個合成數(shù)據(jù)集都是使用人工直觀設(shè)計的。但是,正如我們所說的那樣,初創(chuàng)公司(包括我們!)正在構(gòu)建系統(tǒng),這將使我們能夠生成由學(xué)習(xí)系統(tǒng)本身設(shè)計的無限量的合成數(shù)據(jù)流。
          自動化合成數(shù)據(jù)生成的出現(xiàn)將改變計算機視覺。從現(xiàn)在開始的十年后,計算機視覺算法將通過稱為終身學(xué)習(xí)的過程不斷改進。該模型將識別其弱點,為該弱點生成新的綜合數(shù)據(jù),然后對該數(shù)據(jù)集進行訓(xùn)練。最好的情況是:全部自動化實現(xiàn),在云中某處成群的GPU上運行。
          這就是我們進入2020年代時可以期望的:它與數(shù)據(jù)有關(guān),更具體地說,與數(shù)據(jù)合成有關(guān)。這將優(yōu)化并實現(xiàn)更復(fù)雜的計算機視覺任務(wù)。
          下載1:OpenCV-Contrib擴展模塊中文版教程
          在「小白學(xué)視覺」公眾號后臺回復(fù):擴展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實戰(zhàn)項目31講
          小白學(xué)視覺公眾號后臺回復(fù):Python視覺實戰(zhàn)項目31講即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內(nèi)容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學(xué)校計算機視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學(xué)視覺公眾號后臺回復(fù):OpenCV實戰(zhàn)項目20講即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學(xué)習(xí)進階。

          下載4:leetcode算法開源書
          小白學(xué)視覺公眾號后臺回復(fù):leetcode,即可下載。每題都 runtime beats 100% 的開源好書,你值得擁有!




          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~


          瀏覽 70
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  天天肏屄视频 | 精品黄片 | 午夜黄色直播 | 欧美一区二区三区四区在线 | 国产伦子伦一级A片在线 |