<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          圖解3種常見的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu):FC、CNN、RNN

          共 2180字,需瀏覽 5分鐘

           ·

          2020-10-16 14:34


          導(dǎo)讀:深度學(xué)習(xí)可以應(yīng)用在各大領(lǐng)域中,根據(jù)應(yīng)用情況的不同,深度神經(jīng)網(wǎng)絡(luò)的形態(tài)也各不相同。


          常見的深度學(xué)習(xí)模型主要有全連接(Fully Connected,F(xiàn)C)網(wǎng)絡(luò)結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)。


          它們均有著自身的特點(diǎn),在不同的場景中發(fā)揮著重要作用。本文將為讀者介紹三種模型的基本概念以及它們各自適用的場景。


          作者:劉祥龍 楊晴虹 胡曉光 于佃海 白浩杰?深度學(xué)習(xí)技術(shù)及應(yīng)用國家工程實(shí)驗(yàn)室?百度技術(shù)學(xué)院
          來源:大數(shù)據(jù)DT(ID:hzdashuju)





          01 全連接網(wǎng)絡(luò)結(jié)構(gòu)


          全連接(FC)網(wǎng)絡(luò)結(jié)構(gòu)是最基本的神經(jīng)網(wǎng)絡(luò)/深度神經(jīng)網(wǎng)絡(luò)層,全連接層的每一個(gè)節(jié)點(diǎn)都與上一層的所有節(jié)點(diǎn)相連。


          全連接層在早期主要用于對提取的特征進(jìn)行分類,然而由于全連接層所有的輸出與輸入都是相連的,一般全連接層的參數(shù)是最多的,這需要相當(dāng)數(shù)量的存儲(chǔ)和計(jì)算空間。


          參數(shù)的冗余問題使單純的FC組成的常規(guī)神經(jīng)網(wǎng)絡(luò)很少會(huì)被應(yīng)用于較為復(fù)雜的場景中。常規(guī)神經(jīng)網(wǎng)絡(luò)一般用于依賴所有特征的簡單場景,比如說房價(jià)預(yù)測模型和在線廣告推薦模型使用的都是相對標(biāo)準(zhǔn)的全連接神經(jīng)網(wǎng)絡(luò)。FC組成的常規(guī)神經(jīng)網(wǎng)絡(luò)的具體形式如圖2-7所示。


          ▲圖2-7 FC組成的常規(guī)神經(jīng)網(wǎng)絡(luò)



          02 卷積神經(jīng)網(wǎng)絡(luò)


          卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種專門用來處理具有類似網(wǎng)格結(jié)構(gòu)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),如圖像數(shù)據(jù)(可以看作二維的像素網(wǎng)格)。與FC不同的地方在于,CNN的上下層神經(jīng)元并不都能直接連接,而是通過“卷積核”作為中介,通過“核”的共享大大減少了隱藏層的參數(shù)。


          簡單的CNN是一系列層,并且每個(gè)層都通過一個(gè)可微函數(shù)將一個(gè)量轉(zhuǎn)化為另一個(gè)量,這些層主要包括卷積層(Convolutional Layer)、池化層(Pooling Layer)和全連接層(FC Layer)。


          卷積網(wǎng)絡(luò)在諸多應(yīng)用領(lǐng)域都有很好的應(yīng)用效果,特別是在大型圖像處理的場景中表現(xiàn)得格外出色。圖2-8展示了CNN的結(jié)構(gòu)形式,一個(gè)神經(jīng)元以三維排列組成卷積神經(jīng)網(wǎng)絡(luò)(寬度、高度和深度),如其中一個(gè)層展示的那樣,CNN的每一層都將3D的輸入量轉(zhuǎn)化成3D的輸出量。


          ▲圖2-8 CNN的結(jié)構(gòu)形式



          03 循環(huán)神經(jīng)網(wǎng)絡(luò)


          循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)也是常用的深度學(xué)習(xí)模型之一(如圖2-9所示),就像CNN是專門用于處理網(wǎng)格化數(shù)據(jù)(如一個(gè)圖像)的神經(jīng)網(wǎng)絡(luò),RNN是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。


          如音頻中含有時(shí)間成分,因此音頻可以被表示為一維時(shí)間序列;語言中的單詞都是逐個(gè)出現(xiàn)的,因此語言的表示方式也是序列數(shù)據(jù)。RNN在機(jī)器翻譯、語音識別等領(lǐng)域中均有非常好的表現(xiàn)。


          ▲圖2-9?簡單的RNN結(jié)構(gòu)


          關(guān)于作者:劉祥龍,副教授,博士生導(dǎo)師,現(xiàn)任職于北京航空航天大學(xué)軟件開發(fā)環(huán)境國家重點(diǎn)實(shí)驗(yàn)室,主要研究大數(shù)據(jù)檢索、大規(guī)模視覺分析、可信賴深度學(xué)習(xí)等。
          楊晴虹,博士,中科院系列高級工程師,北航軟件學(xué)院人工智能專業(yè)主講教師,美國南康涅狄格州立大學(xué)圖書信息科學(xué)訪問學(xué)者,美國耶魯大學(xué)技術(shù)創(chuàng)新實(shí)驗(yàn)室數(shù)據(jù)分析專家。
          胡曉光,百度杰出研發(fā)架構(gòu)師,10余年自然語言處理研發(fā)經(jīng)驗(yàn),參與的機(jī)器翻譯項(xiàng)目獲得國家科技進(jìn)步二等獎(jiǎng),現(xiàn)負(fù)責(zé)飛槳核心訓(xùn)練框架和模型算法的研發(fā),致力于打造最好用的深度學(xué)習(xí)平臺(tái)。
          于佃海,百度深度學(xué)習(xí)平臺(tái)飛槳(PaddlePaddle)總架構(gòu)師。2008年從北京大學(xué)畢業(yè)加入百度,長期從事機(jī)器學(xué)習(xí)、自然語言處理相關(guān)的技術(shù)研發(fā)和平臺(tái)建設(shè)工作。
          白浩杰,北航、大連理工特聘講師,百度認(rèn)證深度學(xué)習(xí)布道師,美國佛羅里達(dá)國際大學(xué)高性能數(shù)據(jù)實(shí)驗(yàn)室訪問學(xué)者,致力于移動(dòng)對象數(shù)據(jù)庫、數(shù)據(jù)可視化、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等方向的研究。

          本文摘編自飛槳PaddlePaddle深度學(xué)習(xí)實(shí)戰(zhàn)》,經(jīng)出版方授權(quán)發(fā)布。

          延伸閱讀飛槳PaddlePaddle深度學(xué)習(xí)實(shí)戰(zhàn)
          點(diǎn)擊上圖了解及購買
          轉(zhuǎn)載請聯(lián)系微信:DoctorData

          推薦語:本書由百度官方出品,內(nèi)容全面、由淺入深、注重實(shí)踐,基于飛槳PaddlePaddle深度學(xué)習(xí)平臺(tái),較為全面地覆蓋了學(xué)習(xí)深度學(xué)習(xí)技術(shù)所必須具備的基礎(chǔ)知識以及深度學(xué)習(xí)主要核心技術(shù),包括相關(guān)的數(shù)學(xué)基礎(chǔ)、Python編程基礎(chǔ)、機(jī)器學(xué)習(xí)基礎(chǔ)以及正向/反向傳播算法、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等,盡量做到讀懂一本書即可達(dá)到“零基礎(chǔ)”到“全精通”。


          劃重點(diǎn)?


          干貨直達(dá)?


          更多精彩?

          在公眾號對話框輸入以下關(guān)鍵詞
          查看更多優(yōu)質(zhì)內(nèi)容!

          PPT?|?讀書?|?書單?|?硬核?|?干貨?|?講明白?|?神操作
          大數(shù)據(jù)?|?云計(jì)算?|?數(shù)據(jù)庫?|?Python?|?可視化
          AI?|?人工智能?|?機(jī)器學(xué)習(xí)?|?深度學(xué)習(xí)?|?NLP
          5G?|?中臺(tái)?|?用戶畫像?|?1024?|?數(shù)學(xué)?|?算法?|?數(shù)字孿生

          據(jù)統(tǒng)計(jì),99%的大咖都完成了這個(gè)神操作
          ?


          瀏覽 21
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  黄片无遮挡| 18禁网站91 | 可以看美女操逼视频的网站 | 特级日本欧美日韩亚洲精品综合免费在线 | 高清无码一区在线 |