<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          一文看懂從 RNN 到 LSTM

          共 1849字,需瀏覽 4分鐘

           ·

          2020-07-24 08:22


          fc83699c77006e581c88d14a42e8ea5b.webp

          來(lái)自 |?知乎? 作者 |?陳誠(chéng)鏈接 | https://zhuanlan.zhihu.com/p/32085405


          ba4a9b83e260d812f604105dfe225543.webp
          這是在看了臺(tái)大李宏毅教授的深度學(xué)習(xí)視頻之后的一點(diǎn)總結(jié)和感想。看完介紹的第一部分 RNN 尤其 LSTM 的介紹之后,整個(gè)人醍醐灌頂。本篇博客就是對(duì)視頻的一些記錄加上了一些個(gè)人的思考。


          ???0. 從 RNN 說(shuō)起

          循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。相比一般的神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),他能夠處理序列變化的數(shù)據(jù)。比如某個(gè)單詞的意思會(huì)因?yàn)樯衔奶岬降膬?nèi)容不同而有不同的含義,RNN 就能夠很好地解決這類問(wèn)題。

          ???1. 普通 RNN

          先簡(jiǎn)單介紹一下一般的 RNN。其主要形式如下圖所示(圖片均來(lái)自臺(tái)大李宏毅教授的PPT):3ff20d91f2f1bc681910ba7bee40730c.webp這里:9093eb1befcce7da4a955840433b50e1.webp?為當(dāng)前狀態(tài)下數(shù)據(jù)的輸入,?25b01e4121ad3d7d284cfdeaf8a82c5c.webp?表示接收到的上一個(gè)節(jié)點(diǎn)的輸入。1f7221c4c7b60410f741fab0c087970e.webp?為當(dāng)前節(jié)點(diǎn)狀態(tài)下的輸出,而?c88bfbda64f266f926dba51e261a69a2.webp?為傳遞到下一個(gè)節(jié)點(diǎn)的輸出。通過(guò)上圖的公式可以看到,輸出?h'?與?x?和?h?的值都相關(guān)。而?y?則常常使用?h'?投入到一個(gè)線性層(主要是進(jìn)行維度映射)然后使用softmax進(jìn)行分類得到需要的數(shù)據(jù)。對(duì)這里的?y?如何通過(guò)?h'?計(jì)算得到往往看具體模型的使用方式。通過(guò)序列形式的輸入,我們能夠得到如下形式的 RNN。f52ca5966648c3d77e9bfae32c0e5018.webp


          ???2. LSTM

          2.1 什么是 LSTM

          長(zhǎng)短期記憶(Long short-term memory, LSTM)是一種特殊的 RNN,主要是為了解決長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題。簡(jiǎn)單來(lái)說(shuō),就是相比普通的 RNN,LSTM 能夠在更長(zhǎng)的序列中有更好的表現(xiàn)。LSTM 結(jié)構(gòu)(圖右)和普通 RNN 的主要輸入輸出區(qū)別如下所示。8c94fb9a59756a884d979449b3cb473d.webp相比RNN只有一個(gè)傳遞狀態(tài)?95cc15b522848d152bb90a6ecb4f477a.webp?,LSTM有兩個(gè)傳輸狀態(tài),一個(gè)?71b1059a102930b2fb09b97059061c30.webp?(cell state),和一個(gè)?95cc15b522848d152bb90a6ecb4f477a.webp(hidden state)。(Tips:RNN 中的?95cc15b522848d152bb90a6ecb4f477a.webp?對(duì)于 LSTM 中的?71b1059a102930b2fb09b97059061c30.webp?)其中對(duì)于傳遞下去的?71b1059a102930b2fb09b97059061c30.webp?改變得很慢,通常輸出的?71b1059a102930b2fb09b97059061c30.webp?是上一個(gè)狀態(tài)傳過(guò)來(lái)的?f025ee5fbd7b124a35cfa47965cad4b1.webp?加上一些數(shù)值。而?95cc15b522848d152bb90a6ecb4f477a.webp?則在不同節(jié)點(diǎn)下往往會(huì)有很大的區(qū)別。

          2.2 深入 LSTM 結(jié)構(gòu)

          下面具體對(duì) LSTM 的內(nèi)部結(jié)構(gòu)來(lái)進(jìn)行剖析。首先使用 LSTM 的當(dāng)前輸入?c9c36eecea01c7b914e502eae9c60d9a.webp?和上一個(gè)狀態(tài)傳遞下來(lái)的?4830486f6f669a153430494ef4ec72df.webp?拼接訓(xùn)練得到四個(gè)狀態(tài)。9893497efa72763f1fa9e5e179691b00.webp43327100db4e126d7fa76b1b9cc0157f.webp其中,?61ea6af5365e2c8b42643a429febc2cd.webp?,?93a5796341ed7440c5065d1e9cbfa56f.webp?,0f8cc60244943be033c9368103e893b1.webp?是由拼接向量乘以權(quán)重矩陣之后,再通過(guò)一個(gè)?bd62a36f8d625e7eb16d3f6880d7ad05.webp?激活函數(shù)轉(zhuǎn)換成0到1之間的數(shù)值,來(lái)作為一種門控狀態(tài)。而?7f6cef486c7074ee48cecae54f6abc77.webp?則是將結(jié)果通過(guò)一個(gè)?34d950532c60cf7410931051843e60d6.webp?激活函數(shù)將轉(zhuǎn)換成-1到1之間的值(這里使用?34d950532c60cf7410931051843e60d6.webp?是因?yàn)檫@里是將其做為輸入數(shù)據(jù),而不是門控信號(hào))。

          下面開始進(jìn)一步介紹這四個(gè)狀態(tài)在 LSTM 內(nèi)部的使用。(敲黑板)

          e90f44fc546ca93a80b7b2d8f2bf946f.webp97e78c5a8e3d2c0f783cf0af2cbc553c.webp?是 Hadamard Product,也就是操作矩陣中對(duì)應(yīng)的元素相乘,因此要求兩個(gè)相乘矩陣是同型的。?0065db13c3f6c4058c80573b67a96375.webp?則代表進(jìn)行矩陣加法。
          LSTM 內(nèi)部主要有三個(gè)階段:1. 忘記階段。這個(gè)階段主要是對(duì)上一個(gè)節(jié)點(diǎn)傳進(jìn)來(lái)的輸入進(jìn)行選擇性忘記。簡(jiǎn)單來(lái)說(shuō)就是會(huì) “忘記不重要的,記住重要的”。具體來(lái)說(shuō)是通過(guò)計(jì)算得到的?61ea6af5365e2c8b42643a429febc2cd.webp?(f表示forget)來(lái)作為忘記門控,來(lái)控制上一個(gè)狀態(tài)的?f025ee5fbd7b124a35cfa47965cad4b1.webp?哪些需要留哪些需要忘。2. 選擇記憶階段。這個(gè)階段將這個(gè)階段的輸入有選擇性地進(jìn)行“記憶”。主要是會(huì)對(duì)輸入?c9c36eecea01c7b914e502eae9c60d9a.webp?進(jìn)行選擇記憶。哪些重要?jiǎng)t著重記錄下來(lái),哪些不重要,則少記一些。當(dāng)前的輸入內(nèi)容由前面計(jì)算得到的?7f6cef486c7074ee48cecae54f6abc77.webp?表示。而選擇的門控信號(hào)則是由?93a5796341ed7440c5065d1e9cbfa56f.webp?(i 代表 information)來(lái)進(jìn)行控制。
          將上面兩步得到的結(jié)果相加,即可得到傳輸給下一個(gè)狀態(tài)的?71b1059a102930b2fb09b97059061c30.webp?。也就是上圖中的第一個(gè)公式。
          3. 輸出階段。這個(gè)階段將決定哪些將會(huì)被當(dāng)成當(dāng)前狀態(tài)的輸出。主要是通過(guò)?0f8cc60244943be033c9368103e893b1.webp?來(lái)進(jìn)行控制的。并且還對(duì)上一階段得到的?e6a2bb12a92b29003fad6fe4eb11e13b.webp?進(jìn)行了放縮(通過(guò)一個(gè) tanh 激活函數(shù)進(jìn)行變化)。與普通 RNN 類似,輸出?609c51f1126980aa67fccc62c51e0104.webp?往往最終也是通過(guò)?95cc15b522848d152bb90a6ecb4f477a.webp?變化得到。


          ???3. 總結(jié)

          以上,就是 LSTM 的內(nèi)部結(jié)構(gòu)。通過(guò)門控狀態(tài)來(lái)控制傳輸狀態(tài),記住需要長(zhǎng)時(shí)間記憶的,忘記不重要的信息;而不像普通的 RNN 那樣只能夠“呆萌”地僅有一種記憶疊加方式。對(duì)很多需要“長(zhǎng)期記憶”的任務(wù)來(lái)說(shuō),尤其好用。但也因?yàn)橐肓撕芏鄡?nèi)容,導(dǎo)致參數(shù)變多,也使得訓(xùn)練難度加大了很多。因此很多時(shí)候我們往往會(huì)使用效果和 LSTM 相當(dāng)?shù)珔?shù)更少的 GRU 來(lái)構(gòu)建大訓(xùn)練量的模型。—?完?

          猜你喜歡

          瀏覽 57
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  激情小说综合网 | 九九热精品视频在线 | 乱论理论激情亚州欧美 | 啊啊啊男女拍拍视频 | 青青草人人艹 |