<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          多模態(tài)深度學(xué)習(xí):用深度學(xué)習(xí)的方式融合各種信息

          共 1442字,需瀏覽 3分鐘

           ·

          2020-10-18 00:04

          點(diǎn)擊上方AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”

          重磅干貨,第一時(shí)間送達(dá)


          作者:Purvanshi Mehta

          來(lái)源:AI公園?

          編譯:ronghuaiyang

          導(dǎo)讀

          使用深度學(xué)習(xí)融合各種來(lái)源的信息。

          多模態(tài)數(shù)據(jù)

          我們對(duì)世界的體驗(yàn)是多模態(tài)的 —— 我們看到物體,聽(tīng)到聲音,感覺(jué)到質(zhì)地,聞到氣味,嘗到味道。模態(tài)是指某件事發(fā)生或經(jīng)歷的方式,當(dāng)一個(gè)研究問(wèn)題包含多個(gè)模態(tài)時(shí),它就具有多模態(tài)的特征。為了讓人工智能在理解我們周?chē)氖澜绶矫嫒〉眠M(jìn)展,它需要能夠同時(shí)解釋這些多模態(tài)的信號(hào)。

          例如,圖像通常與標(biāo)簽和文本解釋相關(guān)聯(lián),文本包含圖像,以更清楚地表達(dá)文章的中心思想。不同的模態(tài)具有非常不同的統(tǒng)計(jì)特性。

          多模態(tài)深度學(xué)習(xí)

          雖然結(jié)合不同的模態(tài)或信息類(lèi)型來(lái)提高效果從直觀上看是一項(xiàng)很有吸引力的任務(wù),但在實(shí)踐中,如何結(jié)合不同的噪聲水平和模態(tài)之間的沖突是一個(gè)挑戰(zhàn)。此外,模型對(duì)預(yù)測(cè)結(jié)果有不同的定量影響。在實(shí)踐中最常見(jiàn)的方法是將不同輸入的高級(jí)嵌入連接起來(lái),然后應(yīng)用softmax。

          多模態(tài)深度學(xué)習(xí)的例子,其中使用不同類(lèi)型的神經(jīng)網(wǎng)絡(luò)提取特征

          這種方法的問(wèn)題是,它將給予所有子網(wǎng)絡(luò)/模式同等的重要性,這在現(xiàn)實(shí)情況中是非常不可能的。

          所有的模態(tài)對(duì)預(yù)測(cè)都有相同的貢獻(xiàn)

          對(duì)網(wǎng)絡(luò)進(jìn)行加權(quán)組合

          我們采用子網(wǎng)絡(luò)的加權(quán)組合,以便每個(gè)輸入模態(tài)可以對(duì)輸出預(yù)測(cè)有一個(gè)學(xué)習(xí)貢獻(xiàn)(Theta)。

          我們的優(yōu)化問(wèn)題變成-

          對(duì)每個(gè)子網(wǎng)絡(luò)給出Theta權(quán)值后的損失函數(shù)。

          將權(quán)值附加到子網(wǎng)后預(yù)測(cè)輸出。

          把所有的都用起來(lái)!

          準(zhǔn)確性和可解釋性

          我們?cè)趦蓚€(gè)現(xiàn)實(shí)多模態(tài)數(shù)據(jù)集上得到了SOTA:

          Multimodal Corpus of Sentiment Intensity(MOSI) 數(shù)據(jù)集 —— 有417個(gè)標(biāo)注過(guò)的視頻,每毫秒標(biāo)注的音頻特征。共有2199個(gè)標(biāo)注數(shù)據(jù)點(diǎn),其中情緒強(qiáng)度定義為從strongly negative到strongly positive,線(xiàn)性尺度從- 3到+3。

          模態(tài)包括:

          1、文本

          2、音頻

          3、語(yǔ)言

          每種模態(tài)對(duì)情緒預(yù)測(cè)的貢獻(xiàn)量

          Transcription Start Site Prediction(TSS)數(shù)據(jù)集 —— Transcription是基因表達(dá)的第一步,在這一步中,特定的DNA片段被復(fù)制到RNA (mRNA)中。Transcription起始位點(diǎn)是transcription開(kāi)始的位置。DNA片段的不同部分具有不同的特性,從而影響其存在。我們將TSS分為三個(gè)部分:

          1. 上游DNA
          2. 下游DNA
          3. TSS位置

          我們?nèi)〉昧饲八从械母纳疲戎暗淖钕冗M(jìn)的結(jié)果3%。使用TATA box的下游DNA區(qū)域?qū)@一過(guò)程影響最大。


          END

          英文原文:https://towardsdatascience.com/multimodal-deep-learning-ce7d1d994f4


          下載1:OpenCV黑魔法


          AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):OpenCV黑魔法,即可下載小編精心編寫(xiě)整理的計(jì)算機(jī)視覺(jué)趣味實(shí)戰(zhàn)教程



          下載2 CVPR2020

          AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):CVPR2020即可下載1467篇CVPR?2020論文
          個(gè)人微信(如果沒(méi)有備注不拉群!
          請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱(chēng)


          覺(jué)得有趣就點(diǎn)亮在看吧



          瀏覽 63
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  十八禁网站在线看 | 亚洲性爱AV在线观看 | 国产精品一区亚洲一区天堂 | 日韩精品在线播放 | 国产成人MV |