<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2022年京東NLP實(shí)習(xí)面試題7道

          共 2238字,需瀏覽 5分鐘

           ·

          2022-07-05 08:23

          公眾號(hào)福利

          ??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF

          ??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料

          ??回復(fù)【往期招聘】查看往期重要招聘



          問(wèn)題1:Beam Search生成的句子基本都一樣,是否有方法擴(kuò)展生成句子的多樣性。


          解決方法:通過(guò)分組加入相似性懲罰,具體可以參考論文 Diverse beam search:https://arxiv.org/pdf/1610.02424.pdf。


          具體方法:選擇Beam size為B,然后將其分為G組,每一組就有 B/G 個(gè)beam,每個(gè)單獨(dú)的組內(nèi)跟 beam search很像,不斷延展序列,同時(shí)引入一個(gè) dissimilarity項(xiàng)來(lái)保證組與組之間有差異。


          組內(nèi)與 beam search 很像:從t-1到 t 時(shí)刻,不斷的減少搜索空間(如同beam search一樣)。


          組間差異:對(duì)于t=4時(shí)刻,我們先對(duì)第一組輸出y(t=4),然后我們開(kāi)始對(duì)第二組輸出y(t=4),但是第二組y(t=4)的score不僅取決于第二組之前的y(t=3),也取決于其與第一組的相似程度。以此類推,在t=4時(shí)刻對(duì)于第三組的輸出,我們從上圖可以看到其score的打分標(biāo)準(zhǔn)。這兒對(duì)于其 dissimilarity 項(xiàng)的計(jì)算采用的辦法是 hamming diversity,這個(gè)理解起來(lái)很簡(jiǎn)單,比如這個(gè)時(shí)刻可能輸出的詞在上面的組出現(xiàn)過(guò),我們就對(duì)這個(gè)詞的分?jǐn)?shù)-1,如果這個(gè)時(shí)刻可能輸出的詞在上面組沒(méi)有出現(xiàn)過(guò),我們就對(duì)這個(gè)詞的分?jǐn)?shù)不懲罰。



            

          問(wèn)題2:RLayer Normalization 和 Batch Normalization的區(qū)別,padding對(duì)這兩者有影響嗎,對(duì)哪一維有影響


          Batch Normalization 是對(duì)這批樣本的同一維度特征做歸一化, Layer Normalization 是對(duì)這單個(gè)樣本的所有維度特征做歸一化。


          區(qū)別:LN中同層神經(jīng)元輸入擁有相同的均值和方差,不同的輸入樣本有不同的均值和方差;


          BN中則針對(duì)不同神經(jīng)元輸入計(jì)算均值和方差,同一個(gè)batch中的輸入擁有相同的均值和方差。


          所以,LN不依賴于batch的大小和輸入sequence的長(zhǎng)度,因此可以用于batchsize為1和RNN中sequence的normalize操作。

          padding會(huì)對(duì)Batch Normalization的seq_len這個(gè)維度有影響,計(jì)算的時(shí)候會(huì)把padding也算進(jìn)去。


           

          問(wèn)題3:pytorch.Dataloader 報(bào)錯(cuò)出現(xiàn)數(shù)據(jù)維度不一樣怎么解決。


          在構(gòu)建dataset重寫(xiě)的__getitem__方法中要返回相同長(zhǎng)度的tensor。


          可以使用向量補(bǔ)全的方法來(lái)解決這個(gè)問(wèn)題,把不同長(zhǎng)度的向量補(bǔ)全成等長(zhǎng)的。


           

          問(wèn)題4:無(wú)序數(shù)組,找topK,要求比快排快。


          解題思路:堆排序,復(fù)雜度 nlogk

          1.取列表前k個(gè)元素建??個(gè)?根堆。堆頂就是?前第k?的數(shù)。

          2. 依次向后遍歷原列表,對(duì)于列表中的元素,如果?于堆頂,則忽略該元素;如果?于堆頂,則將堆頂更換為該元素,并且對(duì)堆進(jìn)??次調(diào)整;

          3.遍歷列表所有元素后,倒序彈出堆頂。




          問(wèn)題5:Bert里面mask的用處。


          預(yù)訓(xùn)練的時(shí)候在句子編碼的時(shí)候?qū)?/span>部分詞mask,這個(gè)主要作用是用被mask詞前后的詞來(lái)去猜測(cè)mask掉的詞是什么,因?yàn)槭侨藶閙ask掉的,所以計(jì)算機(jī)是知道m(xù)ask詞的正確值,所以也可以判斷模型猜的詞是否準(zhǔn)確。進(jìn)而更好地提升Bert詞向量的雙向編碼能力。




          問(wèn)題6:對(duì)于兩個(gè)詞怎么算他們的相似度,用基于word embedding的方式。


          歐氏距離、曼哈頓距離、馬氏距離、余弦距離、漢明距離等等。



          問(wèn)題7:Leetcode—最大子序列和。






          — 推薦閱讀 —

          最新大廠面試題


          學(xué)員最新面經(jīng)分享


          七月內(nèi)推崗位


          AI開(kāi)源項(xiàng)目論文


          NLP ( 自然語(yǔ)言處理 )


          CV(計(jì)算機(jī)視覺(jué))


          推薦

          瀏覽 50
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  草久伊人| 国产亚洲大屌视频 | 青青草视频网站在线免费观看 | 一本色道精品综合久久无码人妻 | 日本黄色片一级视频 |