<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          算法崗面經(jīng)整理!查漏補缺

          共 1967字,需瀏覽 4分鐘

           ·

          2020-08-22 04:38

          ↑↑↑關注后"星標"Datawhale
          每日干貨?&?每月組隊學習,不錯過
          ?Datawhale干貨?
          作者:阿毛沖沖沖,來源:NewBeeNLP(牛客網(wǎng))

          寫在前面

          三月面試了好幾輪,寫個帖子記錄一下問過的問題,為接下來的其他公司的面試查漏補缺一下,也給大家一些準備的方向。

          騰訊

          一面(涼)

          • 自我介紹
          • 問做過的項目,同時在過程中穿插用過的模型的問題,比如
            • word2vec兩個模型的損失函數(shù)是什么
            • cbow和skipgram的比較,為什么skipgram會更好,哪個的計算復雜度高
            • 為什么使用隨機森林
            • 決策樹的分裂方式是什么,根據(jù)什么變量來決定分裂變量
          • 手撕代碼
            • 給一個數(shù)N,k,每一輪可以進行兩種操作的其中一種:①所有的數(shù)拆分成兩個更小的數(shù);②所有的數(shù)-1。已知拆分操作只能進行k次,問 最少需要多少次把所有數(shù)都消去
          • 給一串數(shù)列,這串數(shù)列有正有負,但是總和為0。每個數(shù)xi代表一個村莊,正的表示村莊想賣出xi份水果,負的表示想買入xi份水果。兩相鄰村莊間的距離是相同的,單位距離運送一份水果的運費均相同,每份都是k。問,把每個村莊的需求和供給都解決掉需要的最少運送費是多少?

          這是第一次面試,涼得很徹底,因為很多算法細節(jié)都沒有好好復習,而且代碼寫的也不夠整潔快速

          阿里螞蟻

          一面

          面我的是多方安全團隊,問了很久他們做的東西,具體還是不太懂,大概意思就是法規(guī)限制了我們獲取的數(shù)據(jù)規(guī)模和維度,要用有限的數(shù)據(jù)進行風險評估(比如銀行貸款啊之類的)

          • 問了我們碩士是授課型還是論文型,問了我們現(xiàn)在專業(yè)學習的東西和機器學習相關的部分有哪些,
          • 然后問了我做詞向量的項目,問優(yōu)化方向之類的,有沒有根據(jù)文本特征做定制化的算法調(diào)整
          • 然后問了xgboost和randomforest的區(qū)別。什么場景表現(xiàn)會更好之類的。
          • 然后問了一道邏輯題:兩個人抽100個球,你是先手,每次兩個人只能取1-6個球,問怎么抽才能使得你是最后一個把球抽完的
          • 問了一道挺基礎的算法:找出有序數(shù)組中位數(shù),想優(yōu)化時間復雜度。
          • 感覺不是很匹配,面試官的意思是想要的是那種潛力型,會融合很多算法,開發(fā)新算法的人才,我太菜了

          美團

          美團的筆試還是做的挺差的,五題只做了兩題,兩題都只有27%。。

          一面

          • word2vec
          • 訓練過程訓練原理
          • 訓練的損失函數(shù)
          • 我看到你做多分類情感分析多分類問題的損失函數(shù)是什么
          • Soft max的計算公式是什么?為什么使用指數(shù)函數(shù)?
          • LSTM的信息傳遞機制是什么?他和RNN相比有什么優(yōu)勢。
          • Bert
          • 他和普通的Word2Vec模型相比優(yōu)勢在哪里
          • 他為什么會有這樣的優(yōu)勢(優(yōu)勢,指的是他能生成語境化的向量
          • Bert中的 transformer
          • attention multihead attention
          • 注意力機制的運行過程是什么樣的?
          • 注意力機制中對于每一個詞的分數(shù)會進行標準化,請問這一步的目的是什么
          • 你剛剛提到batch normalization
          • BN的作用是什么?它有四個公式,每一個公式分別是什么,有什么各自的作用
          • 我對于每一個Batch 都計算出來了他對應的均值跟方差這些,它們相互獨立的嗎?還是會相互影響。
          • 我看你大多數(shù)是自然語言處理的事件,你有做過計算機視覺相關的任務嗎?回答:有機器學習課上嘗試手寫卷積神經(jīng)網(wǎng)絡的代碼
          • 卷積神經(jīng)網(wǎng)絡的權重是怎么更新的,平均池化和最大持化的反向傳播是怎么運作的?
          • 沒有手撕代碼,但是讓我直接實現(xiàn)kmeans的偽代碼,不用編譯

          總結(jié)來說,美團一面問的都很基礎的深度學習問題,都答出來了,因為準備過,所以說的時候比較有自信,然后挺流暢的。面試官就說覺得我基礎知識挺扎實的挺好的(這個小哥人很nice,也是第一個這么夸我的面試官,挺受鼓舞的,很謝謝他

          二面

          大部分問題和一面的很接近,但是面試官好像是一面面試官的老大,會從更多維度來問你

          • word2vec訓練過程的最后一步有什么辦法可以優(yōu)化softmax的計算,我沒答上來,他就告訴我說是指數(shù)函數(shù)的計算會用查表來近似代替
          • 你大部分用的神經(jīng)網(wǎng)絡都是比較淺層的,有沒有試過更深的神經(jīng)網(wǎng)絡
          • 有做過圖像方面的深度學習項目嗎
          • 有沒有在實踐中應用過transformer

          最后面試官的評價是基礎知識比較好,但是實踐經(jīng)歷和業(yè)界場景有差距emmm,然后面試才剛剛開始,沒這么快能給你答復(好的我知道我是備胎了55555 美團是我很想去的公司,我面試的部門是做美團外賣的推薦廣告業(yè)務的,在他們場景中會用到很多的深度學習的模型(圖像+nlp)來提取特征和做推薦預估, 而且關注了美團的技術博客,他們做的很多東西我都覺得和自己做過的項目很match。

          瀏覽 80
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  中文天堂视频在线观看 | 香蕉视频一区二区 | 韩国久久久三级视频 | 91人妻人人人人爽 | 永久黄网站 |