<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2022年4月中旬,美團CV崗實習(xí)面試題6道

          共 2171字,需瀏覽 5分鐘

           ·

          2022-05-24 08:26

          公眾號福利

          ??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF

          ??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料

          ??回復(fù)【往期招聘】查看往期重要招聘



          問題1:簡單介紹gbdt算法的原理


          GBDT是梯度提升決策樹,是一種基于Boosting的算法,采用以決策樹為基學(xué)習(xí)器的加法模型,通過不斷擬合上一個弱學(xué)習(xí)器的殘差,最終實現(xiàn)分類或回歸的模型。關(guān)鍵在于利用損失函數(shù)的負梯度在當(dāng)前模型的值作為殘差的近似值,從而擬合一個回歸樹。


          對于分類問題:常使用指數(shù)損失函數(shù);對于回歸問題:常使用平方誤差損失函數(shù)(此時,其負梯度就是通常意義的殘差),對于一般損失函數(shù)來說就是殘差的近似。


          無論損失函數(shù)是什么形式,每個決策樹擬合的都是負梯度。準確的說,不是用負梯度代替殘差,而是當(dāng)損失函數(shù)是均方損失時,負梯度剛好是殘差,殘差只是特例。



          問題2:pca屬于有監(jiān)督還是無監(jiān)督


          PCA 按有監(jiān)督和無監(jiān)督劃分應(yīng)該屬于無監(jiān)督學(xué)習(xí),所以數(shù)據(jù)集有無 y 并不重要,只是改變樣本 X 的屬性(特征)維度。



          問題3:介紹svm算法


          是一種二分類模型,它的基本模型是定義在特征空間上的間隔最大的線性分類器,間隔最大使它有別于感知機。


          SVM可分為三種:


          線性可分SVM


          當(dāng)訓(xùn)練數(shù)據(jù)線性可分時,通過最大化硬間隔(hard margin)可以學(xué)習(xí)得到一個線性分類器,即硬間隔SVM。


          線性SVM


          當(dāng)訓(xùn)練數(shù)據(jù)不能線性可分但是近似線性可分時,通過最大化軟間隔(soft margin)也可以學(xué)習(xí)到一個線性分類器,即軟間隔SVM。


          非線性SVM


          當(dāng)訓(xùn)練數(shù)據(jù)線性不可分時,通過使用核技巧(kernel trick)和最大化軟間隔,可以學(xué)習(xí)到一個非線性SVM。


          SVM的的學(xué)習(xí)策略就是間隔最大化,可形式化為一個求解凸二次規(guī)劃的問題,也等價于正則化的合頁損失函數(shù)的最小化問題。SVM的的學(xué)習(xí)算法就是求解凸二次規(guī)劃的最優(yōu)化算法。


          SVM如何選擇核函數(shù)


          Linear核:主要用于線性可分的情形。參數(shù)少,速度快,對于一般數(shù)據(jù),分類效果已經(jīng)很理想了。


          RBF核:主要用于線性不可分的情形。參數(shù)多,分類結(jié)果非常依賴于參數(shù)。有很多人是通過訓(xùn)練數(shù)據(jù)的交叉驗證來尋找合適的參數(shù),不過這個過程比較耗時。



          問題4:介紹transformer算法


          Transformer本身是一個典型的encoder-decoder模型,Encoder端和Decoder端均有6個Block,Encoder端的Block包括兩個模塊,多頭self-attention模塊以及一個前饋神經(jīng)網(wǎng)絡(luò)模塊;Decoder端的Block包括三個模塊,多頭self-attention模塊,多頭Encoder-Decoder attention交互模塊,以及一個前饋神經(jīng)網(wǎng)絡(luò)模塊;需要注意:Encoder端和Decoder端中的每個模塊都有殘差層和Layer Normalization層。


           


          問題5:layernorm和batchnorm的比較


          Batch Normalization 是對這批樣本的同一維度特征做歸一化, Layer Normalization 是對這單個樣本的所有維度特征做歸一化。


          區(qū)別:LN中同層神經(jīng)元輸入擁有相同的均值和方差,不同的輸入樣本有不同的均值和方差;


          BN中則針對不同神經(jīng)元輸入計算均值和方差,同一個batch中的輸入擁有相同的均值和方差。所以,LN不依賴于batch的大小和輸入sequence的長度,因此可以用于batchsize為1和RNN中sequence的normalize操作。



          問題6:Leetcode—兩數(shù)之和


          該題較為簡單。





          — 推薦閱讀 —

          最新大廠面試題


          學(xué)員最新面經(jīng)分享


          七月內(nèi)推崗位


          AI開源項目論文


          NLP ( 自然語言處理 )


          CV(計算機視覺)


          推薦

          瀏覽 76
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日本欧美色 | 高清无码做爱视频 | 私人玩物视频 | 亚洲无码免费观看视频 | 伊人视频在线观看 |