<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          科大訊飛CV算法工程師崗位面試題分享

          共 1644字,需瀏覽 4分鐘

           ·

          2022-01-10 14:23


          七妹在文末給大家整理了近百個國內(nèi)外經(jīng)典的開源數(shù)據(jù)集,包含了NLP、圖像分割、圖像分類、推薦系統(tǒng)、金融、交通等方向。如果點贊和點在看的人數(shù)較多,后續(xù)七妹會繼續(xù)整理資料并分享給大家。


          問題1:Pytorch和Tensorflow的區(qū)別?


          圖創(chuàng)建


          創(chuàng)建和運行計算圖可能是兩個框架最不同的地方。


          在pyTorch中,圖結(jié)構(gòu)是動態(tài)的,這意味著圖在運行時構(gòu)建。


          而在TensorFlow中,圖結(jié)構(gòu)是靜態(tài)的,這意味著圖先被“編譯”然后再運行。


          pyTorch中簡單的圖結(jié)構(gòu)更容易理解,更重要的是,還更容易調(diào)試。調(diào)試pyTorch代碼就像調(diào)試Python代碼一樣。你可以使用pdb并在任何地方設(shè)置斷點。


          調(diào)試tensorFlow代碼可不容易。要么得從會話請求要檢查的變量,要么學(xué)會使用tensorFlow的調(diào)試器。


          靈活性


          pytorch:動態(tài)計算圖,數(shù)據(jù)參數(shù)在CPU與GPU之間遷移十分靈活,調(diào)試簡便;


          tensorflow:靜態(tài)計算圖,數(shù)據(jù)參數(shù)在CPU與GPU之間遷移麻煩,調(diào)試麻煩。


          設(shè)備管理


          pytorch:需要明確啟用的設(shè)備


          tensorflow:不需要手動調(diào)整,簡單


          ?

          問題2:leetcode爬樓梯(dp,遞歸等方法)


          遞歸解法:


          動態(tài)規(guī)劃解法:



          問題3:torch.eval()的作用


          對BN的影響:


          對于BN,訓(xùn)練時通常采用mini-batch,所以每一批中的mean和std大致是相同的;而測試階段往往是單個圖像的輸入,不存在mini-batch的概念。


          所以將model改為eval模式后,BN的參數(shù)固定,并采用之前訓(xùn)練好的全局的mean和std;總結(jié)就是使用全局固定的BN。


          對dropout的影響:


          訓(xùn)練階段,隱含層神經(jīng)元先乘概率P,再進行激活;而測試階段,神經(jīng)元先激活,每個隱含層神經(jīng)元的輸出再乘概率P,總結(jié)來說就是順序不同!


          ?

          問題4:PCA是什么?實現(xiàn)過程是什么,意義是什么?


          主成分分析 (PCA, principal component analysis)是一種數(shù)學(xué)降維方法, 利用正交變換 (orthogonal transformation)把一系列可能線性相關(guān)的變量轉(zhuǎn)換為一組線性不相關(guān)的新變量,也稱為主成分,從而利用新變量在更小的維度下展示數(shù)據(jù)的特征。


          實現(xiàn)過程:

          一種是基于特征值分解協(xié)方差矩陣實現(xiàn)PCA算法,一種是基于SVD分解協(xié)方差矩陣實現(xiàn)PCA算法。


          意義:

          使得數(shù)據(jù)集更易使用;降低算法的計算開銷;去除噪聲;使得結(jié)果容易理解。


          ?

          問題5:簡述K-means.


          K-means算法的基本思想是:以空間中k個點為中心進行聚類,對最靠近他們的對象歸類。通過迭代的方法,逐次更新各聚類中心的值,直至得到最好的聚類結(jié)果。


          假設(shè)要把樣本集分為k個類別,算法描述如下:

          (1)適當(dāng)選擇k個類的初始中心,最初一般為隨機選??;

          (2)在每次迭代中,對任意一個樣本,分別求其到k個中心的歐式距離,將該樣本歸到距離最短的中心所在的類;

          (3)利用均值方法更新該k個類的中心的值;

          (4)對于所有的k個聚類中心,重復(fù)(2)(3),類的中心值的移動距離滿足一定條件時,則迭代結(jié)束,完成分類。Kmeans聚類算法原理簡單,效果也依賴于k值和類中初始點的選擇。




          — 免費資源?—


          數(shù)據(jù)在人工智能中占據(jù)著非常重要的地位,一個高質(zhì)量的數(shù)據(jù)集往往能夠提高模型訓(xùn)練的質(zhì)量和預(yù)測的準確率。


          七妹給大家整理了近百個國內(nèi)外經(jīng)典的開源數(shù)據(jù)集,包含了NLP、圖像分割、圖像分類、推薦系統(tǒng)、金融、交通等方向。如果點贊和點在看的人數(shù)較多,后續(xù)七妹會繼續(xù)整理資料并分享給大家。


          部分數(shù)據(jù)集展示?↓↓





          領(lǐng)取方式

          (以上是部分數(shù)據(jù)集,限于篇幅,完整版及鏈接掃碼免費領(lǐng))

          掃碼回復(fù)“數(shù)據(jù)集”
          ??領(lǐng)取完整版數(shù)據(jù)集??


          閱讀原文”領(lǐng)取面試資料!

          瀏覽 52
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产性爱一级 | 大香蕉伊看人在线在线观看 | 黄页网站在线观看 | 日韩无码电影一区 | 天天日天天舔天天操 |