<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2020年深度學習算法工程師面經(jīng)(微軟、阿里、商湯、滴滴、華為、??怠⑵桨?、陌陌等offer)

          共 2367字,需瀏覽 5分鐘

           ·

          2020-07-28 15:23

          加入極市專業(yè)CV交流群,與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度?等名校名企視覺開發(fā)者互動交流!

          同時提供每月大咖直播分享、真實項目需求對接、干貨資訊匯總,行業(yè)技術交流。關注?極市平臺?公眾號?,回復?加群,立刻申請入群~

          來源|一言難盡@知乎,https://zhuanlan.zhihu.com/p/148246487
          2020屆應屆渣碩,基于實習和秋招的面試,拿到了微軟、阿里、商湯、滴滴、華為、海康、平安、陌陌等offer,下面總結一些經(jīng)驗,希望對大家有所幫助,有問題之處也可以隨時指出。如果侵犯公司隱私,煩請告知,此文僅做分享之用。
          最開始是以公司為單位進行總結,實習經(jīng)驗可以參考這里:https://github.com/espectre/Algorithms_Engineer_Interview
          我發(fā)現(xiàn)各公司面試問題存在較多重復,于是按照題目類型分門別類,而不是按照公司機械劃分。簡單分為深度學習、機器學習基礎、圖像處理基礎、數(shù)學基礎、算法基礎、程序設計語言、模型部署、HR面試以及與我本人簡歷相關的目標檢測、屬性識別、Kaggle及天池的比賽、創(chuàng)新想法等幾個部分介紹??赡荛_始會有重疊或者分類不恰當,后面會逐漸更新完善。其中第一篇先介紹到HR面試,第二篇介紹個人相關的項目和比賽部分。

          一、深度學習

          1.模型類

          1.1 resnet和densenet及其不同

          相同層數(shù),densenet和resnet哪個好,為什么?
          那么ResNet解決了什么問題呢?
          訓練深層的神經(jīng)網(wǎng)絡,會遇到梯度消失和梯度爆炸(vanishing/exploding gradients)的問題,影響了網(wǎng)絡的收斂,但是這很大程度已經(jīng)被標準初始化(normalized initialization)和BN(Batch Normalization)所處理。
          當深層網(wǎng)絡能夠開始收斂,會引起網(wǎng)絡退化(degradation problem)問題,即隨著網(wǎng)絡深度增加,準確率會飽和,甚至下降。這種退化不是由過擬合引起的,因為在適當?shù)纳疃饶P椭性黾痈嗟膶臃炊鴷е赂叩挠柧氄`差。
          ResNet就通過引入深度殘差連接來解決網(wǎng)絡退化的問題,從而解決深度CNN模型難訓練的問題。

          1.2 resnet兩種結構具體怎么實現(xiàn),bottleneck的作用,為什么可以降低計算量,resnet參數(shù)量和模型大小

          1.3 Inception系列的演化

          1.4 知道哪些移動端/輕量化模型

          mobilenet,shufflenet,pelee等

          1.5 GAN

          2.卷積類

          2.1 卷積神經(jīng)網(wǎng)絡結構特點

          局部連接,權值共享

          2.2 知道哪些卷積

          以及卷積過程計算

          2.3 深度可分離卷積

          原理,為什么降低計算量,口述計算,減少了多少

          2.4 deformable conv怎么做

          具體怎么學的,對偏移有沒有什么限制

          2.5 1x1卷積作用

          (1)變換channel
          (2)通道融合

          3.深度學習基礎

          3.1 BN的原理、作用和實現(xiàn)細節(jié),

          其中均值和標準差的計算,以及訓練和測試時分別怎么用
          如果數(shù)據(jù)不是高斯分布,bn后怎么恢復

          3.2 激活函數(shù)

          有哪些,為什么使用激活函數(shù)
          sigmoid
          tanh
          relu
          leaky relu

          3.3 損失函數(shù)/分類的loss函數(shù)

          0-1
          mse
          bce/交叉熵
          l1/l2
          smooth l1(為什么用這個)
          hinge(svm)

          3.4 過擬合/欠擬合,預防方法

          正則化具體怎么做,為什么有效

          3.5 梯度消失/梯度爆炸

          現(xiàn)象、原因和解決方法

          3.6 網(wǎng)絡退化

          現(xiàn)象、原因和解決方法

          3.7 各種優(yōu)化器

          介紹各種優(yōu)化器
          adam的特點和公式

          3.8 調參技巧

          關于神經(jīng)網(wǎng)絡的調參順序?

          3.9 神經(jīng)網(wǎng)絡組件

          卷積/池化/全連接層/BN/IN/GN等組件

          3.10 深度神經(jīng)網(wǎng)絡和深度學習區(qū)別

          機器學習是很多種方法和模型的總稱。
          神經(jīng)網(wǎng)絡是一種機器學習模型,可以說是目前最火的一種。
          深度神經(jīng)網(wǎng)絡就是層數(shù)比較多的神經(jīng)網(wǎng)絡。
          深度學習就是使用了深度神經(jīng)網(wǎng)絡的機器學習。

          3.11 深度學習為什么比機器學習好

          3.12 train,val,test相關

          3.13 如果訓練集不平衡,測試集平衡,直接訓練和過采樣欠采樣處理,哪個更好

          3.14 softmax原理

          softmax得出的結果是排序的么,為什么分類用交叉熵

          3.15 F1score是_α_=1,那么_α_什么時候取其他值

          3.16 梯度物理意義,小球下滾,如果坡很陡,會怎么樣,梯度的大小和方向

          3.17 pooling層的作用

          3.18 監(jiān)督學習和非監(jiān)督學習舉例

          3.19 假設空間與歸納偏好

          周志華機器學習緒論1.3

          3.20 感受野相關

          3x3conv,2x2pool,3x3conv后感受野計算

          3.21 如果模型不收斂,怎么調節(jié)

          3.22 l1/l2正則,怎么選擇

          weight_decay作用,和l1/l2比較

          3.23 解釋梯度下降

          3.24 鏈式法則

          二、機器學習基礎

          可能因為簡歷上可問的東西比較多,面試時間有限,機器學習相關問的不是很多,推薦看一下李航那本統(tǒng)計學習方法。

          1.logistic回歸

          2.svm

          3.選擇傳統(tǒng)機器學習還是深度學習的標準是什么

          4.隨機森林

          bagging和隨機森林的區(qū)別

          5.決策樹

          三、圖像處理基礎

          1.數(shù)字圖像處理,各種濾波

          2.進行過哪些數(shù)據(jù)預處理

          空圖,壞圖,單通道圖,多通道圖等一些情況會怎么處理

          3. 圖形學知道哪些

          四、數(shù)學基礎

          其實主要就是概率與統(tǒng)計相關

          1.概率:圓上任意三個點組成的三角形,包含圓心的概率

          2.概率:x,y,z都是(0,1)均勻分布,x+y+z<1的概率

          3.拋硬幣直到連續(xù)若干次正面的概率

          4.先驗概率,后驗概率,怎么轉換

          5.坐標0開始,依次走1,2,3,。。。,n步,可以左或者右,問有沒有到不了的位置

          加問,到指定位置m,至少需要多少步 (1)沒有到不了的,因為左x右x+1,每次走一步,可以到達所有位置 (2)先求最接近m的連續(xù)和,然后從里面選兩個數(shù)作差

          6.n個門,1個后門是車,其余n-1個后門是羊,你先選一個,如果面試官告訴你其余n-1個中某個是羊,你會重新選擇么

          你先選一個,概率1/n 面試官告訴你某個不是,你在剩余中選的概率為兩部分 (1)你選的那個是,則概率0 (2)你選的不是,(n-1)/n * 1/(n-2),即你第一次選的不是的情況下剩余n-2中選的是的概率 所以,n=3為2/3,重新選更優(yōu)

          7.三個盒子,一個盒子兩個紅球,一個盒子一紅一藍,第三個盒子兩個藍球。一人隨機選了一個盒子,并摸出一個紅球,請問這個盒子里另外一個也是紅球的概率是多少

          2/3
          2/3概率選了第一個盒子

          五、算法基礎

          該部分主要是手撕代碼,也是面試的重要組成部分
          可能因為我本科非計算機,題目大都相對簡單,不過一次0 bug完成還是需要練習。

          1.x的n次方(x任意,n自然數(shù))

          2.鏈表排序(然后不能動指針)

          3.螺旋打印二維數(shù)組

          4.刪除字符

          給定一個字符串和一個數(shù)字,刪除指定數(shù)字個數(shù)的字符,并保證刪除
          給定字符串和數(shù)字 abcdabcd 4
          刪除一個a bcdabcd刪除第二個a bcdbcd刪除一個b cdbcd刪除第二個b cdcd
          改:大數(shù)組刪掉指定個數(shù),怎么最方便。

          5.螺旋三角形

          5
          12 123 13 114 14 15 105 6 7 8 9

          6.二叉樹深度及最長路徑

          7.排序

          知道哪些排序算法,快排時間復雜度,時間復雜度推導,O(n)的排序方法
          時間復雜度O(n)的排序算法
          快排,歸并,堆排序

          8.二叉樹路徑和為給定值

          9.一個數(shù)組,其他數(shù)出現(xiàn)兩次,另一個出現(xiàn)一次,找出

          改進:另外兩個數(shù)出現(xiàn)一次

          10.鏈表中倒數(shù)第k個結點

          11.判斷鏈表對稱/鏈表回文

          12.鏈表反轉

          13.逆序對

          14.算法:爬樓梯

          劍指offer(8)

          15.算法:連續(xù)子數(shù)組的最大和

          劍指offer(30)

          16.算法:最長不重復子串

          leetcode(3)/劍指offer第二版(48)

          典型題.求一個數(shù)組中只包含0,1使得其中0,1個數(shù)相等的最大子數(shù)組

          17.算法:給定一個數(shù)組A,求max(Ai - Aj)。其中 i < j 。

          18.算法:扎氣球

          leetcode 452?https://blog.csdn.net/yysave/article/details/84403875

          19 n個文件(海量文件),查找和排序,二分查找時間復雜度

          歸并排序,二分查找

          20 一個數(shù)組里面是股票值,求什么時候購買和賣出,收益最大。

          一個數(shù)記錄最大差,一個記錄最小元素,遍歷一次即可

          21. 最長連續(xù)公共子串

          dp 注意不是非連續(xù)

          22.實現(xiàn)卷積計算

          23.實現(xiàn)IoU和NMS

          23.link

          A是一個排序好的數(shù)組,升序排列;B是一個排序好的數(shù)組,升序排序;給定c,找到a,b,滿足 a屬于A b屬于B a+b=c

          24.一維數(shù)組最大和

          25.二維數(shù)組求最大和矩陣

          26.二維數(shù)組有多少個子數(shù)組

          包含一行的,第一行為例,一個的n個,兩個的n-1個,。。。,n個的一個,一共n+(n-1)+。。。+1,n行就是n*。而包含兩行,三行就依次是(n-1)*, (n-2) *, 所以就是n+(n-1)+。。。+1的平方

          27.二維矩陣左上角到右下角最大和

          leetcode 64

          28.1-n數(shù)字里少一個,找出來

          少兩個呢

          29.寫VGG、resnet

          30.輸入D和I組成的字符串,輸出數(shù)字數(shù)組,D表示Decrease,I代表Incre。

          0, 1, 2, ... n-1...
          case1:IIII0, 1, 2, 3, 4
          case2:DD2, 1, 0
          case3:DIDI4, 2, 3, 0, 1
          case4:DIDDI534201
          case5:多解DDI32012103
          方法:strI01233210I
          (1)如果新增是I,則添加一size的數(shù)在最后
          D I append(res.size())
          (2)如果新增是D,則前面都加一,然后最后添加0
          D D +1,append(0)

          31.Leetcode 670 Maximum Swap

          32.判斷兩線段是否相交

          33.回文子串?Leetcode 647. Palindromic Substrings

          給定一個字符串,你的任務是計算這個字符串中有多少個回文子串。
          具有不同開始位置或結束位置的子串,即使是由相同的字符組成,也會被計為是不同的子串。
          示例 1:
          輸入: "abc"輸出: 3解釋: 三個回文子串: "a", "b", "c".
          示例 2:
          輸入: "aaa"輸出: 6說明: 6個回文子串: "a", "a", "a", "aa", "aa", "aaa".

          34.對于一個元素各不相同且按升序排列的有序序列,請編寫一個算法,創(chuàng)建一棵高度最小的二叉查找樹。

          給定一個有序序列int[] vals,請返回創(chuàng)建的二叉查找樹的高度。
          power(2,n-1)-1

          35. 尋找兩個元素異或的最大值。

          36.工作方案

          37.Valid Permutations for DI Sequence

          Leetcode 903

          38.atoi

          Leetcode 8

          39.根據(jù)頂點坐標,判斷兩個四邊形/三角形是否相交

          40.球隊至少需要多少分可以出線,最多有多少分未出線

          m支隊伍兩兩比賽,贏了得3分,平局各得一分,輸了不得分,求n個晉級名額中的最少得分。

          41.leetcode股票

          42.給定一個不等概率生成器,隨機生成 0 和1 的概率分別為 p 和1-p, p 不等于0.5,要求設計如下等概率生成器:
          (1) 隨機生成0 和1 的概率為0.5
          可以構建一個二維表 00,01 10,11 對應的概率 p*p,(1-p)*p (1-p)*p,(1-p)*(1-p) 我們可以發(fā)現(xiàn),01和10出現(xiàn)的概率相等,都是(1-p)*p 所以如果連續(xù)兩次出現(xiàn)01,認為出現(xiàn)0;如果出現(xiàn)10,認為出現(xiàn)1,出現(xiàn)其他重新擲即可實現(xiàn)等概率0.5
          (2)隨機生成0,1 和2 的概率為1/3
          連續(xù)擲三次出現(xiàn)001,010,100三種等概率,都是1/3
          (3) 隨機生成0,1,2,…n-1 的概率為1/n
          連續(xù)擲n次 出現(xiàn)0000...001對應0, 出現(xiàn)0000...010對應1, ... ... ... 出現(xiàn)1000...000對應n
          43.給定n個數(shù)的數(shù)組,找到所有長度大于等于k的連續(xù)子數(shù)組中平均值最大的那個。返回那個最大的平均值。
          44.在一個 m*n 整數(shù)矩陣中找到指定值 target, 這個整數(shù)矩陣有如下性質:
          (1) 每行從左到右數(shù)值遞增
          (2)每列從上到下數(shù)值遞增
          45.給定一個無向圖,這個圖是在一棵樹的基礎上加上一條邊構成的。問哪條邊可以刪掉使圖重新變成一棵樹?如果有多個答案那么輸出輸入的邊中最后出現(xiàn)的那條
          46.輸入四個點的坐標,求證四個點是不是一個矩形
          先計算中點坐標,然后計算其到四個頂點的距離是否相等
          double distance(double x1,double y1,double x2,double y2){ return (y2-y1)*(y2-y1)+(x2-x1)*(x2-x1);}
          bool isRec(double x1,double y1,double x2,double y2,double x3,double y3,double x4,double y4){ double x_center=(x1+x2+x3+x4)/4; double y_center=(y1+y2+y3+y4)/4; double d1=distance(x1,y1,x_center,y_center); double d2=distance(x2,y2,x_center,y_center); double d3=distance(x3,y3,x_center,y_center); double d4=distance(x4,y4,x_center,y_center); return d1==d2&&d2==d3&&d3==d4;}

          六、程序設計語言

          1. Python

          1.1 深拷貝和淺拷貝

          1.2 list和tuple區(qū)別

          1.3 is和==異同

          1.4 list參數(shù)傳遞

          如果list在函數(shù)里改變,原來的list是否改變

          2. C++

          2.1 指針與引用的區(qū)別

          (1)指針是一個變量,存儲的是一個地址,指向 內(nèi)存的一個存儲單元,它的內(nèi)容是內(nèi)存中的地址
          (2)引用跟原來的變量實質上是同一個東西,只 不過是原變量的一個別名而已。

          2.2 繼承與多態(tài)

          2.3 數(shù)組和鏈表

          2.4 內(nèi)存泄漏和溢出

          七、模型部署

          1.tensorrt內(nèi)部機制

          tensorrt怎么量化,float32怎么變int8,怎么變回來

          2.分布式,多卡使用

          (1)數(shù)據(jù)并行

          每個機器都有一個相同的完整的模型,然后分別處理不同的數(shù)據(jù),最后server匯總結果;

          (2)模型并行

          把一個模型進行拆分,每個機器上是模型的一部分,然后每一部分模型在不同的機器處理,處理結果移交給下一個機器的部分繼續(xù)處理。

          (3)現(xiàn)在以數(shù)據(jù)并行為常用方式,模型并行主要難點在模型拆分上,二者通信量都很大。

          (4)分布式的模型更新方式主要是兩種 中心化(parameter server)和去中心化(ring all-reduce etc.)

          中心化參見TF和MXNet 去中心化參見NCCL的處理方式

          3.剪枝怎么做,剪多少,效果變化多少

          4.量化怎么做,效果變化多少

          八、HR面試

          1.個人規(guī)劃

          2.希望做研究還是工程

          3.有沒有和人發(fā)生爭執(zhí)的經(jīng)歷

          4.實習遇到的困難

          5.給你項目讓你主導怎么規(guī)劃


          推薦閱讀


          添加極市小助手微信(ID : cv-mart),備注:研究方向-姓名-學校/公司-城市(如:目標檢測-小極-北大-深圳),即可申請加入極市技術交流群,更有每月大咖直播分享、真實項目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、行業(yè)技術交流一起來讓思想之光照的更遠吧~

          △長按添加極市小助手

          △長按關注極市平臺,獲取最新CV干貨

          覺得有用麻煩給個在看啦~??
          瀏覽 86
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  精品国产18久久久久久 | 麻豆AV无码精品一区二区色欲 | 日本免费看A片 | 色综合久久天天综合网 | 国产高潮的视频网站在线观看 |