【秋招】ML/DL/NLP/算法基礎(chǔ)面試必看300問及答案
【導(dǎo)讀】2020秋招在即,今天給大家推薦一個(gè)十分詳細(xì)全面的秋招求職面試資料合集。該資源,整理了300多道算法崗位相關(guān)的面試題目并給出了詳細(xì)的答案,涉及算法基礎(chǔ)知識(shí)、推薦系統(tǒng)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、自然語(yǔ)言處理、數(shù)學(xué)基礎(chǔ)知識(shí)、數(shù)據(jù)預(yù)處理等相關(guān)問題,由互聯(lián)網(wǎng)一線資深的面試官整理,非常值得深入學(xué)習(xí),溫故而知新。(文末提供下載方式)

1. 掃碼關(guān)注【深度學(xué)習(xí)技術(shù)前沿】公眾號(hào)
2. 在【深度學(xué)習(xí)技術(shù)前沿】公眾號(hào)后臺(tái)回復(fù) 【秋招面試】 即可獲取 ?長(zhǎng)按上方二維碼 2 秒 回復(fù)「秋招面試」即可獲取資料
方差和偏差
解釋方差
解釋偏差
模型訓(xùn)練為什么要引入偏差和方差?請(qǐng)理論論證
什么情況下引發(fā)高方差
如何解決高方差問題
以上方法是否一定有效
如何解決高偏差問題
以上方法是否一定有效
遇到過的機(jī)器學(xué)習(xí)中的偏差與方差問題
就理論角度論證Bagging、Boosting的方差偏差問題
遇到過的深度學(xué)習(xí)中的偏差與方差問題
方差、偏差與模型的復(fù)雜度之間的關(guān)系
生成與判別模型
什么叫生成模型
什么叫判別模型
什么時(shí)候會(huì)選擇生成/判別模型
CRF/樸素貝葉斯/EM/最大熵模型/馬爾科夫隨機(jī)場(chǎng)/混合高斯模型
我的理解
先驗(yàn)概率和后驗(yàn)概率
寫出全概率公式&貝葉斯公式
說說你怎么理解為什么有全概率公式&貝葉斯公式
什么是先驗(yàn)概率
什么是后驗(yàn)概率
經(jīng)典概率題
頻率概率
極大似然估計(jì) - MLE
最大后驗(yàn)估計(jì) - MAP
極大似然估計(jì)與最大后驗(yàn)概率的區(qū)別
到底什么是似然什么是概率估計(jì)
AutoML
AutoML問題構(gòu)成
特征工程選擇思路
模型相關(guān)的選擇思路
常見梯度處理思路
AutoML參數(shù)選擇所使用的方法
講講貝葉斯優(yōu)化如何在automl上應(yīng)用
以高斯過程為例,超參搜索的f的最優(yōu)解求解acquisition function有哪些
高斯過程回歸手記
AutoSklearn詳解手記
AutoML常規(guī)思路手記
數(shù)學(xué)
數(shù)據(jù)質(zhì)量
期望
方差
標(biāo)準(zhǔn)差
協(xié)方差
相關(guān)系數(shù)
最大公約數(shù)問題
輾轉(zhuǎn)相除法
其他方法
牛頓法
迭代公式推導(dǎo)
實(shí)現(xiàn)它
擬牛頓法
概率密度分布
均勻分布
伯努利分布
二項(xiàng)分布
高斯分布
拉普拉斯分布
泊松分布
平面曲線的切線和法線
平面曲線的切線
平面曲線的法線
導(dǎo)數(shù)
四則運(yùn)算
常見導(dǎo)數(shù)
復(fù)合函數(shù)的運(yùn)算法則
萊布尼茲公式
微分中值定理
費(fèi)馬定理
拉格朗日中值定理
柯西中值定理
泰勒公式
泰勒公式
歐拉公式
歐拉公式
矩陣
范數(shù)
特征值分解,特征向量
正定性
概率論
條件概率
獨(dú)立
概率基礎(chǔ)公式
全概率
貝葉斯
切比雪夫不等式
抽球
紙牌問題
棍子/繩子問題
貝葉斯題
選擇時(shí)間問題
0~1均勻分布的隨機(jī)器如何變化成均值為0,方差為1的隨機(jī)器
抽紅藍(lán)球球
機(jī)器學(xué)習(xí)
聚類
請(qǐng)問從EM角度理解kmeans
為什么kmeans一定會(huì)收斂
kmeans初始點(diǎn)除了隨機(jī)選取之外的方法
線性回歸
損失函數(shù)是啥
最小二乘/梯度下降手推
介紹一下嶺回歸
什么時(shí)候使用嶺回歸
什么時(shí)候用Lasso回歸
邏輯回歸
logistic分布函數(shù)和密度函數(shù),手繪大概的圖像
LR推導(dǎo),基礎(chǔ)5連問
梯度下降如何并行化
LR明明是分類模型為什么叫回歸
為什么LR可以用來做CTR預(yù)估
滿足什么樣條件的數(shù)據(jù)用LR最好
LR為什么使用sigmoid函數(shù)作為激活函數(shù)?其他函數(shù)不行嗎
利用幾率odds的意義在哪
Sigmoid函數(shù)到底起了什么作用
LR為什么要使用極大似然函數(shù),交互熵作為損失函數(shù)?那為什么不選平方損失函數(shù)的呢
LR中若標(biāo)簽為+1和-1,損失函數(shù)如何推導(dǎo)?
如果有很多的特征高度相關(guān)或者說有一個(gè)特征重復(fù)了100遍,會(huì)造成怎樣的影響
為什么要避免共線性
LR可以用核么?可以怎么用
LR中的L1/L2正則項(xiàng)是啥
lr加l1還是l2好
正則化是依據(jù)什么理論實(shí)現(xiàn)模型優(yōu)化
LR可以用來處理非線性問題么
為什么LR需要?dú)w一化或者取對(duì)數(shù)
為什么LR把特征離散化后效果更好?離散化的好處有哪些
邏輯回歸估計(jì)參數(shù)時(shí)的目標(biāo)函數(shù)邏輯回歸的值表示概率嗎
LR對(duì)比萬物
LR梯度下降方法
LR的優(yōu)缺點(diǎn)
除了做分類,你還會(huì)用LR做什么
你有用過sklearn中的lr么?你用的是哪個(gè)包
看過源碼么?為什么去看
談一下sklearn.linear_model.LogisticRegression中的penalty和solver的選擇
談一下sklearn.linear_model.LogisticRegression中對(duì)多分類是怎么處理的
我的總結(jié)
決策樹
常見決策樹
簡(jiǎn)述決策樹構(gòu)建過程
詳述信息熵計(jì)算方法及存在問題
詳述信息增益計(jì)算方法
詳述信息增益率計(jì)算方法
解釋Gini系數(shù)
ID3存在的問題
C4.5相對(duì)于ID3的改進(jìn)點(diǎn)
CART的連續(xù)特征改進(jìn)點(diǎn)
CART分類樹建立算法的具體流程
CART回歸樹建立算法的具體流程
CART輸出結(jié)果的邏輯
CART樹算法的剪枝過程是怎么樣的
樹形結(jié)構(gòu)為何不需要?dú)w一化
決策樹的優(yōu)缺點(diǎn)
貝葉斯
解釋一下樸素貝葉斯中考慮到的條件獨(dú)立假設(shè)
講一講你眼中的貝葉斯公式和樸素貝葉斯分類差別
樸素貝葉斯中出現(xiàn)的常見模型有哪些
出現(xiàn)估計(jì)概率值為 0 怎么處理
樸素貝葉斯的優(yōu)缺點(diǎn)
樸素貝葉斯與 LR 區(qū)別
隨機(jī)森林
解釋下隨機(jī)森林
隨機(jī)森林用的是什么樹
隨機(jī)森林的生成過程
解釋下隨機(jī)森林節(jié)點(diǎn)的分裂策略
隨機(jī)森林的損失函數(shù)是什么
為了防止隨機(jī)森林過擬合可以怎么做
隨機(jī)森林特征選擇的過程
是否用過隨機(jī)森林,有什么技巧
RF的參數(shù)有哪些,如何調(diào)參
RF的優(yōu)缺點(diǎn)
集成學(xué)習(xí)
介紹一下Boosting的思想
最小二乘回歸樹的切分過程是怎么樣的
有哪些直接利用了Boosting思想的樹模型
gbdt和boostingtree的boosting分別體現(xiàn)在哪里
gbdt的中的tree是什么tree?有什么特征
常用回歸問題的損失函數(shù)
常用分類問題的損失函數(shù)
什么是gbdt中的殘差的負(fù)梯度
如何用損失函數(shù)的負(fù)梯度實(shí)現(xiàn)gbdt
擬合損失函數(shù)的負(fù)梯度為什么是可行的
即便擬合負(fù)梯度是可行的,為什么不直接擬合殘差?擬合負(fù)梯度好在哪里
Shrinkage收縮的作用
feature屬性會(huì)被重復(fù)多次使用么
gbdt如何進(jìn)行正則化的
為什么集成算法大多使用樹類模型作為基學(xué)習(xí)器?或者說,為什么集成學(xué)習(xí)可以在樹類模型上取得成功
gbdt的優(yōu)缺點(diǎn)
gbdt和randomforest區(qū)別
GBDT和LR的差異
xgboost對(duì)比gbdt/boosting Tree有了哪些方向上的優(yōu)化
xgboost和gbdt的區(qū)別
xgboost優(yōu)化目標(biāo)/損失函數(shù)改變成什么樣
xgboost如何使用MAE或MAPE作為目標(biāo)函數(shù)
xgboost如何尋找分裂節(jié)點(diǎn)的候選集
xgboost如何處理缺失值
xgboost在計(jì)算速度上有了哪些點(diǎn)上提升
xgboost特征重要性是如何得到的
xGBoost中如何對(duì)樹進(jìn)行剪枝
xGBoost模型如果過擬合了怎么解決
xgboost如何調(diào)參數(shù)
XGboost缺點(diǎn)
LightGBM對(duì)Xgboost的優(yōu)化
LightGBM亮點(diǎn)
FM/FFM
SVM
簡(jiǎn)單介紹SVM
什么叫最優(yōu)超平面
什么是支持向量
SVM 和全部數(shù)據(jù)有關(guān)還是和局部數(shù)據(jù)有關(guān)
加大訓(xùn)練數(shù)據(jù)量一定能提高SVM準(zhǔn)確率嗎
如何解決多分類問題
可以做回歸嗎,怎么做
SVM 能解決哪些問題
介紹一下你知道的不同的SVM分類器
什么叫軟間隔
SVM 軟間隔與硬間隔表達(dá)式
SVM原問題和對(duì)偶問題的關(guān)系/解釋原問題和對(duì)偶問題
為什么要把原問題轉(zhuǎn)換為對(duì)偶問題
為什么求解對(duì)偶問題更加高效
alpha系數(shù)有多少個(gè)
KKT限制條件,KKT條件有哪些,完整描述
引入拉格朗日的優(yōu)化方法后的損失函數(shù)解釋
核函數(shù)的作用是啥
核函數(shù)的種類和應(yīng)用場(chǎng)景
如何選擇核函數(shù)
常用核函數(shù)的定義
核函數(shù)需要滿足什么條件
為什么在數(shù)據(jù)量大的情況下常常用lr代替核SVM
高斯核可以升到多少維?為什么
SVM和邏輯斯特回歸對(duì)同一樣本A進(jìn)行訓(xùn)練,如果某類中增加一些數(shù)據(jù)點(diǎn),那么原來的決策邊界分別會(huì)怎么變化
各種機(jī)器學(xué)習(xí)的應(yīng)用場(chǎng)景分別是什么?例如,k近鄰,貝葉斯,決策樹,svm,邏輯斯蒂回歸
Linear SVM 和 LR 有什么異同
深度學(xué)習(xí)
dropout
batch_normalization
你覺得bn過程是什么樣的
手寫一下bn過程
知道LN么?講講原理
bp過程
embedding
softmax
梯度消失/爆炸
殘差網(wǎng)絡(luò)
介紹殘差網(wǎng)絡(luò)
殘差網(wǎng)絡(luò)為什么能解決梯度消失的問題
殘差網(wǎng)絡(luò)殘差作用
你平時(shí)有用過么?或者你在哪些地方遇到了
Attention
Attention對(duì)比RNN和CNN,分別有哪點(diǎn)你覺得的優(yōu)勢(shì)
寫出Attention的公式
解釋你怎么理解Attention的公式的
Attention模型怎么避免詞袋模型的順序問題的困境的
Attention機(jī)制,里面的q,k,v分別代表什么
為什么self-attention可以替代seq2seq
維度與點(diǎn)積大小的關(guān)系是怎么樣的,為什么使用維度的根號(hào)來放縮
1. 掃碼關(guān)注【深度學(xué)習(xí)技術(shù)前沿】公眾號(hào)
2. 在【深度學(xué)習(xí)技術(shù)前沿】公眾號(hào)后臺(tái)回復(fù) 【秋招面試】 即可獲取
?長(zhǎng)按上方二維碼 2 秒
回復(fù)「秋招面試」即可獲取資料
