推薦系統(tǒng) 百面百搭 更新
推薦系統(tǒng) 百面百搭:https://github.com/km1994/RES-Interview-Notes
NLP 百面百搭地址:https://github.com/km1994/NLP-Interview-Notes
個(gè)人筆記:https://github.com/km1994/nlp_paper_study
關(guān)注公眾號(hào) 【關(guān)于NLP那些你不知道的事】 加入 【NLP && 推薦學(xué)習(xí)群】一起學(xué)習(xí)!?。?/span>
機(jī)器學(xué)習(xí)基礎(chǔ)
Batch Normalization 相關(guān)問(wèn)題
什么是 Batch Normalization?
Batch Normalization 多卡同步 的動(dòng)機(jī)?
Batch Normalization 多卡同步 的原理?
Batch Normalization 多卡同步 的操作(pytorch)?
答案【點(diǎn)擊原文獲取】
邏輯斯蒂回歸(LR, Logistic Regression)是什么、怎么推導(dǎo)?
答案【點(diǎn)擊原文獲取】
交叉熵與softmax 是 什么?有什么區(qū)別?
交叉熵 數(shù)學(xué)原理?
交叉熵 損失函數(shù)?
交叉熵不適用于回歸問(wèn)題?
交叉熵與softmax 的 區(qū)別?
為什么softmax分母是所有類別的加權(quán)和?
為什么要引入指數(shù)形式?
為什么不用2、4、10等自然數(shù)為底而要以 e 為底呢?
為什么分母是所有類別的加權(quán)和?
為什么要引入指數(shù)形式?
答案1【點(diǎn)擊原文獲取】
答案2【點(diǎn)擊原文獲取】
交激活函數(shù) 是 什么?有什么作用?
激活函數(shù)的主要作用?
答案1【點(diǎn)擊原文獲取】
泛化誤差(過(guò)擬合) 問(wèn)題?
答案【點(diǎn)擊原文獲取】
SVM 是什么、怎么推導(dǎo)?
SVM 基本原理、意義?
SVM推導(dǎo)?
SVM 核函數(shù) 是什么?
SVM 核函數(shù)作用 是什么?
SVM 核函數(shù) 有哪些?
SVM 核函數(shù) 怎么選擇?
SVM 軟間隔與損失函數(shù)
答案-》10. SVM【點(diǎn)擊原文獲取】
約束優(yōu)化問(wèn)題的對(duì)偶問(wèn)題
答案-》11. 約束優(yōu)化問(wèn)題的對(duì)偶問(wèn)題
Dropout 是什么?
為什么 需要用 Dropout?
Dropout 原理?
Dropout 訓(xùn)練與測(cè)試
Dropout 為什么可以減輕過(guò)擬合?
BN和Dropout共同使用出現(xiàn)的問(wèn)題?
答案-》11.Dropout【點(diǎn)擊原文獲取】
評(píng)價(jià)指標(biāo)?
答案-》12. 評(píng)價(jià)指標(biāo)【點(diǎn)擊原文獲取】
正則化L1,L2?
什么是正則化?
L1正則化 是什么?
L2正則化 是什么?
L1和L2正則化的區(qū)別?
答案-》13.正則化L1,L2【點(diǎn)擊原文獲取】
權(quán)重初始化?
是否可以將權(quán)重初始化為0?
答案-》14.權(quán)重初始化【點(diǎn)擊原文獲取】
決策樹是什么、怎么推導(dǎo)?
決策樹是什么?
ID3 是什么?
什么是 信息增益?
C4.5 是什么?
什么是 增益率
CART決策樹 是什么?1."基尼指數(shù)" (Gini index) 是什么?
剪枝策略?
缺失值處理?
如何在屬性值缺失的情況F進(jìn)行劃分屬性選擇?
給定劃分屬性?若樣本在該屬性上的值缺失,如何對(duì)樣本進(jìn)行劃分?
LR、決策樹、SVM的選擇與對(duì)比
答案-》15. 決策樹【點(diǎn)擊原文獲取】
優(yōu)化算是什么?
優(yōu)化算法是什么?
梯度下降法的含義 是什么?
什么是 批量梯度下降法 (Batch Gradient Descent)?
隨機(jī)梯度下降(Stochastic Gradient Descent) 是什么?
什么是 小批量梯度下降(Mini-Batch Gradient Descent)
動(dòng)量法(Momentum)?
Nesterov Momentum(Nesterov Accelerated Gradient?
Adagrad法
Adadelta/RMSprop
Adam:Adaptive Moment Estimation自適應(yīng)矩估計(jì)
答案-》17.優(yōu)化算法【點(diǎn)擊原文獲取】
線性判別分析是什么?
線性判別分析(linear discriminant analysis,LDA)是什么?
LDA與PCA 異同點(diǎn) 是什么?
LDA優(yōu)缺點(diǎn) 是什么?
答案-》18. 線性判別分析
KMeans是什么?
KMeans是什么?
KMeans 優(yōu)缺點(diǎn) 是什么?
答案-》21.KMeans
牛頓法 是什么?
牛頓法 是什么?
答案-》22. 牛頓法
缺失值的處理?
缺失值的原 是什么?
具體算法的缺失值處理?
答案-》23. 缺失值的處理
模型評(píng)估中常用的驗(yàn)證方法
Holdout檢驗(yàn) 是什么?
交叉檢驗(yàn) 是什么?
自助法 是什么?
答案-》24. 模型評(píng)估中常用的驗(yàn)證方法
主成分分析
主成分分析 是什么?
答案-》25. 主成分分析
Softmax函數(shù)的特點(diǎn)和作用是什么
Softmax函數(shù)的特點(diǎn)和作用是什么?
答案-》26.Softmax函數(shù)的特點(diǎn)和作用是什么
樣本不均衡是什么
導(dǎo)致模型性能降低的本質(zhì)原因是什么?
導(dǎo)致模型性能降低的解決辦法是什么?
答案-》27.樣本不均衡
損失函數(shù)
答案-》 28.損失函數(shù)
貝葉斯決策論
答案-》29.貝葉斯決策論
采樣
答案-》30.采樣
