<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          推薦系統(tǒng) 百面百搭 更新

          共 2105字,需瀏覽 5分鐘

           ·

          2021-11-07 19:45

          推薦系統(tǒng) 百面百搭:https://github.com/km1994/RES-Interview-Notes

          NLP 百面百搭地址:https://github.com/km1994/NLP-Interview-Notes

          個(gè)人筆記:https://github.com/km1994/nlp_paper_study


          關(guān)注公眾號(hào) 【關(guān)于NLP那些你不知道的事】 加入 【NLP && 推薦學(xué)習(xí)群】一起學(xué)習(xí)!?。?/span>


          機(jī)器學(xué)習(xí)基礎(chǔ)

          Batch Normalization 相關(guān)問(wèn)題

          1. 什么是 Batch Normalization?

          2. Batch Normalization 多卡同步 的動(dòng)機(jī)?

          3. Batch Normalization 多卡同步 的原理?

          4. Batch Normalization 多卡同步 的操作(pytorch)?

          • 答案【點(diǎn)擊原文獲取】

          邏輯斯蒂回歸(LR, Logistic Regression)是什么、怎么推導(dǎo)?

          • 答案【點(diǎn)擊原文獲取

          交叉熵與softmax 是 什么?有什么區(qū)別?

          1. 交叉熵 數(shù)學(xué)原理?

          2. 交叉熵 損失函數(shù)?

          3. 交叉熵不適用于回歸問(wèn)題?

          4. 交叉熵與softmax 的 區(qū)別?

          5. 為什么softmax分母是所有類別的加權(quán)和?

          6. 為什么要引入指數(shù)形式?

          7. 為什么不用2、4、10等自然數(shù)為底而要以 e 為底呢?

          8. 為什么分母是所有類別的加權(quán)和?

          9. 為什么要引入指數(shù)形式?

          • 答案1【點(diǎn)擊原文獲取

          • 答案2【點(diǎn)擊原文獲取

          交激活函數(shù) 是 什么?有什么作用?

          1. 激活函數(shù)的主要作用?

          • 答案1【點(diǎn)擊原文獲取

          泛化誤差(過(guò)擬合) 問(wèn)題?

          • 答案【點(diǎn)擊原文獲取

          SVM 是什么、怎么推導(dǎo)?

          1. SVM 基本原理、意義?

          2. SVM推導(dǎo)?

          3. SVM 核函數(shù) 是什么?

          4. SVM 核函數(shù)作用 是什么?

          5. SVM 核函數(shù) 有哪些?

          6. SVM 核函數(shù) 怎么選擇?

          7. SVM 軟間隔與損失函數(shù)

          • 答案-》10. SVM【點(diǎn)擊原文獲取

          約束優(yōu)化問(wèn)題的對(duì)偶問(wèn)題

          • 答案-》11. 約束優(yōu)化問(wèn)題的對(duì)偶問(wèn)題

          Dropout 是什么?

          1. 為什么 需要用 Dropout?

          2. Dropout 原理?

          3. Dropout 訓(xùn)練與測(cè)試

          4. Dropout 為什么可以減輕過(guò)擬合?

          5. BN和Dropout共同使用出現(xiàn)的問(wèn)題?

          • 答案-》11.Dropout【點(diǎn)擊原文獲取

          評(píng)價(jià)指標(biāo)?

          • 答案-》12. 評(píng)價(jià)指標(biāo)【點(diǎn)擊原文獲取

          正則化L1,L2?

          1. 什么是正則化?

          2. L1正則化 是什么?

          3. L2正則化 是什么?

          4. L1和L2正則化的區(qū)別?

          • 答案-》13.正則化L1,L2【點(diǎn)擊原文獲取

          權(quán)重初始化?

          1. 是否可以將權(quán)重初始化為0?

          • 答案-》14.權(quán)重初始化【點(diǎn)擊原文獲取

          決策樹是什么、怎么推導(dǎo)?

          1. 決策樹是什么?

          2. ID3 是什么?

            1. 什么是 信息增益?

          3. C4.5 是什么?

            1. 什么是 增益率

          4. CART決策樹 是什么?1."基尼指數(shù)" (Gini index) 是什么?

          5. 剪枝策略?

          6. 缺失值處理?

            1. 如何在屬性值缺失的情況F進(jìn)行劃分屬性選擇?

            2. 給定劃分屬性?若樣本在該屬性上的值缺失,如何對(duì)樣本進(jìn)行劃分?

          7. LR、決策樹、SVM的選擇與對(duì)比

          • 答案-》15. 決策樹【點(diǎn)擊原文獲取

          優(yōu)化算是什么?

          1. 優(yōu)化算法是什么?

          2. 梯度下降法的含義 是什么?

          3. 什么是 批量梯度下降法 (Batch Gradient Descent)?

          4. 隨機(jī)梯度下降(Stochastic Gradient Descent) 是什么?

          5. 什么是 小批量梯度下降(Mini-Batch Gradient Descent)

          6. 動(dòng)量法(Momentum)?

          7. Nesterov Momentum(Nesterov Accelerated Gradient?

          8. Adagrad法

          9. Adadelta/RMSprop

          10. Adam:Adaptive Moment Estimation自適應(yīng)矩估計(jì)

          • 答案-》17.優(yōu)化算法【點(diǎn)擊原文獲取

          線性判別分析是什么?

          1. 線性判別分析(linear discriminant analysis,LDA)是什么?

          2. LDA與PCA 異同點(diǎn) 是什么?

          3. LDA優(yōu)缺點(diǎn) 是什么?

          • 答案-》18. 線性判別分析

          KMeans是什么?

          1. KMeans是什么?

          2. KMeans 優(yōu)缺點(diǎn) 是什么?

          • 答案-》21.KMeans

          牛頓法 是什么?

          1. 牛頓法 是什么?

          • 答案-》22. 牛頓法

          缺失值的處理?

          1. 缺失值的原 是什么?

          2. 具體算法的缺失值處理?

          • 答案-》23. 缺失值的處理

          模型評(píng)估中常用的驗(yàn)證方法

          1. Holdout檢驗(yàn) 是什么?

          2. 交叉檢驗(yàn) 是什么?

          3. 自助法 是什么?

          • 答案-》24. 模型評(píng)估中常用的驗(yàn)證方法

          主成分分析

          1. 主成分分析 是什么?

          • 答案-》25. 主成分分析

          Softmax函數(shù)的特點(diǎn)和作用是什么

          1. Softmax函數(shù)的特點(diǎn)和作用是什么?

          • 答案-》26.Softmax函數(shù)的特點(diǎn)和作用是什么

          樣本不均衡是什么

          1. 導(dǎo)致模型性能降低的本質(zhì)原因是什么?

          2. 導(dǎo)致模型性能降低的解決辦法是什么?

          • 答案-》27.樣本不均衡

          損失函數(shù)

          • 答案-》 28.損失函數(shù)

          貝葉斯決策論

          • 答案-》29.貝葉斯決策論

          采樣

          • 答案-》30.采樣


          瀏覽 47
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  激情综合自拍偷拍 | 人人妻日日摸狠狠躁视频 | 欧美一级片在线观看 | 热99在线观看 | 日韩性爱一区二区三区 |