<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          美團(tuán)營銷算法實習(xí)面試題9道|含解析

          共 2777字,需瀏覽 6分鐘

           ·

          2024-04-11 02:41

          12本七月在線內(nèi)部電子書在文末,自取~

          公眾號福利

          ??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF

          ??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料

          fe0256f2eda6223c9cdef3ae1d6ff30f.webp 89d8f60aa6928f0d4d525936cc8f0f0a.webp fe0256f2eda6223c9cdef3ae1d6ff30f.webp 問題1 、如何解決過擬合和欠擬合。

          過擬 合(Overfitting):

          • 增加數(shù)據(jù)量:通過增加訓(xùn)練數(shù)據(jù)來減少模型對特定數(shù)據(jù)的過度擬合。
          • 簡化模型:減少模型的復(fù)雜度,可以通過減少特征數(shù)量、降低多項式次數(shù)等方式。
          • 正則化:引入正則化項,如L1或L2正則化,以懲罰模型復(fù)雜度。
          欠擬合(Underfitting):
          • 增加特征:添加更多有意義的特征,提高模型的表達(dá)能力。
          • 增加模型復(fù)雜度:選擇更復(fù)雜的模型,如增加層數(shù)、節(jié)點數(shù)等。
          • 減小正則化:減小正則化的程度,以允許模型更好地適應(yīng)數(shù)據(jù)。
           問題 2、L1正則化和L2正則化的區(qū)別。 L1正則化:
          • 增加的正則化項為權(quán)重向量的絕對值之和。
          • 促使模型參數(shù)變得稀疏,即某些權(quán)重變?yōu)榱悖瑥亩鴮崿F(xiàn)特征選擇的效果。
          L2正則化:
          • 增加的正則化項為權(quán)重向量的平方和。
          • 通過減小權(quán)重的同時保持它們都非零,對權(quán)重進(jìn)行平滑調(diào)整。
          區(qū)別:
          • L1正則化傾向于產(chǎn)生稀疏權(quán)重,對于特征選擇有利;
          • L2正則化則更傾向于在所有特征上產(chǎn)生較小但非零的權(quán)重。
           問題 3、什么是交叉驗證。 一種評估模型性能的統(tǒng)計學(xué)方法,通常用于訓(xùn)練樣本有限的情況。將數(shù)據(jù)集劃分為多個子集,多次訓(xùn)練模型,并在每次訓(xùn)練中使用不同的子集作為驗證集,其余作為訓(xùn)練集。常見的交叉驗證方法包括k折交叉驗證和留一法。  問題 4、隨機(jī)森林的原理和它的作用。

          原理:

          • 由多個決策樹組成,每個決策樹基于隨機(jī)抽取的數(shù)據(jù)和特征進(jìn)行訓(xùn)練。
          • 通過投票或平均等方式,集成多個樹的結(jié)果來提高模型的泛化能力。
          作用:
          • 防止過擬合,提高模型的魯棒性。
          • 在處理大規(guī)模數(shù)據(jù)時,隨機(jī)森林能夠有效地進(jìn)行并行化處理。
          • 對于高維數(shù)據(jù),具有較好的特征選擇能力。
            問題 5、三種決策樹的信息劃分準(zhǔn)則。 ID3(信息增益):使用信息熵來度量不確定性,選擇能夠最大程度減少不確定性的特征進(jìn)行劃分。 C4.5(信息增益比):在ID3的基礎(chǔ)上,引入對特征取值數(shù)目的懲罰,避免選擇取值較多的特征。 CART(基尼系數(shù)):使用基尼系數(shù)來度量數(shù)據(jù)的純度,選擇能夠最小化基尼系數(shù)的特征進(jìn)行劃分。  問題 6、集成學(xué)習(xí)中的bagging和boosting算法以及兩種的區(qū)別。 Bagging(Bootstrap Aggregating):
          • 并行訓(xùn)練多個弱學(xué)習(xí)器,每個學(xué)習(xí)器使用隨機(jī)抽樣得到的數(shù)據(jù)集。
          • 最終結(jié)果通過投票或平均等方式融合。
          Boosting:
          • 串行訓(xùn)練多個弱學(xué)習(xí)器,每個學(xué)習(xí)器嘗試修正前一個學(xué)習(xí)器的錯誤。
          • 每個學(xué)習(xí)器的權(quán)重與其表現(xiàn)相關(guān),錯誤越大權(quán)重越大。
          區(qū)別:Bagging的每個模型權(quán)重相等,Boosting的每個模型權(quán)重不同,取決于其性能。  問題 7、統(tǒng)計學(xué)中的P值是什么含義,如何通俗地解釋? 含義:P值是在原假設(shè)為真的情況下,觀察到統(tǒng)計量或更極端情況的概率。 通俗解釋:P值表示了觀察到的數(shù)據(jù)在假設(shè)成立的情況下產(chǎn)生的可能性大小。較小的P值表明數(shù)據(jù)與假設(shè)的不一致性較大。  問題8、GBDT的原理。 梯度提升決策樹(Gradient Boosting Decision Trees):通過迭代訓(xùn)練弱學(xué)習(xí)器(一般是決策樹),每次訓(xùn)練調(diào)整之前學(xué)習(xí)器的殘差,以逐步改進(jìn)模型性能。通過梯度下降優(yōu)化損失函數(shù)。可以使用回歸損失函數(shù)或分類損失函數(shù),如均方誤差或?qū)?shù)損失函數(shù)。  問題 9、編程題:有1元、4元、5元的硬幣,找到滿足15元的最少硬幣數(shù)量。

          思路:動態(tài)規(guī)劃

          代碼:

              
                  
                    
                      def min_coins(amount):
                    
                  
                  
                        coins = [1, 4, 5]
                  
                  
                        dp = [float('inf')] * (amount + 1)
                  
                  
                        dp[0] = 0
                  
                  
                        for coin in coins:
                  
                  
                            for i in range(coin, amount + 1):
                  
                  
                                dp[i] = min(dp[i], dp[i - coin] + 1)
                  
                  
                        return dp[amount]
                  
                  
                    
                      # 測試
                    
                  
                  
                    amount = 15
                  
                  
                    result = min_coins(amount)
                  
                  
                    print(f"找零 {amount} 元的最少硬幣數(shù)量為:{result}")
                  
                

          dp[i]表示找零i元所需的最少硬幣數(shù)量。通過遍歷硬幣面額,不斷更新dp數(shù)組,最終得到找零15元的最少硬幣數(shù)量。

          免費送


          ↓以下12本書電子版免費領(lǐng),直接送↓ 053d3faa27e53adf7d46d2b18c41ed05.webp

          6dec06c08c3886b8884ada3f894f327d.webp

          以上8本+2022年Q4面試題-69道》、2022年Q3面試題-83道》、2023年Q1面試題-65道》、2023年Q2面試題-103道共12本, 免費送


          掃碼回復(fù)【999】免費領(lǐng)12本電子書

                

          (或 找七月在線其他老師領(lǐng)取

          點擊 閱讀原文 ”搶寵粉 福利 ~


          瀏覽 52
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美成人性做爱视频 | 色色射| 免费看AⅤ操逼大片 | 蜜桃AV鲁一鲁 | 国产性爱免费视频 |