美團(tuán)營銷算法實習(xí)面試題9道|含解析
12本七月在線內(nèi)部電子書在文末,自取~
公眾號福利
??回復(fù)【100題】領(lǐng)取《名企AI面試100題》PDF
??回復(fù)【干貨資料】領(lǐng)取NLP、CV、ML等AI方向干貨資料
問題1 、如何解決過擬合和欠擬合。
過擬 合(Overfitting):
- 增加數(shù)據(jù)量:通過增加訓(xùn)練數(shù)據(jù)來減少模型對特定數(shù)據(jù)的過度擬合。
- 簡化模型:減少模型的復(fù)雜度,可以通過減少特征數(shù)量、降低多項式次數(shù)等方式。
- 正則化:引入正則化項,如L1或L2正則化,以懲罰模型復(fù)雜度。
- 增加特征:添加更多有意義的特征,提高模型的表達(dá)能力。
- 增加模型復(fù)雜度:選擇更復(fù)雜的模型,如增加層數(shù)、節(jié)點數(shù)等。
- 減小正則化:減小正則化的程度,以允許模型更好地適應(yīng)數(shù)據(jù)。
- 增加的正則化項為權(quán)重向量的絕對值之和。
- 促使模型參數(shù)變得稀疏,即某些權(quán)重變?yōu)榱悖瑥亩鴮崿F(xiàn)特征選擇的效果。
- 增加的正則化項為權(quán)重向量的平方和。
- 通過減小權(quán)重的同時保持它們都非零,對權(quán)重進(jìn)行平滑調(diào)整。
- L1正則化傾向于產(chǎn)生稀疏權(quán)重,對于特征選擇有利;
- L2正則化則更傾向于在所有特征上產(chǎn)生較小但非零的權(quán)重。
原理:
- 由多個決策樹組成,每個決策樹基于隨機(jī)抽取的數(shù)據(jù)和特征進(jìn)行訓(xùn)練。
- 通過投票或平均等方式,集成多個樹的結(jié)果來提高模型的泛化能力。
- 防止過擬合,提高模型的魯棒性。
- 在處理大規(guī)模數(shù)據(jù)時,隨機(jī)森林能夠有效地進(jìn)行并行化處理。
- 對于高維數(shù)據(jù),具有較好的特征選擇能力。
- 并行訓(xùn)練多個弱學(xué)習(xí)器,每個學(xué)習(xí)器使用隨機(jī)抽樣得到的數(shù)據(jù)集。
- 最終結(jié)果通過投票或平均等方式融合。
- 串行訓(xùn)練多個弱學(xué)習(xí)器,每個學(xué)習(xí)器嘗試修正前一個學(xué)習(xí)器的錯誤。
- 每個學(xué)習(xí)器的權(quán)重與其表現(xiàn)相關(guān),錯誤越大權(quán)重越大。
思路:動態(tài)規(guī)劃
代碼:
def min_coins(amount):coins = [1, 4, 5]dp = [float('inf')] * (amount + 1)dp[0] = 0for coin in coins:for i in range(coin, amount + 1):dp[i] = min(dp[i], dp[i - coin] + 1)return dp[amount]# 測試amount = 15result = min_coins(amount)print(f"找零 {amount} 元的最少硬幣數(shù)量為:{result}")
dp[i]表示找零i元所需的最少硬幣數(shù)量。通過遍歷硬幣面額,不斷更新dp數(shù)組,最終得到找零15元的最少硬幣數(shù)量。
免費送
↓以下12本書電子版免費領(lǐng),直接送↓

掃碼回復(fù)【999】免費領(lǐng)12本電子書
(或 找七月在線其他老師領(lǐng)取 )
點擊“ 閱讀原文 ”搶寵粉 福利 ~
評論
圖片
表情
