<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          為什么模型復雜度增加時,模型預測的方差會增大,偏差會減?。?/h1>

          共 2360字,需瀏覽 5分鐘

           ·

          2022-02-22 12:37

          點擊上方小白學視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          編輯:憶臻

          https://www.zhihu.com/question/351352422

          本文僅作為學術分享,如果侵權,會刪文處理

          為什么模型復雜度增加時,模型預測的方差會增大,偏差會減???


          作者:徐嘯
          https://www.zhihu.com/question/351352422/answer/862023291

          題主的問題可以理解為:模型復雜度和偏差、方差之間的關系。

          首先從邏輯上解釋這三者之間的關系。從直覺上看,如果暫且忽略優(yōu)化問題,模型的復雜度越大(這里的復雜度我覺得理解為模型的“容量、能力”更便于理解),模型的擬合能力就會越強,也就更容易發(fā)生過擬合。

          那么這和方差、偏差又有什么關系呢?這里需要對偏差和方差有一定的理解:


          • 偏差(Bias):在不同訓練集上訓練得到的所有模型的平均性能最優(yōu)模型差異,可以用來衡量模型的擬合能力。

          • 方差(Variance):在不同的訓練集上訓練得到的模型之間的性能差異,表示數(shù)據(jù)擾動對模型性能的影響,可以用來衡量模型是否容易過擬合,即模型的泛化能力。



          所以,當模型的復雜度增加時,模型的擬合能力得到增強,偏差便會減小,但很有可能會由于擬合“過度”,從而對數(shù)據(jù)擾動更加敏感,導致方差增大。從模型評價上來看,模型復雜度增加后,出現(xiàn)驗證集效果提升,但是測試集效果下降的現(xiàn)象。


          接著從偏差-方差分解(Bias-Variance Decomposition),進行簡要闡述,詳細內容請見《神經網絡與深度學習》的 2.4 節(jié) 偏差-方差分解。


          為模型的期望錯誤,即為偏差,即為在訓練集上訓練得到的模型,
          指在不同訓練集上訓練得到的所有模型性能的期望值,而


          指的是最優(yōu)模型,也就是上面所說的“在不同訓練集上訓練得到的所有模型的平均性能和最優(yōu)模型的差異”。


          ,所以即為方差,表示在不同的訓練集上訓練得到的模型之間的性能差異。

          通過上述公式,可以深入理解偏差與方差的含義?;诖?,我們就可以理解下圖中偏差與方差的四種組合情況:



          以上個人淺見,如有謬誤,還望指明。



          作者:汪宇
          https://www.zhihu.com/question/351352422/answer/862120414

          如果沒理解錯,這里的assumption是:

          模型復雜度增加,模型的能力越強,使得在訓練的時候,可以更好地fit training data。

          基于這個assumption,那么看這個圖:



          from: deeplearningbook (Goodfellow, Ian, Yoshua Bengio, and Aaron Courville.Deep learning. MIT press, 2016.)


          (模型復雜度,bias, variance)的關系 和 (模型復雜度,underfitting,overfitting)的關系聯(lián)系的很緊密。


          Bias偏差衡量的是你的預測值和真實值的差距,也就是你的模型學的怎么樣。在模型capacity不夠的情況下,在underfitting的zone里,你預測的值通常跟真實值差距很大,那么bias就會比較大。隨著模型capacity增加,模型越來越強,越擬合你真實的數(shù)據(jù)值,bias會降低。


          Variance方差衡量的是‘how we would expect the estimate we compute from data to vary as we independently resample the dataset from the underlying data generating process’(from deeplearningbook)

          也就是說,衡量的是你training data如果改變,對你的模型改變大不大。通常來說,如果你的模型capacity增大,那么就更容易overfit,那么training data的改變,就會影響你的模型,也就是方差會增大;相反,如果你的模型underfit,那么training data稍微改變一些,并不會對模型產生較大影響,方差小,模型的波動小。


          下載1:OpenCV-Contrib擴展模塊中文版教程
          在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內容。

          下載2:Python視覺實戰(zhàn)項目52講
          小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學習進階。

          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~


          瀏覽 77
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報

          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  狠狠穞A片一區二區三區 | 午夜男女爽爽 | 操逼视频在线免费观看 | 综合se| 国产动态图 |