<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          【機(jī)器學(xué)習(xí)sklearn實(shí)戰(zhàn)】計算偏差和方差

          共 3308字,需瀏覽 7分鐘

           ·

          2024-08-06 17:28

          采用mlxtend可以很方便的計算Bias-Variance誤差分解,下面是回歸決策樹方法的偏差-方差分解。

          from mlxtend.evaluate import bias_variance_decomp
          from sklearn.tree import DecisionTreeRegressor
          from mlxtend.data import boston_housing_data
          from sklearn.model_selection import train_test_split

          X, y = boston_housing_data()
          X_train, X_test, y_train, y_test = train_test_split(X, y,
                                                              test_size=0.3,
                                                              random_state=123,
                                                              shuffle=True)

          tree = DecisionTreeRegressor(random_state=123)

          avg_expected_loss, avg_bias, avg_var = bias_variance_decomp(
                  tree, X_train, y_train, X_test, y_test, 
                  loss='mse',
                  random_seed=123)

          print('Average expected loss: %.3f' % avg_expected_loss)
          print('Average bias: %.3f' % avg_bias)
          print('Average variance: %.3f' % avg_var)

          輸出結(jié)果為:

          Average expected loss: 31.536
          Average bias: 14.096
          Average variance: 17.440

          作為對比,下面是Bagging方法的偏差-方差,可以看出采用Bagging方法可以降低variance。

          from sklearn.ensemble import BaggingRegressor

          tree = DecisionTreeRegressor(random_state=123)
          bag = BaggingRegressor(estimator=tree,
                                 n_estimators=100,
                                 random_state=123)

          avg_expected_loss, avg_bias, avg_var = bias_variance_decomp(
                  bag, X_train, y_train, X_test, y_test, 
                  loss='mse',
                  random_seed=123)

          print('Average expected loss: %.3f' % avg_expected_loss)
          print('Average bias: %.3f' % avg_bias)
          print('Average variance: %.3f' % avg_var)

          輸出結(jié)果為:

          Average expected loss: 18.620
          Average bias: 15.460
          Average variance: 3.159


          瀏覽 38
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费看h网站 | 国产盗摄成人一区二区 | 中文字幕乱码亚洲中文在线 | 日本中文字幕中文翻译歌词 | 成人午夜网址 |