<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          深度學(xué)習(xí)預(yù)測(cè)房價(jià):回歸問題,K折交叉

          共 4510字,需瀏覽 10分鐘

           ·

          2021-11-16 00:26

          機(jī)器學(xué)習(xí)中,大部分是分類問題,另一種常見的機(jī)器學(xué)習(xí)問題是回歸問題,它預(yù)測(cè)一個(gè)連續(xù)值而不是離散的標(biāo)簽,例如,根據(jù)氣象數(shù)據(jù)預(yù)測(cè)明天的氣溫,或者根據(jù)軟件說明書預(yù)測(cè)完成軟件項(xiàng)目所需要的時(shí)間、根據(jù)消費(fèi)行為預(yù)測(cè)用戶的年齡等,今天的案例就是根據(jù)周邊的數(shù)據(jù),預(yù)測(cè)房價(jià),房價(jià)是一系列的連續(xù)值,因此是一個(gè)典型的回歸問題。

          注意:不要將回歸問題與 logistic 回歸算法混為一談。令人困惑的是,logistic 回歸不是回歸算法, 而是分類算法。

          ?

          一、波士頓房價(jià)數(shù)據(jù)集

          本節(jié)將要預(yù)測(cè) 20 世紀(jì) 70 年代中期波士頓郊區(qū)房屋價(jià)格的中位數(shù),已知當(dāng)時(shí)郊區(qū)的一些數(shù)據(jù)點(diǎn),比如犯罪率、當(dāng)?shù)胤慨a(chǎn)稅率等。本節(jié)用到的數(shù)據(jù)集與前面兩個(gè)例子有一個(gè)有趣的區(qū)別。

          它包含的數(shù)據(jù)點(diǎn)相對(duì)較少,只有 506 個(gè),分為 404 個(gè)訓(xùn)練樣本和 102 個(gè)測(cè)試樣本。輸入數(shù)據(jù)的 每個(gè)特征(比如犯罪率)都有不同的取值范圍。例如,有些特性是比例,取值范圍為 0~1;有 的取值范圍為 1~12;還有的取值范圍為 0~100,等等。

          加載波士頓房價(jià)數(shù)據(jù)

          from keras.datasets import boston_housing(train_data,train_targets),(test_data,test_targets)?=?boston_housing.load_data()

          我們來看一下數(shù)據(jù)。
          train_data.shape (404, 13) test_data.shape (102, 13)

          如你所見,我們有 404 個(gè)訓(xùn)練樣本和 102 個(gè)測(cè)試樣本,每個(gè)樣本都有 13 個(gè)數(shù)值特征,比如人均犯罪率、每個(gè)住宅的平均房間數(shù)、高速公路可達(dá)性等。目標(biāo)是房屋價(jià)格的中位數(shù),單位是千美元

          train_targetsarray([15.2, 42.3, 50. , 21.1, 17.7, 18.5, 11.3, 15.6, 15.6, 14.4, 12.1,17.9, 23.1, ......

          房價(jià)大都在 10 000~50 000 美元。折合人民幣6.5w-40w一平米,如果你覺得這很便宜,不要忘記當(dāng)時(shí)是 20 世紀(jì)70年代中期,而且這些價(jià)格沒有根據(jù)通貨膨脹進(jìn)行調(diào)整。所以一線城市的房價(jià),還大有上漲空間


          二、準(zhǔn)備數(shù)據(jù)

          將取值范圍差異很大的數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)中,這是有問題的。網(wǎng)絡(luò)可能會(huì)自動(dòng)適應(yīng)這種取值范圍不同的數(shù)據(jù),但學(xué)習(xí)肯定變得更加困難。對(duì)于這種數(shù)據(jù),普遍采用的最佳實(shí)踐是對(duì)每個(gè)特征做標(biāo)準(zhǔn)化,即對(duì)于輸入數(shù)據(jù)的每個(gè)特征(輸入數(shù)據(jù)矩陣中的列),減去特征平均值,再除 以標(biāo)準(zhǔn)差,這樣得到的特征平均值為 0,標(biāo)準(zhǔn)差為 1。用 Numpy 可以很容易實(shí)現(xiàn)標(biāo)準(zhǔn)化。

          # 數(shù)據(jù)歸一化mean = train_data.mean(axis = 0)train_data -= meanstd = train_data.std(axis = 0)train_data?/=?stdtest_data -= meantest_data /= std

          ?注意:用于測(cè)試數(shù)據(jù)標(biāo)準(zhǔn)化的均值和標(biāo)準(zhǔn)差都是在訓(xùn)練數(shù)據(jù)上計(jì)算得到的。在工作流程中,你不能使用在測(cè)試數(shù)據(jù)上計(jì)算得到的任何結(jié)果,即使是像數(shù)據(jù)標(biāo)準(zhǔn)化這么簡單的事情也不行。

          ?

          三、構(gòu)建模型框架

          由于樣本數(shù)量很少,我們將使用一個(gè)非常小的網(wǎng)絡(luò),其中包含兩個(gè)隱藏層,每層有 64 個(gè)單元。一般來說,訓(xùn)練數(shù)據(jù)越少,過擬合會(huì)越嚴(yán)重,而較小的網(wǎng)絡(luò)可以降低過擬合。

          #構(gòu)建模型框架from keras import layers from?keras?import?modelsdef build_model():    model = models.Sequential()    model.add(layers.Dense(64,activation='relu',input_shape=(train_data.shape[1],)))    model.add(layers.Dense(64,activation='relu'))    model.add(layers.Dense(1))    model.compile(optimizer='rmsprop',loss='mse',metrics=['mae'])    return model

          網(wǎng)絡(luò)的最后一層只有一個(gè)單元,沒有激活,是一個(gè)線性層。這是標(biāo)量回歸(標(biāo)量回歸是預(yù)測(cè)單一連續(xù)值的回歸)的典型設(shè)置。添加激活函數(shù)將會(huì)限制輸出范圍。例如,如果向最后一層添加 sigmoid 激活函數(shù),網(wǎng)絡(luò)只能學(xué)會(huì)預(yù)測(cè) 0~1 范圍內(nèi)的值。這里最后一層是純線性的,所以 網(wǎng)絡(luò)可以學(xué)會(huì)預(yù)測(cè)任意范圍內(nèi)的值。

          注意,編譯網(wǎng)絡(luò)用的是 mse 損失函數(shù),即均方誤差(MSE,mean squared error),預(yù)測(cè)值與 目標(biāo)值之差的平方。這是回歸問題常用的損失函數(shù)。

          在訓(xùn)練過程中還監(jiān)控一個(gè)新指標(biāo):平均絕對(duì)誤差(MAE,mean absolute error)。它是預(yù)測(cè)值 與目標(biāo)值之差的絕對(duì)值。比如,如果這個(gè)問題的 MAE 等于 0.5,就表示你預(yù)測(cè)的房價(jià)與實(shí)際價(jià)格平均相差 500 美元。


          ?

          四、利用K 折驗(yàn)證來驗(yàn)證你的方法

          為了在調(diào)節(jié)網(wǎng)絡(luò)參數(shù)(比如訓(xùn)練的輪數(shù))的同時(shí)對(duì)網(wǎng)絡(luò)進(jìn)行評(píng)估,你可以將數(shù)據(jù)劃分為訓(xùn)練集和驗(yàn)證集,正如前面例子中所做的那樣。但由于數(shù)據(jù)點(diǎn)很少,驗(yàn)證集會(huì)非常小(比如大約100 個(gè)樣本)。因此,驗(yàn)證分?jǐn)?shù)可能會(huì)有很大波動(dòng),這取決于你所選擇的驗(yàn)證集和訓(xùn)練集。也就是說,驗(yàn)證集的劃分方式可能會(huì)造成驗(yàn)證分?jǐn)?shù)上有很大的方差,這樣就無法對(duì)模型進(jìn)行可靠的評(píng)估。

          在這種情況下,最佳做法是使用 K 折交叉驗(yàn)證(見圖 3-11)。這種方法將可用數(shù)據(jù)劃分為 K個(gè)分區(qū)(K 通常取 4 或 5),實(shí)例化 K 個(gè)相同的模型,將每個(gè)模型在 K-1 個(gè)分區(qū)上訓(xùn)練,并在剩下的一個(gè)分區(qū)上進(jìn)行評(píng)估。模型的驗(yàn)證分?jǐn)?shù)等于 K 個(gè)驗(yàn)證分?jǐn)?shù)的平均值。這種方法的代碼實(shí)現(xiàn)很簡單。

          ?

          import keras import numpy as np #K折交叉驗(yàn)證k   = 5num = len(train_data)//kall_score = []for i in range(k):    X_val = train_data[i*num:(i+1)*num]    Y_val = train_targets[i*num:(i+1)*num]    X_train = np.concatenate([train_data[:i*num],train_data[(i+1)*num:]],axis=0)    Y_train = np.concatenate([train_targets[:i*num],train_targets[(i+1)*num:]],axis=0)    model = build_model()    model.fit(X_train,Y_train,epochs=100,batch_size=1,verbose=1)    val_mse,val_mae = model.evaluate(X_val,Y_val,verbose=0)    all_score.append(val_mae)

          ?

          運(yùn)行結(jié)果如下,取平均,基本上就是模型能到達(dá)的最小誤差了

          all_score[1.9652233123779297,2.5989739894866943,1.9110896587371826,2.5641400814056396, 2.337777853012085]
          np.mean(all_score) 2.275440979003906

          每次運(yùn)行模型得到的驗(yàn)證分?jǐn)?shù)有很大差異,從 1.9 到 2.6 不等。平均分?jǐn)?shù)(2.27)是比單一分?jǐn)?shù)更可靠的指標(biāo)——這就是 K 折交叉驗(yàn)證的關(guān)鍵。在這個(gè)例子中,預(yù)測(cè)的房價(jià)與實(shí)際價(jià)格平均相差 2200 美元,考慮到實(shí)際價(jià)格范圍在 10 000~50 000 美元,這一差別還是很大的。我們讓訓(xùn)練時(shí)間更長一點(diǎn),達(dá)到 500 個(gè)輪次。為了記錄模型在每輪的表現(xiàn),我們需要修改訓(xùn)練循環(huán),以保存每輪的驗(yàn)證分?jǐn)?shù)記錄。


          ?

          五、模型最后評(píng)估

          完成模型調(diào)參之后(除了輪數(shù),還可以調(diào)節(jié)隱藏層大小),你可以使用最佳參數(shù)在所有訓(xùn)練數(shù)據(jù)上訓(xùn)練最終的生產(chǎn)模型,然后觀察模型在測(cè)試集上的性能。

          model = build_model()model.fit(train_data,train_targets,epochs=100,batch_size=1,verbose=1)test_mse,test_mae = model.evaluate(test_data,test_targets,verbose=0)
          test_mae2.213838815689087
          #如果要看預(yù)測(cè)的明細(xì)結(jié)果model.predict(test_data)array([[18.471083], [20.257647], [33.627922], [23.181114], [23.600664], [29.277847], [21.298449], [17.50559 ], [21.228243]], dtype=float32)

          從上述結(jié)果來看,交叉驗(yàn)證的結(jié)果與最后的預(yù)測(cè)結(jié)果相差不大,因此要得到更準(zhǔn)的線上精度,最好選擇交叉驗(yàn)證,而不是一次性的分割驗(yàn)證。


          ···? END? ···


          一、Number(數(shù)字)
          全面掌握Python基礎(chǔ),這一篇就夠了,建議收藏
          Python基礎(chǔ)之?dāng)?shù)字(Number)超級(jí)詳解
          Python隨機(jī)模塊22個(gè)函數(shù)詳解
          Python數(shù)學(xué)math模塊55個(gè)函數(shù)詳解
          二、String(字符串)
          Python字符串的45個(gè)方法詳解
          Pandas向量化字符串操作
          三、List(列表)
          超級(jí)詳解系列-Python列表全面解析
          Python輕量級(jí)循環(huán)-列表推導(dǎo)式
          四、Tuple(元組)
          Python的元組,沒想象的那么簡單
          五、Set(集合)
          全面理解Python集合,17個(gè)方法全解,看完就夠了
          六、Dictionary(字典)
          Python字典詳解-超級(jí)完整版
          七、內(nèi)置函數(shù)
          Python初學(xué)者必須吃透這69個(gè)內(nèi)置函數(shù)!
          八、正則模塊
          Python正則表達(dá)式入門到入魔
          筆記 | 史上最全的正則表達(dá)式
          八、系統(tǒng)操作
          Python之shutil模塊11個(gè)常用函數(shù)詳解
          Python之OS模塊39個(gè)常用函數(shù)詳解
          九、進(jìn)階模塊
          【萬字長文詳解】Python庫collections,讓你擊敗99%的Pythoner
          高手如何在Python中使用collections模塊
          【萬字長文】詳解Python時(shí)間處理模塊-datetime
          掃描關(guān)注本號(hào)↓
          瀏覽 49
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  丝袜乱伦小说 | 中日欧美韩精品 | 亚洲AV免费看 | 青青草公开无码 | 国产极品无码AV在线观看 |