<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          史詩級(jí)萬字干貨,kNN算法。

          共 46377字,需瀏覽 93分鐘

           ·

          2021-05-07 00:43

          大家好,我是 Jack。

          五一假期過的怎么樣?

          我是過上了,晚10點(diǎn)睡,早6點(diǎn)起的生活。

          上午的時(shí)間充裕了很多,可以做很多事情,一下子有一種白天時(shí)間變長(zhǎng)的錯(cuò)覺。

          最近,有一些讀者問,我的機(jī)器學(xué)習(xí)系列文章,公眾號(hào)里怎么沒有。

          那些都是17年寫的文章了,當(dāng)時(shí)還沒有自己的公眾號(hào),只發(fā)在了CSDN和個(gè)人網(wǎng)站。

          問的人不少,所以為了方便大家查看,我后續(xù)會(huì)重新整理、完善下這個(gè)系列,發(fā)到公眾號(hào)上。

          頻率不會(huì)太高,每個(gè)月更新一兩篇,然后再把后面斷更的內(nèi)容爭(zhēng)取陸續(xù)補(bǔ)上。

          趁著假期,編輯了一期k-近鄰(kNN)算法,通俗易懂,采用 python3 一步一步編程實(shí)現(xiàn),本文可以以下實(shí)戰(zhàn)內(nèi)容:

          • 電影類別分類
          • 約會(huì)網(wǎng)站配對(duì)效果判定
          • 手寫數(shù)字識(shí)別

          一、電影類別分類:初識(shí)kNN

          k近鄰法(k-nearest neighbor, k-NN)是1967年由Cover THart P提出的一種基本分類與回歸方法。

          它的工作原理是:存在一個(gè)樣本數(shù)據(jù)集合,也稱作為訓(xùn)練樣本集,并且樣本集中每個(gè)數(shù)據(jù)都存在標(biāo)簽,即我們知道樣本集中每一個(gè)數(shù)據(jù)與所屬分類的對(duì)應(yīng)關(guān)系。

          輸入沒有標(biāo)簽的新數(shù)據(jù)后,將新的數(shù)據(jù)的每個(gè)特征與樣本集中數(shù)據(jù)對(duì)應(yīng)的特征進(jìn)行比較,然后算法提取樣本最相似數(shù)據(jù)(最近鄰)的分類標(biāo)簽。

          一般來說,我們只選擇樣本數(shù)據(jù)集中前k個(gè)最相似的數(shù)據(jù),這就是k-近鄰算法中k的出處,通常k是不大于20的整數(shù)。

          最后,選擇k個(gè)最相似數(shù)據(jù)中出現(xiàn)次數(shù)最多的分類,作為新數(shù)據(jù)的分類。

          舉個(gè)簡(jiǎn)單的例子,我們可以使用k-近鄰算法分類一個(gè)電影是愛情片還是動(dòng)作片。

          表1.1

          上表1.1,就是我們已有的數(shù)據(jù)集合,也就是訓(xùn)練樣本集。

          這個(gè)數(shù)據(jù)集有兩個(gè)特征,即打斗鏡頭數(shù)和接吻鏡頭數(shù)。

          除此之外,我們也知道每個(gè)電影的所屬類型,即分類標(biāo)簽。用肉眼粗略地觀察,接吻鏡頭多的,是愛情片。打斗鏡頭多的,是動(dòng)作片。

          以我們多年的看片經(jīng)驗(yàn),這個(gè)分類還算合理。如果現(xiàn)在給我一部電影,你告訴我這個(gè)電影打斗鏡頭數(shù)和接吻鏡頭數(shù)。不告訴我這個(gè)電影類型,我可以根據(jù)你給我的信息進(jìn)行判斷,這個(gè)電影是屬于愛情片還是動(dòng)作片。

          而k-近鄰算法也可以像我們?nèi)艘粯幼龅竭@一點(diǎn),不同的地方在于,我們的經(jīng)驗(yàn)更"牛逼",而k-近鄰算法是靠已有的數(shù)據(jù)。

          比如,你告訴我這個(gè)電影打斗鏡頭數(shù)為2,接吻鏡頭數(shù)為102,我的經(jīng)驗(yàn)會(huì)告訴你這個(gè)是愛情片,k-近鄰算法也會(huì)告訴你這個(gè)是愛情片。

          你又告訴我另一個(gè)電影打斗鏡頭數(shù)為49,接吻鏡頭數(shù)為51,我"邪惡"的經(jīng)驗(yàn)可能會(huì)告訴你,這有可能是個(gè)"愛情動(dòng)作片"。

          但是k-近鄰算法不會(huì)告訴你這些,因?yàn)樵谒难劾?,電影類型只有愛情片和?dòng)作片,它會(huì)提取樣本集中特征最相似數(shù)據(jù)(最鄰近)的分類標(biāo)簽,得到的結(jié)果可能是愛情片,也可能是動(dòng)作片,但絕不會(huì)是"愛情動(dòng)作片"。

          當(dāng)然,這些取決于數(shù)據(jù)集的大小以及最近鄰的判斷標(biāo)準(zhǔn)等因素。

          kNN的距離度量

          我們已經(jīng)知道k-近鄰算法根據(jù)特征比較,然后提取樣本集中特征最相似數(shù)據(jù)(最鄰近)的分類標(biāo)簽。

          那么,如何進(jìn)行比較呢?比如,我們還是以表1.1為例,怎么判斷紅色圓點(diǎn)標(biāo)記的電影所屬的類別呢?如下圖所示。

          我們可以從散點(diǎn)圖大致推斷,這個(gè)紅色圓點(diǎn)標(biāo)記的電影可能屬于動(dòng)作片,因?yàn)榫嚯x已知的那兩個(gè)動(dòng)作片的圓點(diǎn)更近。

          k-近鄰算法用什么方法進(jìn)行判斷呢?沒錯(cuò),就是距離度量。這個(gè)電影分類的例子有2個(gè)特征,也就是在2維實(shí)數(shù)向量空間,可以使用我們高中學(xué)過的兩點(diǎn)距離公式計(jì)算距離:

          通過計(jì)算,我們可以得到如下結(jié)果:

          • (101,20)->動(dòng)作片(108,5)的距離約為16.55
          • (101,20)->動(dòng)作片(115,8)的距離約為18.44
          • (101,20)->愛情片(5,89)的距離約為118.22
          • (101,20)->愛情片(1,101)的距離約為128.69

          通過計(jì)算可知,紅色圓點(diǎn)標(biāo)記的電影到動(dòng)作片 (108,5)的距離最近,為16.55

          如果算法直接根據(jù)這個(gè)結(jié)果,判斷該紅色圓點(diǎn)標(biāo)記的電影為動(dòng)作片,這個(gè)算法就是最近鄰算法,而非k-近鄰算法。那么k-近鄰算法是什么呢?k-近鄰算法步驟如下:

          1. 計(jì)算已知類別數(shù)據(jù)集中的點(diǎn)與當(dāng)前點(diǎn)之間的距離;
          2. 按照距離遞增次序排序;
          3. 選取與當(dāng)前點(diǎn)距離最小的k個(gè)點(diǎn);
          4. 確定前k個(gè)點(diǎn)所在類別的出現(xiàn)頻率;
          5. 返回前k個(gè)點(diǎn)所出現(xiàn)頻率最高的類別作為當(dāng)前點(diǎn)的預(yù)測(cè)分類。

          比如,現(xiàn)在我這個(gè)k值取3,那么在電影例子中,按距離依次排序的三個(gè)點(diǎn)分別是動(dòng)作片(108,5)、動(dòng)作片(115,8)、愛情片(5,89)。

          在這三個(gè)點(diǎn)中,動(dòng)作片出現(xiàn)的頻率為三分之二,愛情片出現(xiàn)的頻率為三分之一,所以該紅色圓點(diǎn)標(biāo)記的電影為動(dòng)作片。這個(gè)判別過程就是k-近鄰算法。

          編程實(shí)現(xiàn)

          我們已經(jīng)知道了k-近鄰算法的原理,那么接下來就是使用Python3實(shí)現(xiàn)該算法,依然以電影分類為例。

          1、準(zhǔn)備數(shù)據(jù)

          對(duì)于表1.1中的數(shù)據(jù),我們可以使用numpy直接創(chuàng)建,代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np

          """
          函數(shù)說明:創(chuàng)建數(shù)據(jù)集

          Parameters:
              無
          Returns:
              group - 數(shù)據(jù)集
              labels - 分類標(biāo)簽
          """

          def createDataSet():
              #四組二維特征
              group = np.array([[1,101],[5,89],[108,5],[115,8]])
              #四組特征的標(biāo)簽
              labels = ['愛情片','愛情片','動(dòng)作片','動(dòng)作片']
              return group, labels
          if __name__ == '__main__':
              #創(chuàng)建數(shù)據(jù)集
              group, labels = createDataSet()
              #打印數(shù)據(jù)集
              print(group)
              print(labels)

          運(yùn)行結(jié)果如下:

          2、k-近鄰算法

          根據(jù)兩點(diǎn)距離公式,計(jì)算距離,選擇距離最小的前k個(gè)點(diǎn),并返回分類結(jié)果。

          # -*- coding: UTF-8 -*-
          import numpy as np
          import operator

          """
          函數(shù)說明:創(chuàng)建數(shù)據(jù)集

          Parameters:
              無
          Returns:
              group - 數(shù)據(jù)集
              labels - 分類標(biāo)簽
          """

          def createDataSet():
              #四組二維特征
              group = np.array([[1,101],[5,89],[108,5],[115,8]])
              #四組特征的標(biāo)簽
              labels = ['愛情片','愛情片','動(dòng)作片','動(dòng)作片']
              return group, labels

          """
          函數(shù)說明:kNN算法,分類器

          Parameters:
              inX - 用于分類的數(shù)據(jù)(測(cè)試集)
              dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
              labes - 分類標(biāo)簽
              k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
          Returns:
              sortedClassCount[0][0] - 分類結(jié)果
          """

          def classify0(inX, dataSet, labels, k):
              #numpy函數(shù)shape[0]返回dataSet的行數(shù)
              dataSetSize = dataSet.shape[0]
              #在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
              diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
              #二維特征相減后平方
              sqDiffMat = diffMat**2
              #sum()所有元素相加,sum(0)列相加,sum(1)行相加
              sqDistances = sqDiffMat.sum(axis=1)
              #開方,計(jì)算出距離
              distances = sqDistances**0.5
              #返回distances中元素從小到大排序后的索引值
              sortedDistIndices = distances.argsort()
              #定一個(gè)記錄類別次數(shù)的字典
              classCount = {}
              for i in range(k):
                  #取出前k個(gè)元素的類別
                  voteIlabel = labels[sortedDistIndices[i]]
                  #dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
                  #計(jì)算類別次數(shù)
                  classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
              #python3中用items()替換python2中的iteritems()
              #key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
              #key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
              #reverse降序排序字典
              sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
              #返回次數(shù)最多的類別,即所要分類的類別
              return sortedClassCount[0][0]

          if __name__ == '__main__':
              #創(chuàng)建數(shù)據(jù)集
              group, labels = createDataSet()
              #測(cè)試集
              test = [101,20]
              #kNN分類
              test_class = classify0(test, group, labels, 3)
              #打印分類結(jié)果
              print(test_class)

          運(yùn)行結(jié)果如下:

          可以看到,分類結(jié)果根據(jù)我們的"經(jīng)驗(yàn)",是正確的,盡管這種分類比較耗時(shí),用時(shí)1.4s。

          到這里,也許有人早已經(jīng)發(fā)現(xiàn),電影例子中的特征是2維的,這樣的距離度量可以用兩點(diǎn)距離公式計(jì)算,但是如果是更高維的呢?

          對(duì),沒錯(cuò)。我們可以用歐氏距離(也稱歐幾里德度量),如圖下圖所示。

          我們高中所學(xué)的兩點(diǎn)距離公式就是歐氏距離在二維空間上的公式,也就是歐氏距離的n的值為2的情況。

          看到這里,有人可能會(huì)問:“分類器何種情況下會(huì)出錯(cuò)?”或者“答案是否總是正確的?”答案是否定的,分類器并不會(huì)得到百分百正確的結(jié)果,我們可以使用多種方法檢測(cè)分類器的正確率。

          此外分類器的性能也會(huì)受到多種因素的影響,如分類器設(shè)置和數(shù)據(jù)集等。不同的算法在不同數(shù)據(jù)集上的表現(xiàn)可能完全不同。

          為了測(cè)試分類器的效果,我們可以使用已知答案的數(shù)據(jù),當(dāng)然答案不能告訴分類器,檢驗(yàn)分類器給出的結(jié)果是否符合預(yù)期結(jié)果。

          通過大量的測(cè)試數(shù)據(jù),我們可以得到分類器的錯(cuò)誤率,即分類器給出錯(cuò)誤結(jié)果的次數(shù)除以測(cè)試執(zhí)行的總數(shù)。

          錯(cuò)誤率是常用的評(píng)估方法,主要用于評(píng)估分類器在某個(gè)數(shù)據(jù)集上的執(zhí)行效果。完美分類器的錯(cuò)誤率為0,最差分類器的錯(cuò)誤率是1.0。

          同時(shí),我們也不難發(fā)現(xiàn),k-近鄰算法沒有進(jìn)行數(shù)據(jù)的訓(xùn)練,直接使用未知的數(shù)據(jù)與已知的數(shù)據(jù)進(jìn)行比較,得到結(jié)果。因此,可以說k-近鄰算法不具有顯式的學(xué)習(xí)過程。

          二、約會(huì)網(wǎng)站配對(duì)效果判定

          上一小結(jié)學(xué)習(xí)了簡(jiǎn)單的k-近鄰算法的實(shí)現(xiàn)方法,但是這并不是完整的k-近鄰算法流程,k-近鄰算法的一般流程:

          1. 收集數(shù)據(jù):可以使用爬蟲進(jìn)行數(shù)據(jù)的收集,也可以使用第三方提供的免費(fèi)或收費(fèi)的數(shù)據(jù)。一般來講,數(shù)據(jù)放在txt文本文件中,按照一定的格式進(jìn)行存儲(chǔ),便于解析及處理。
          2. 準(zhǔn)備數(shù)據(jù):使用Python解析、預(yù)處理數(shù)據(jù)。
          3. 分析數(shù)據(jù):可以使用很多方法對(duì)數(shù)據(jù)進(jìn)行分析,例如使用Matplotlib將數(shù)據(jù)可視化。
          4. 測(cè)試算法:計(jì)算錯(cuò)誤率。
          5. 使用算法:錯(cuò)誤率在可接受范圍內(nèi),就可以運(yùn)行k-近鄰算法進(jìn)行分類。

          已經(jīng)了解了k-近鄰算法的一般流程,下面開始進(jìn)入實(shí)戰(zhàn)內(nèi)容。

          1、實(shí)戰(zhàn)背景

          海倫女士一直使用在線約會(huì)網(wǎng)站尋找適合自己的約會(huì)對(duì)象。盡管約會(huì)網(wǎng)站會(huì)推薦不同的任選,但她并不是喜歡每一個(gè)人。經(jīng)過一番總結(jié),她發(fā)現(xiàn)自己交往過的人可以進(jìn)行如下分類:

          • 不喜歡的人
          • 魅力一般的人
          • 極具魅力的人

          海倫收集約會(huì)數(shù)據(jù)已經(jīng)有了一段時(shí)間,她把這些數(shù)據(jù)存放在文本文件datingTestSet.txt中,每個(gè)樣本數(shù)據(jù)占據(jù)一行,總共有1000行。datingTestSet.txt數(shù)據(jù)下載(提取碼:pmsk):

          https://pan.baidu.com/s/1XWnQwKzh-ssrh0w3jRWcCA

          海倫收集的樣本數(shù)據(jù)主要包含以下3種特征:

          • 每年獲得的飛行??屠锍虜?shù)
          • 玩視頻游戲所消耗時(shí)間百分比
          • 每周消費(fèi)的冰淇淋公升數(shù)

          這里不得不吐槽一句,海倫是個(gè)吃貨啊,冰淇淋公斤數(shù)都影響自己擇偶標(biāo)準(zhǔn)。打開txt文本文件,數(shù)據(jù)格式如下圖所示:

          2、準(zhǔn)備數(shù)據(jù):數(shù)據(jù)解析

          在將上述特征數(shù)據(jù)輸入到分類器前,必須將待處理的數(shù)據(jù)的格式改變?yōu)榉诸惼骺梢越邮盏母袷?。分類器接收的?shù)據(jù)是什么格式的?從上小結(jié)已經(jīng)知道,要將數(shù)據(jù)分類兩部分,即特征矩陣和對(duì)應(yīng)的分類標(biāo)簽向量。

          創(chuàng)建一個(gè)kNN_test02.py文件,并寫一個(gè)為file2matrix的函數(shù),以此來處理輸入格式問題。

          datingTestSet.txt放到與kNN_test02.py相同目錄下,編寫代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np
          """
          函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力

          Parameters:
              filename - 文件名
          Returns:
              returnMat - 特征矩陣
              classLabelVector - 分類Label向量
          """

          def file2matrix(filename):
              #打開文件
              fr = open(filename)
              #讀取文件所有內(nèi)容
              arrayOLines = fr.readlines()
              #得到文件行數(shù)
              numberOfLines = len(arrayOLines)
              #返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
              returnMat = np.zeros((numberOfLines,3))
              #返回的分類標(biāo)簽向量
              classLabelVector = []
              #行的索引值
              index = 0
              for line in arrayOLines:
                  #s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
                  line = line.strip()
                  #使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
                  listFromLine = line.split('\t')
                  #將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
                  returnMat[index,:] = listFromLine[0:3]
                  #根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
                  if listFromLine[-1] == 'didntLike':
                      classLabelVector.append(1)
                  elif listFromLine[-1] == 'smallDoses':
                      classLabelVector.append(2)
                  elif listFromLine[-1] == 'largeDoses':
                      classLabelVector.append(3)
                  index += 1
              return returnMat, classLabelVector

          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              #打開的文件名
              filename = "datingTestSet.txt"
              #打開并處理數(shù)據(jù)
              datingDataMat, datingLabels = file2matrix(filename)
              print(datingDataMat)
              print(datingLabels)

          運(yùn)行上述代碼,得到的數(shù)據(jù)解析結(jié)果如下:

          可以看到,我們已經(jīng)順利導(dǎo)入數(shù)據(jù),并對(duì)數(shù)據(jù)進(jìn)行解析,格式化為分類器需要的數(shù)據(jù)格式。接著我們需要了解數(shù)據(jù)的真正含義。可以通過友好、直觀的圖形化的方式觀察數(shù)據(jù)。

          3、分析數(shù)據(jù):數(shù)據(jù)可視化

          kNN_test02.py文件中編寫名為showdatas的函數(shù),用來將數(shù)據(jù)可視化。編寫代碼如下:

          # -*- coding: UTF-8 -*-
          from matplotlib.font_manager import FontProperties
          import matplotlib.lines as mlines
          import matplotlib.pyplot as plt
          import numpy as np

          """
          函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力

          Parameters:
              filename - 文件名
          Returns:
              returnMat - 特征矩陣
              classLabelVector - 分類Label向量
          """

          def file2matrix(filename):
              #打開文件
              fr = open(filename)
              #讀取文件所有內(nèi)容
              arrayOLines = fr.readlines()
              #得到文件行數(shù)
              numberOfLines = len(arrayOLines)
              #返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
              returnMat = np.zeros((numberOfLines,3))
              #返回的分類標(biāo)簽向量
              classLabelVector = []
              #行的索引值
              index = 0
              for line in arrayOLines:
                  #s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
                  line = line.strip()
                  #使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
                  listFromLine = line.split('\t')
                  #將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
                  returnMat[index,:] = listFromLine[0:3]
                  #根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
                  if listFromLine[-1] == 'didntLike':
                      classLabelVector.append(1)
                  elif listFromLine[-1] == 'smallDoses':
                      classLabelVector.append(2)
                  elif listFromLine[-1] == 'largeDoses':
                      classLabelVector.append(3)
                  index += 1
              return returnMat, classLabelVector

          """
          函數(shù)說明:可視化數(shù)據(jù)

          Parameters:
              datingDataMat - 特征矩陣
              datingLabels - 分類Label
          Returns:
              無
          """

          def showdatas(datingDataMat, datingLabels):
              #設(shè)置漢字格式
              font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14)
              #將fig畫布分隔成1行1列,不共享x軸和y軸,fig畫布的大小為(13,8)
              #當(dāng)nrow=2,nclos=2時(shí),代表fig畫布被分為四個(gè)區(qū)域,axs[0][0]表示第一行第一個(gè)區(qū)域
              fig, axs = plt.subplots(nrows=2, ncols=2,sharex=False, sharey=False, figsize=(13,8))

              numberOfLabels = len(datingLabels)
              LabelsColors = []
              for i in datingLabels:
                  if i == 1:
                      LabelsColors.append('black')
                  if i == 2:
                      LabelsColors.append('orange')
                  if i == 3:
                      LabelsColors.append('red')
              #畫出散點(diǎn)圖,以datingDataMat矩陣的第一(飛行??屠?、第二列(玩游戲)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
              axs[0][0].scatter(x=datingDataMat[:,0], y=datingDataMat[:,1], color=LabelsColors,s=15, alpha=.5)
              #設(shè)置標(biāo)題,x軸label,y軸label
              axs0_title_text = axs[0][0].set_title(u'每年獲得的飛行常客里程數(shù)與玩視頻游戲所消耗時(shí)間占比',FontProperties=font)
              axs0_xlabel_text = axs[0][0].set_xlabel(u'每年獲得的飛行??屠锍虜?shù)',FontProperties=font)
              axs0_ylabel_text = axs[0][0].set_ylabel(u'玩視頻游戲所消耗時(shí)間占',FontProperties=font)
              plt.setp(axs0_title_text, size=9, weight='bold', color='red'
              plt.setp(axs0_xlabel_text, size=7, weight='bold', color='black'
              plt.setp(axs0_ylabel_text, size=7, weight='bold', color='black')

              #畫出散點(diǎn)圖,以datingDataMat矩陣的第一(飛行??屠?、第三列(冰激凌)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
              axs[0][1].scatter(x=datingDataMat[:,0], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
              #設(shè)置標(biāo)題,x軸label,y軸label
              axs1_title_text = axs[0][1].set_title(u'每年獲得的飛行??屠锍虜?shù)與每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
              axs1_xlabel_text = axs[0][1].set_xlabel(u'每年獲得的飛行??屠锍虜?shù)',FontProperties=font)
              axs1_ylabel_text = axs[0][1].set_ylabel(u'每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
              plt.setp(axs1_title_text, size=9, weight='bold', color='red'
              plt.setp(axs1_xlabel_text, size=7, weight='bold', color='black'
              plt.setp(axs1_ylabel_text, size=7, weight='bold', color='black')

              #畫出散點(diǎn)圖,以datingDataMat矩陣的第二(玩游戲)、第三列(冰激凌)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
              axs[1][0].scatter(x=datingDataMat[:,1], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
              #設(shè)置標(biāo)題,x軸label,y軸label
              axs2_title_text = axs[1][0].set_title(u'玩視頻游戲所消耗時(shí)間占比與每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
              axs2_xlabel_text = axs[1][0].set_xlabel(u'玩視頻游戲所消耗時(shí)間占比',FontProperties=font)
              axs2_ylabel_text = axs[1][0].set_ylabel(u'每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
              plt.setp(axs2_title_text, size=9, weight='bold', color='red'
              plt.setp(axs2_xlabel_text, size=7, weight='bold', color='black'
              plt.setp(axs2_ylabel_text, size=7, weight='bold', color='black')
              #設(shè)置圖例
              didntLike = mlines.Line2D([], [], color='black', marker='.',
                                markersize=6, label='didntLike')
              smallDoses = mlines.Line2D([], [], color='orange', marker='.',
                                markersize=6, label='smallDoses')
              largeDoses = mlines.Line2D([], [], color='red', marker='.',
                                markersize=6, label='largeDoses')
              #添加圖例
              axs[0][0].legend(handles=[didntLike,smallDoses,largeDoses])
              axs[0][1].legend(handles=[didntLike,smallDoses,largeDoses])
              axs[1][0].legend(handles=[didntLike,smallDoses,largeDoses])
              #顯示圖片
              plt.show()

          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              #打開的文件名
              filename = "datingTestSet.txt"
              #打開并處理數(shù)據(jù)
              datingDataMat, datingLabels = file2matrix(filename)
              showdatas(datingDataMat, datingLabels)

          運(yùn)行上述代碼,可以看到可視化結(jié)果如下:

          通過數(shù)據(jù)可以很直觀的發(fā)現(xiàn)數(shù)據(jù)的規(guī)律,比如以玩游戲所消耗時(shí)間占比與每年獲得的飛行??屠锍虜?shù),只考慮這二維的特征信息,給我的感覺就是海倫喜歡有生活質(zhì)量的男人。為什么這么說呢?每年獲得的飛行常客里程數(shù)表明,海倫喜歡能享受飛行常客獎(jiǎng)勵(lì)計(jì)劃的男人,但是不能經(jīng)常坐飛機(jī),疲于奔波,滿世界飛。

          同時(shí),這個(gè)男人也要玩視頻游戲,并且占一定時(shí)間比例。能到處飛,又能經(jīng)常玩游戲的男人是什么樣的男人?很顯然,有生活質(zhì)量,并且生活悠閑的人。我的分析,僅僅是通過可視化的數(shù)據(jù)總結(jié)的個(gè)人看法。我想,每個(gè)人的感受應(yīng)該也是不盡相同的。

          4、準(zhǔn)備數(shù)據(jù):數(shù)據(jù)歸一化

          下表給出了四組樣本,如果想要計(jì)算樣本3和樣本4之間的距離,可以使用歐式距離公式計(jì)算。

          計(jì)算方法如下所示:

          我們很容易發(fā)現(xiàn),上面方程中數(shù)字差值最大的屬性對(duì)計(jì)算結(jié)果的影響最大,也就是說,每年獲取的飛行??屠锍虜?shù)對(duì)于計(jì)算結(jié)果的影響將遠(yuǎn)遠(yuǎn)大于上表中其他兩個(gè)特征-玩視頻游戲所耗時(shí)間占比和每周消費(fèi)冰淇淋公斤數(shù)的影響。

          而產(chǎn)生這種現(xiàn)象的唯一原因,僅僅是因?yàn)轱w行??屠锍虜?shù)遠(yuǎn)大于其他特征值。但海倫認(rèn)為這三種特征是同等重要的,因此作為三個(gè)等權(quán)重的特征之一,飛行??屠锍虜?shù)并不應(yīng)該如此嚴(yán)重地影響到計(jì)算結(jié)果。

          在處理這種不同取值范圍的特征值時(shí),我們通常采用的方法是將數(shù)值歸一化,如將取值范圍處理為或者-1之間。下面的公式可以將任意取值范圍的特征值轉(zhuǎn)化為區(qū)間內(nèi)的值:

          newValue = (oldValue - min) / (max - min)

          其中minmax分別是數(shù)據(jù)集中的最小特征值和最大特征值。雖然改變數(shù)值取值范圍增加了分類器的復(fù)雜度,但為了得到準(zhǔn)確結(jié)果,我們必須這樣做。在kNN_test02.py文件中編寫名為autoNorm的函數(shù),用該函數(shù)自動(dòng)將數(shù)據(jù)歸一化。代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np

          """
          函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力

          Parameters:
              filename - 文件名
          Returns:
              returnMat - 特征矩陣
              classLabelVector - 分類Label向量
          """

          def file2matrix(filename):
              #打開文件
              fr = open(filename)
              #讀取文件所有內(nèi)容
              arrayOLines = fr.readlines()
              #得到文件行數(shù)
              numberOfLines = len(arrayOLines)
              #返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
              returnMat = np.zeros((numberOfLines,3))
              #返回的分類標(biāo)簽向量
              classLabelVector = []
              #行的索引值
              index = 0
              for line in arrayOLines:
                  #s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
                  line = line.strip()
                  #使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
                  listFromLine = line.split('\t')
                  #將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
                  returnMat[index,:] = listFromLine[0:3]
                  #根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
                  if listFromLine[-1] == 'didntLike':
                      classLabelVector.append(1)
                  elif listFromLine[-1] == 'smallDoses':
                      classLabelVector.append(2)
                  elif listFromLine[-1] == 'largeDoses':
                      classLabelVector.append(3)
                  index += 1
              return returnMat, classLabelVector

          """
          函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化

          Parameters:
              dataSet - 特征矩陣
          Returns:
              normDataSet - 歸一化后的特征矩陣
              ranges - 數(shù)據(jù)范圍
              minVals - 數(shù)據(jù)最小值
          """

          def autoNorm(dataSet):
              #獲得數(shù)據(jù)的最小值
              minVals = dataSet.min(0)
              maxVals = dataSet.max(0)
              #最大值和最小值的范圍
              ranges = maxVals - minVals
              #shape(dataSet)返回dataSet的矩陣行列數(shù)
              normDataSet = np.zeros(np.shape(dataSet))
              #返回dataSet的行數(shù)
              m = dataSet.shape[0]
              #原始值減去最小值
              normDataSet = dataSet - np.tile(minVals, (m, 1))
              #除以最大和最小值的差,得到歸一化數(shù)據(jù)
              normDataSet = normDataSet / np.tile(ranges, (m, 1))
              #返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
              return normDataSet, ranges, minVals

          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              #打開的文件名
              filename = "datingTestSet.txt"
              #打開并處理數(shù)據(jù)
              datingDataMat, datingLabels = file2matrix(filename)
              normDataSet, ranges, minVals = autoNorm(datingDataMat)
              print(normDataSet)
              print(ranges)
              print(minVals)

          運(yùn)行上述代碼,得到結(jié)果如下所示:

          從運(yùn)行結(jié)果可以看到,我們已經(jīng)順利將數(shù)據(jù)歸一化了,并且求出了數(shù)據(jù)的取值范圍和數(shù)據(jù)的最小值,這兩個(gè)值是在分類的時(shí)候需要用到的,直接先求解出來,也算是對(duì)數(shù)據(jù)預(yù)處理了。

          5、測(cè)試算法:驗(yàn)證分類器

          機(jī)器學(xué)習(xí)算法一個(gè)很重要的工作就是評(píng)估算法的正確率,通常我們只提供已有數(shù)據(jù)的90%作為訓(xùn)練樣本來訓(xùn)練分類器,而使用其余的10%數(shù)據(jù)去測(cè)試分類器,檢測(cè)分類器的正確率。

          需要注意的是,10%的測(cè)試數(shù)據(jù)應(yīng)該是隨機(jī)選擇的,由于海倫提供的數(shù)據(jù)并沒有按照特定目的來排序,所以我們可以隨意選擇10%數(shù)據(jù)而不影響其隨機(jī)性。

          為了測(cè)試分類器效果,在kNN_test02.py文件中創(chuàng)建函數(shù)datingClassTest,編寫代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np
          import operator

          """
          函數(shù)說明:kNN算法,分類器

          Parameters:
              inX - 用于分類的數(shù)據(jù)(測(cè)試集)
              dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
              labes - 分類標(biāo)簽
              k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
          Returns:
              sortedClassCount[0][0] - 分類結(jié)果
          """

          def classify0(inX, dataSet, labels, k):
              #numpy函數(shù)shape[0]返回dataSet的行數(shù)
              dataSetSize = dataSet.shape[0]
              #在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
              diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
              #二維特征相減后平方
              sqDiffMat = diffMat**2
              #sum()所有元素相加,sum(0)列相加,sum(1)行相加
              sqDistances = sqDiffMat.sum(axis=1)
              #開方,計(jì)算出距離
              distances = sqDistances**0.5
              #返回distances中元素從小到大排序后的索引值
              sortedDistIndices = distances.argsort()
              #定一個(gè)記錄類別次數(shù)的字典
              classCount = {}
              for i in range(k):
                  #取出前k個(gè)元素的類別
                  voteIlabel = labels[sortedDistIndices[i]]
                  #dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
                  #計(jì)算類別次數(shù)
                  classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
              #python3中用items()替換python2中的iteritems()
              #key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
              #key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
              #reverse降序排序字典
              sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
              #返回次數(shù)最多的類別,即所要分類的類別
              return sortedClassCount[0][0]

          """
          函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力

          Parameters:
              filename - 文件名
          Returns:
              returnMat - 特征矩陣
              classLabelVector - 分類Label向量
          """

          def file2matrix(filename):
              #打開文件
              fr = open(filename)
              #讀取文件所有內(nèi)容
              arrayOLines = fr.readlines()
              #得到文件行數(shù)
              numberOfLines = len(arrayOLines)
              #返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
              returnMat = np.zeros((numberOfLines,3))
              #返回的分類標(biāo)簽向量
              classLabelVector = []
              #行的索引值
              index = 0
              for line in arrayOLines:
                  #s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
                  line = line.strip()
                  #使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
                  listFromLine = line.split('\t')
                  #將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
                  returnMat[index,:] = listFromLine[0:3]
                  #根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
                  if listFromLine[-1] == 'didntLike':
                      classLabelVector.append(1)
                  elif listFromLine[-1] == 'smallDoses':
                      classLabelVector.append(2)
                  elif listFromLine[-1] == 'largeDoses':
                      classLabelVector.append(3)
                  index += 1
              return returnMat, classLabelVector

          """
          函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化

          Parameters:
              dataSet - 特征矩陣
          Returns:
              normDataSet - 歸一化后的特征矩陣
              ranges - 數(shù)據(jù)范圍
              minVals - 數(shù)據(jù)最小值
          """

          def autoNorm(dataSet):
              #獲得數(shù)據(jù)的最小值
              minVals = dataSet.min(0)
              maxVals = dataSet.max(0)
              #最大值和最小值的范圍
              ranges = maxVals - minVals
              #shape(dataSet)返回dataSet的矩陣行列數(shù)
              normDataSet = np.zeros(np.shape(dataSet))
              #返回dataSet的行數(shù)
              m = dataSet.shape[0]
              #原始值減去最小值
              normDataSet = dataSet - np.tile(minVals, (m, 1))
              #除以最大和最小值的差,得到歸一化數(shù)據(jù)
              normDataSet = normDataSet / np.tile(ranges, (m, 1))
              #返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
              return normDataSet, ranges, minVals


          """
          函數(shù)說明:分類器測(cè)試函數(shù)

          Parameters:
              無
          Returns:
              normDataSet - 歸一化后的特征矩陣
              ranges - 數(shù)據(jù)范圍
              minVals - 數(shù)據(jù)最小值
          """

          def datingClassTest():
              #打開的文件名
              filename = "datingTestSet.txt"
              #將返回的特征矩陣和分類向量分別存儲(chǔ)到datingDataMat和datingLabels中
              datingDataMat, datingLabels = file2matrix(filename)
              #取所有數(shù)據(jù)的百分之十
              hoRatio = 0.10
              #數(shù)據(jù)歸一化,返回歸一化后的矩陣,數(shù)據(jù)范圍,數(shù)據(jù)最小值
              normMat, ranges, minVals = autoNorm(datingDataMat)
              #獲得normMat的行數(shù)
              m = normMat.shape[0]
              #百分之十的測(cè)試數(shù)據(jù)的個(gè)數(shù)
              numTestVecs = int(m * hoRatio)
              #分類錯(cuò)誤計(jì)數(shù)
              errorCount = 0.0

              for i in range(numTestVecs):
                  #前numTestVecs個(gè)數(shù)據(jù)作為測(cè)試集,后m-numTestVecs個(gè)數(shù)據(jù)作為訓(xùn)練集
                  classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m,:],
                      datingLabels[numTestVecs:m], 4)
                  print("分類結(jié)果:%d\t真實(shí)類別:%d" % (classifierResult, datingLabels[i]))
                  if classifierResult != datingLabels[i]:
                      errorCount += 1.0
              print("錯(cuò)誤率:%f%%" %(errorCount/float(numTestVecs)*100))

          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              datingClassTest()

          運(yùn)行上述代碼,得到如下結(jié)果:

          從上圖驗(yàn)證分類器結(jié)果中可以看出,錯(cuò)誤率是3%,這是一個(gè)相當(dāng)不錯(cuò)的結(jié)果。

          我們可以改變函數(shù)datingClassTest內(nèi)變量hoRatio和分類器k的值,檢測(cè)錯(cuò)誤率是否隨著變量值的變化而增加。依賴于分類算法、數(shù)據(jù)集和程序設(shè)置,分類器的輸出結(jié)果可能有很大的不同。

          6、使用算法:構(gòu)建完整可用系統(tǒng)

          我們可以給海倫一個(gè)小段程序,通過該程序海倫會(huì)在約會(huì)網(wǎng)站上找到某個(gè)人并輸入他的信息。程序會(huì)給出她對(duì)男方喜歡程度的預(yù)測(cè)值。

          kNN_test02.py文件中創(chuàng)建函數(shù)classifyPerson,代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np
          import operator

          """
          函數(shù)說明:kNN算法,分類器

          Parameters:
              inX - 用于分類的數(shù)據(jù)(測(cè)試集)
              dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
              labes - 分類標(biāo)簽
              k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
          Returns:
              sortedClassCount[0][0] - 分類結(jié)果
          """

          def classify0(inX, dataSet, labels, k):
              #numpy函數(shù)shape[0]返回dataSet的行數(shù)
              dataSetSize = dataSet.shape[0]
              #在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
              diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
              #二維特征相減后平方
              sqDiffMat = diffMat**2
              #sum()所有元素相加,sum(0)列相加,sum(1)行相加
              sqDistances = sqDiffMat.sum(axis=1)
              #開方,計(jì)算出距離
              distances = sqDistances**0.5
              #返回distances中元素從小到大排序后的索引值
              sortedDistIndices = distances.argsort()
              #定一個(gè)記錄類別次數(shù)的字典
              classCount = {}
              for i in range(k):
                  #取出前k個(gè)元素的類別
                  voteIlabel = labels[sortedDistIndices[i]]
                  #dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
                  #計(jì)算類別次數(shù)
                  classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
              #python3中用items()替換python2中的iteritems()
              #key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
              #key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
              #reverse降序排序字典
              sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
              #返回次數(shù)最多的類別,即所要分類的類別
              return sortedClassCount[0][0]


          """
          函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力

          Parameters:
              filename - 文件名
          Returns:
              returnMat - 特征矩陣
              classLabelVector - 分類Label向量
          """

          def file2matrix(filename):
              #打開文件
              fr = open(filename)
              #讀取文件所有內(nèi)容
              arrayOLines = fr.readlines()
              #得到文件行數(shù)
              numberOfLines = len(arrayOLines)
              #返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
              returnMat = np.zeros((numberOfLines,3))
              #返回的分類標(biāo)簽向量
              classLabelVector = []
              #行的索引值
              index = 0
              for line in arrayOLines:
                  #s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
                  line = line.strip()
                  #使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
                  listFromLine = line.split('\t')
                  #將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
                  returnMat[index,:] = listFromLine[0:3]
                  #根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
                  if listFromLine[-1] == 'didntLike':
                      classLabelVector.append(1)
                  elif listFromLine[-1] == 'smallDoses':
                      classLabelVector.append(2)
                  elif listFromLine[-1] == 'largeDoses':
                      classLabelVector.append(3)
                  index += 1
              return returnMat, classLabelVector

          """
          函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化

          Parameters:
              dataSet - 特征矩陣
          Returns:
              normDataSet - 歸一化后的特征矩陣
              ranges - 數(shù)據(jù)范圍
              minVals - 數(shù)據(jù)最小值
          """

          def autoNorm(dataSet):
              #獲得數(shù)據(jù)的最小值
              minVals = dataSet.min(0)
              maxVals = dataSet.max(0)
              #最大值和最小值的范圍
              ranges = maxVals - minVals
              #shape(dataSet)返回dataSet的矩陣行列數(shù)
              normDataSet = np.zeros(np.shape(dataSet))
              #返回dataSet的行數(shù)
              m = dataSet.shape[0]
              #原始值減去最小值
              normDataSet = dataSet - np.tile(minVals, (m, 1))
              #除以最大和最小值的差,得到歸一化數(shù)據(jù)
              normDataSet = normDataSet / np.tile(ranges, (m, 1))
              #返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
              return normDataSet, ranges, minVals

          """
          函數(shù)說明:通過輸入一個(gè)人的三維特征,進(jìn)行分類輸出

          Parameters:
              無
          Returns:
              無
          """

          def classifyPerson():
              #輸出結(jié)果
              resultList = ['討厭','有些喜歡','非常喜歡']
              #三維特征用戶輸入
              precentTats = float(input("玩視頻游戲所耗時(shí)間百分比:"))
              ffMiles = float(input("每年獲得的飛行??屠锍虜?shù):"))
              iceCream = float(input("每周消費(fèi)的冰激淋公升數(shù):"))
              #打開的文件名
              filename = "datingTestSet.txt"
              #打開并處理數(shù)據(jù)
              datingDataMat, datingLabels = file2matrix(filename)
              #訓(xùn)練集歸一化
              normMat, ranges, minVals = autoNorm(datingDataMat)
              #生成NumPy數(shù)組,測(cè)試集
              inArr = np.array([ffMiles, precentTats, iceCream])
              #測(cè)試集歸一化
              norminArr = (inArr - minVals) / ranges
              #返回分類結(jié)果
              classifierResult = classify0(norminArr, normMat, datingLabels, 3)
              #打印結(jié)果
              print("你可能%s這個(gè)人" % (resultList[classifierResult-1]))

          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              classifyPerson()

          cmd中,運(yùn)行程序,并輸入數(shù)據(jù)(12,44000,0.5),預(yù)測(cè)結(jié)果是"你可能有些喜歡這個(gè)人",也就是這個(gè)人魅力一般。一共有三個(gè)檔次:討厭、有些喜歡、非常喜歡,對(duì)應(yīng)著不喜歡的人、魅力一般的人、極具魅力的人。

          結(jié)果如下圖所示:

          三、手寫數(shù)字識(shí)別

          1、實(shí)戰(zhàn)背景

          對(duì)于需要識(shí)別的數(shù)字已經(jīng)使用圖形處理軟件,處理成具有相同的色彩和大?。簩捀呤?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">32像素x32像素。盡管采用本文格式存儲(chǔ)圖像不能有效地利用內(nèi)存空間,但是為了方便理解,我們將圖片轉(zhuǎn)換為文本格式,數(shù)字的文本格式如下圖所示。

          與此同時(shí),這些文本格式存儲(chǔ)的數(shù)字的文件命名也很有特點(diǎn),格式為:數(shù)字的值_該數(shù)字的樣本序號(hào):

          對(duì)于這樣已經(jīng)整理好的文本,我們可以直接使用Python處理,進(jìn)行數(shù)字預(yù)測(cè)。數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,使用上小結(jié)的方法,自己設(shè)計(jì)k-近鄰算法分類器,可以實(shí)現(xiàn)分類。數(shù)據(jù)集和實(shí)現(xiàn)代碼下載地址(提取碼:pmsk):

          https://pan.baidu.com/s/1XWnQwKzh-ssrh0w3jRWcCA

          這里不再講解自己用Python寫的k-鄰域分類器的方法,因?yàn)檫@不是本小節(jié)的重點(diǎn)。接下來,我們將使用強(qiáng)大的第三方Python科學(xué)計(jì)算庫Sklearn構(gòu)建手寫數(shù)字系統(tǒng)。

          2、sklearn簡(jiǎn)介

          Scikit learn也簡(jiǎn)稱sklearn,是機(jī)器學(xué)習(xí)領(lǐng)域當(dāng)中最知名的python模塊之一。sklearn包含了很多機(jī)器學(xué)習(xí)的方式:

          • Classification 分類
          • Regression 回歸
          • Clustering 非監(jiān)督分類
          • Dimensionality reduction 數(shù)據(jù)降維
          • Model Selection 模型選擇
          • Preprocessing 數(shù)據(jù)與處理

          使用sklearn可以很方便地讓我們實(shí)現(xiàn)一個(gè)機(jī)器學(xué)習(xí)算法。一個(gè)復(fù)雜度算法的實(shí)現(xiàn),使用sklearn可能只需要調(diào)用幾行API即可。所以學(xué)習(xí)sklearn,可以有效減少我們特定任務(wù)的實(shí)現(xiàn)周期。

          3、sklearn安裝

          在安裝sklearn之前,需要安裝兩個(gè)庫,即numpy+mklscipy。不要使用pip3直接進(jìn)行安裝,因?yàn)?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">pip3默認(rèn)安裝的是numpy,而不是numpy+mkl。第三方庫下載地址:

          http://www.lfd.uci.edu/~gohlke/pythonlibs/

          找到對(duì)應(yīng)python版本的numpy+mklscipy,下載安裝即可:

          使用pip3安裝好這兩個(gè)whl文件后,使用如下指令安裝sklearn。

          pip3 install -U scikit-learn

          4、sklearn實(shí)現(xiàn)k-近鄰算法簡(jiǎn)介

          官網(wǎng)英文文檔:

          https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html

          sklearn.neighbors模塊實(shí)現(xiàn)了k-近鄰算法,內(nèi)容如下圖所示:

          我們使用sklearn.neighbors.KNeighborsClassifier就可以是實(shí)現(xiàn)上小結(jié),我們實(shí)現(xiàn)的k-近鄰算法。KNeighborsClassifier函數(shù)一共有8個(gè)參數(shù),如下圖所示。

          KNneighborsClassifier參數(shù)說明:

          • n_neighbors:默認(rèn)為5,就是k-NN的k的值,選取最近的k個(gè)點(diǎn)。
          • weights:默認(rèn)是uniform,參數(shù)可以是uniform、distance,也可以是用戶自己定義的函數(shù)。uniform是均等的權(quán)重,就說所有的鄰近點(diǎn)的權(quán)重都是相等的。distance是不均等的權(quán)重,距離近的點(diǎn)比距離遠(yuǎn)的點(diǎn)的影響大。用戶自定義的函數(shù),接收距離的數(shù)組,返回一組維數(shù)相同的權(quán)重。
          • algorithm:快速k近鄰搜索算法,默認(rèn)參數(shù)為auto,可以理解為算法自己決定合適的搜索算法。除此之外,用戶也可以自己指定搜索算法ball_tree、kd_tree、brute方法進(jìn)行搜索,brute是蠻力搜索,也就是線性掃描,當(dāng)訓(xùn)練集很大時(shí),計(jì)算非常耗時(shí)。kd_tree,構(gòu)造kd樹存儲(chǔ)數(shù)據(jù)以便對(duì)其進(jìn)行快速檢索的樹形數(shù)據(jù)結(jié)構(gòu),kd樹也就是數(shù)據(jù)結(jié)構(gòu)中的二叉樹。以中值切分構(gòu)造的樹,每個(gè)結(jié)點(diǎn)是一個(gè)超矩形,在維數(shù)小于20時(shí)效率高。ball tree是為了克服kd樹高緯失效而發(fā)明的,其構(gòu)造過程是以質(zhì)心C和半徑r分割樣本空間,每個(gè)節(jié)點(diǎn)是一個(gè)超球體。
          • leaf_size:默認(rèn)是30,這個(gè)是構(gòu)造的kd樹和ball樹的大小。這個(gè)值的設(shè)置會(huì)影響樹構(gòu)建的速度和搜索速度,同樣也影響著存儲(chǔ)樹所需的內(nèi)存大小。需要根據(jù)問題的性質(zhì)選擇最優(yōu)的大小。
          • metric:用于距離度量,默認(rèn)度量是minkowski,也就是p=2的歐氏距離(歐幾里德度量)。
          • p:距離度量公式。在上小結(jié),我們使用歐氏距離公式進(jìn)行距離度量。除此之外,還有其他的度量方法,例如曼哈頓距離。這個(gè)參數(shù)默認(rèn)為2,也就是默認(rèn)使用歐式距離公式進(jìn)行距離度量。也可以設(shè)置為1,使用曼哈頓距離公式進(jìn)行距離度量。
          • metric_params:距離公式的其他關(guān)鍵參數(shù),這個(gè)可以不管,使用默認(rèn)的None即可。
          • n_jobs:并行處理設(shè)置。默認(rèn)為1,臨近點(diǎn)搜索并行工作數(shù)。如果為-1,那么CPU的所有cores都用于并行工作。

          KNeighborsClassifier提供了以一些方法供我們使用,如下圖所示:

          由于篇幅原因,每個(gè)函數(shù)的怎么用,就不具體講解了。官方手冊(cè)已經(jīng)講解的很詳細(xì)了,各位可以查看這個(gè)手冊(cè)進(jìn)行學(xué)習(xí),我們直接講手寫數(shù)字識(shí)別系統(tǒng)的實(shí)現(xiàn)。

          5、sklearn小試牛刀

          我們知道數(shù)字圖片是32x32的二進(jìn)制圖像,為了方便計(jì)算,我們可以將32x32的二進(jìn)制圖像轉(zhuǎn)換為1x1024的向量。

          對(duì)于sklearnKNeighborsClassifier輸入可以是矩陣,不用一定轉(zhuǎn)換為向量,不過為了跟自己寫的k-近鄰算法分類器對(duì)應(yīng)上,這里也做了向量化處理。然后構(gòu)建kNN分類器,利用分類器做預(yù)測(cè)。創(chuàng)建kNN_test04.py文件,編寫代碼如下:

          # -*- coding: UTF-8 -*-
          import numpy as np
          import operator
          from os import listdir
          from sklearn.neighbors import KNeighborsClassifier as kNN

          """
          函數(shù)說明:將32x32的二進(jìn)制圖像轉(zhuǎn)換為1x1024向量。

          Parameters:
              filename - 文件名
          Returns:
              returnVect - 返回的二進(jìn)制圖像的1x1024向量
          """

          def img2vector(filename):
              #創(chuàng)建1x1024零向量
              returnVect = np.zeros((11024))
              #打開文件
              fr = open(filename)
              #按行讀取
              for i in range(32):
                  #讀一行數(shù)據(jù)
                  lineStr = fr.readline()
                  #每一行的前32個(gè)元素依次添加到returnVect中
                  for j in range(32):
                      returnVect[032*i+j] = int(lineStr[j])
              #返回轉(zhuǎn)換后的1x1024向量
              return returnVect

          """
          函數(shù)說明:手寫數(shù)字分類測(cè)試

          Parameters:
              無
          Returns:
              無
          """

          def handwritingClassTest():
              #測(cè)試集的Labels
              hwLabels = []
              #返回trainingDigits目錄下的文件名
              trainingFileList = listdir('trainingDigits')
              #返回文件夾下文件的個(gè)數(shù)
              m = len(trainingFileList)
              #初始化訓(xùn)練的Mat矩陣,測(cè)試集
              trainingMat = np.zeros((m, 1024))
              #從文件名中解析出訓(xùn)練集的類別
              for i in range(m):
                  #獲得文件的名字
                  fileNameStr = trainingFileList[i]
                  #獲得分類的數(shù)字
                  classNumber = int(fileNameStr.split('_')[0])
                  #將獲得的類別添加到hwLabels中
                  hwLabels.append(classNumber)
                  #將每一個(gè)文件的1x1024數(shù)據(jù)存儲(chǔ)到trainingMat矩陣中
                  trainingMat[i,:] = img2vector('trainingDigits/%s' % (fileNameStr))
              #構(gòu)建kNN分類器
              neigh = kNN(n_neighbors = 3, algorithm = 'auto')
              #擬合模型, trainingMat為訓(xùn)練矩陣,hwLabels為對(duì)應(yīng)的標(biāo)簽
              neigh.fit(trainingMat, hwLabels)
              #返回testDigits目錄下的文件列表
              testFileList = listdir('testDigits')
              #錯(cuò)誤檢測(cè)計(jì)數(shù)
              errorCount = 0.0
              #測(cè)試數(shù)據(jù)的數(shù)量
              mTest = len(testFileList)
              #從文件中解析出測(cè)試集的類別并進(jìn)行分類測(cè)試
              for i in range(mTest):
                  #獲得文件的名字
                  fileNameStr = testFileList[i]
                  #獲得分類的數(shù)字
                  classNumber = int(fileNameStr.split('_')[0])
                  #獲得測(cè)試集的1x1024向量,用于訓(xùn)練
                  vectorUnderTest = img2vector('testDigits/%s' % (fileNameStr))
                  #獲得預(yù)測(cè)結(jié)果
                  # classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
                  classifierResult = neigh.predict(vectorUnderTest)
                  print("分類返回結(jié)果為%d\t真實(shí)結(jié)果為%d" % (classifierResult, classNumber))
                  if(classifierResult != classNumber):
                      errorCount += 1.0
              print("總共錯(cuò)了%d個(gè)數(shù)據(jù)\n錯(cuò)誤率為%f%%" % (errorCount, errorCount/mTest * 100))


          """
          函數(shù)說明:main函數(shù)

          Parameters:
              無
          Returns:
              無
          """

          if __name__ == '__main__':
              handwritingClassTest()

          運(yùn)行上述代碼,得到如下結(jié)果:

          上述代碼使用的algorithm參數(shù)是auto,更改algorithm參數(shù)為brute,使用暴力搜索,你會(huì)發(fā)現(xiàn),運(yùn)行時(shí)間變長(zhǎng)了,變?yōu)?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">10s+。更改n_neighbors參數(shù),你會(huì)發(fā)現(xiàn),不同的值,檢測(cè)精度也是不同的。自己可以嘗試更改這些參數(shù)的設(shè)置,加深對(duì)其函數(shù)的理解。

          四、總結(jié)

          優(yōu)點(diǎn)

          • 簡(jiǎn)單好用,容易理解,精度高,理論成熟,既可以用來做分類也可以用來做回歸;
          • 可用于數(shù)值型數(shù)據(jù)和離散型數(shù)據(jù);
          • 訓(xùn)練時(shí)間復(fù)雜度為O(n);
          • 無數(shù)據(jù)輸入假定;
          • 對(duì)異常值不敏感。

          缺點(diǎn)

          • 計(jì)算復(fù)雜性高;
          • 空間復(fù)雜性高;
          • 樣本不平衡問題(即有些類別的樣本數(shù)量很多,而其它樣本的數(shù)量很少);
          • 一般數(shù)值很大的時(shí)候不用這個(gè),計(jì)算量太大。但是單個(gè)樣本又不能太少,否則容易發(fā)生誤分。
          • 最大的缺點(diǎn)是無法給出數(shù)據(jù)的內(nèi)在含義。

          其他

          • 關(guān)于algorithm參數(shù)kd_tree的原理,可以查看《統(tǒng)計(jì)學(xué)方法 李航》書中的講解;
          • 關(guān)于距離度量的方法還有切比雪夫距離、馬氏距離、巴氏距離等;

          參考資料

          • 本文中提到的電影類別分類、約會(huì)網(wǎng)站配對(duì)效果判定、手寫數(shù)字識(shí)別實(shí)例和數(shù)據(jù)集,均來自于《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》的第二章k-近鄰算法。
          • 本文的理論部分,參考自《統(tǒng)計(jì)學(xué)習(xí)方法 李航》的第三章k-近鄰法以及《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》的第二章k-近鄰算法。
          ·················END·················



          推薦閱讀

          ?   聊聊我今年的計(jì)劃?   印度疫情,爆炸!?   嘿,來聚個(gè)類!



          瀏覽 94
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  少妇厨房偷情理伦 | 日本在线视频不卡 | 日本一级黃色大片看免费 | 欧美性爱成人网站 | 国产在线实拍视频 |