史詩級(jí)萬字干貨,kNN算法。
大家好,我是 Jack。
五一假期過的怎么樣?
我是過上了,晚10點(diǎn)睡,早6點(diǎn)起的生活。

上午的時(shí)間充裕了很多,可以做很多事情,一下子有一種白天時(shí)間變長(zhǎng)的錯(cuò)覺。
最近,有一些讀者問,我的機(jī)器學(xué)習(xí)系列文章,公眾號(hào)里怎么沒有。
那些都是17年寫的文章了,當(dāng)時(shí)還沒有自己的公眾號(hào),只發(fā)在了CSDN和個(gè)人網(wǎng)站。
問的人不少,所以為了方便大家查看,我后續(xù)會(huì)重新整理、完善下這個(gè)系列,發(fā)到公眾號(hào)上。
頻率不會(huì)太高,每個(gè)月更新一兩篇,然后再把后面斷更的內(nèi)容爭(zhēng)取陸續(xù)補(bǔ)上。
趁著假期,編輯了一期k-近鄰(kNN)算法,通俗易懂,采用 python3 一步一步編程實(shí)現(xiàn),本文可以以下實(shí)戰(zhàn)內(nèi)容:
電影類別分類 約會(huì)網(wǎng)站配對(duì)效果判定 手寫數(shù)字識(shí)別
一、電影類別分類:初識(shí)kNN
k近鄰法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一種基本分類與回歸方法。
它的工作原理是:存在一個(gè)樣本數(shù)據(jù)集合,也稱作為訓(xùn)練樣本集,并且樣本集中每個(gè)數(shù)據(jù)都存在標(biāo)簽,即我們知道樣本集中每一個(gè)數(shù)據(jù)與所屬分類的對(duì)應(yīng)關(guān)系。
輸入沒有標(biāo)簽的新數(shù)據(jù)后,將新的數(shù)據(jù)的每個(gè)特征與樣本集中數(shù)據(jù)對(duì)應(yīng)的特征進(jìn)行比較,然后算法提取樣本最相似數(shù)據(jù)(最近鄰)的分類標(biāo)簽。
一般來說,我們只選擇樣本數(shù)據(jù)集中前k個(gè)最相似的數(shù)據(jù),這就是k-近鄰算法中k的出處,通常k是不大于20的整數(shù)。
最后,選擇k個(gè)最相似數(shù)據(jù)中出現(xiàn)次數(shù)最多的分類,作為新數(shù)據(jù)的分類。
舉個(gè)簡(jiǎn)單的例子,我們可以使用k-近鄰算法分類一個(gè)電影是愛情片還是動(dòng)作片。

上表1.1,就是我們已有的數(shù)據(jù)集合,也就是訓(xùn)練樣本集。
這個(gè)數(shù)據(jù)集有兩個(gè)特征,即打斗鏡頭數(shù)和接吻鏡頭數(shù)。
除此之外,我們也知道每個(gè)電影的所屬類型,即分類標(biāo)簽。用肉眼粗略地觀察,接吻鏡頭多的,是愛情片。打斗鏡頭多的,是動(dòng)作片。
以我們多年的看片經(jīng)驗(yàn),這個(gè)分類還算合理。如果現(xiàn)在給我一部電影,你告訴我這個(gè)電影打斗鏡頭數(shù)和接吻鏡頭數(shù)。不告訴我這個(gè)電影類型,我可以根據(jù)你給我的信息進(jìn)行判斷,這個(gè)電影是屬于愛情片還是動(dòng)作片。
而k-近鄰算法也可以像我們?nèi)艘粯幼龅竭@一點(diǎn),不同的地方在于,我們的經(jīng)驗(yàn)更"牛逼",而k-近鄰算法是靠已有的數(shù)據(jù)。
比如,你告訴我這個(gè)電影打斗鏡頭數(shù)為2,接吻鏡頭數(shù)為102,我的經(jīng)驗(yàn)會(huì)告訴你這個(gè)是愛情片,k-近鄰算法也會(huì)告訴你這個(gè)是愛情片。
你又告訴我另一個(gè)電影打斗鏡頭數(shù)為49,接吻鏡頭數(shù)為51,我"邪惡"的經(jīng)驗(yàn)可能會(huì)告訴你,這有可能是個(gè)"愛情動(dòng)作片"。
但是k-近鄰算法不會(huì)告訴你這些,因?yàn)樵谒难劾?,電影類型只有愛情片和?dòng)作片,它會(huì)提取樣本集中特征最相似數(shù)據(jù)(最鄰近)的分類標(biāo)簽,得到的結(jié)果可能是愛情片,也可能是動(dòng)作片,但絕不會(huì)是"愛情動(dòng)作片"。
當(dāng)然,這些取決于數(shù)據(jù)集的大小以及最近鄰的判斷標(biāo)準(zhǔn)等因素。
kNN的距離度量
我們已經(jīng)知道k-近鄰算法根據(jù)特征比較,然后提取樣本集中特征最相似數(shù)據(jù)(最鄰近)的分類標(biāo)簽。
那么,如何進(jìn)行比較呢?比如,我們還是以表1.1為例,怎么判斷紅色圓點(diǎn)標(biāo)記的電影所屬的類別呢?如下圖所示。

我們可以從散點(diǎn)圖大致推斷,這個(gè)紅色圓點(diǎn)標(biāo)記的電影可能屬于動(dòng)作片,因?yàn)榫嚯x已知的那兩個(gè)動(dòng)作片的圓點(diǎn)更近。
k-近鄰算法用什么方法進(jìn)行判斷呢?沒錯(cuò),就是距離度量。這個(gè)電影分類的例子有2個(gè)特征,也就是在2維實(shí)數(shù)向量空間,可以使用我們高中學(xué)過的兩點(diǎn)距離公式計(jì)算距離:

通過計(jì)算,我們可以得到如下結(jié)果:
(101,20)->動(dòng)作片(108,5)的距離約為16.55 (101,20)->動(dòng)作片(115,8)的距離約為18.44 (101,20)->愛情片(5,89)的距離約為118.22 (101,20)->愛情片(1,101)的距離約為128.69
通過計(jì)算可知,紅色圓點(diǎn)標(biāo)記的電影到動(dòng)作片 (108,5)的距離最近,為16.55。
如果算法直接根據(jù)這個(gè)結(jié)果,判斷該紅色圓點(diǎn)標(biāo)記的電影為動(dòng)作片,這個(gè)算法就是最近鄰算法,而非k-近鄰算法。那么k-近鄰算法是什么呢?k-近鄰算法步驟如下:
計(jì)算已知類別數(shù)據(jù)集中的點(diǎn)與當(dāng)前點(diǎn)之間的距離; 按照距離遞增次序排序; 選取與當(dāng)前點(diǎn)距離最小的k個(gè)點(diǎn); 確定前k個(gè)點(diǎn)所在類別的出現(xiàn)頻率; 返回前k個(gè)點(diǎn)所出現(xiàn)頻率最高的類別作為當(dāng)前點(diǎn)的預(yù)測(cè)分類。
比如,現(xiàn)在我這個(gè)k值取3,那么在電影例子中,按距離依次排序的三個(gè)點(diǎn)分別是動(dòng)作片(108,5)、動(dòng)作片(115,8)、愛情片(5,89)。
在這三個(gè)點(diǎn)中,動(dòng)作片出現(xiàn)的頻率為三分之二,愛情片出現(xiàn)的頻率為三分之一,所以該紅色圓點(diǎn)標(biāo)記的電影為動(dòng)作片。這個(gè)判別過程就是k-近鄰算法。
編程實(shí)現(xiàn)
我們已經(jīng)知道了k-近鄰算法的原理,那么接下來就是使用Python3實(shí)現(xiàn)該算法,依然以電影分類為例。
1、準(zhǔn)備數(shù)據(jù)
對(duì)于表1.1中的數(shù)據(jù),我們可以使用numpy直接創(chuàng)建,代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
"""
函數(shù)說明:創(chuàng)建數(shù)據(jù)集
Parameters:
無
Returns:
group - 數(shù)據(jù)集
labels - 分類標(biāo)簽
"""
def createDataSet():
#四組二維特征
group = np.array([[1,101],[5,89],[108,5],[115,8]])
#四組特征的標(biāo)簽
labels = ['愛情片','愛情片','動(dòng)作片','動(dòng)作片']
return group, labels
if __name__ == '__main__':
#創(chuàng)建數(shù)據(jù)集
group, labels = createDataSet()
#打印數(shù)據(jù)集
print(group)
print(labels)
運(yùn)行結(jié)果如下:

2、k-近鄰算法
根據(jù)兩點(diǎn)距離公式,計(jì)算距離,選擇距離最小的前k個(gè)點(diǎn),并返回分類結(jié)果。
# -*- coding: UTF-8 -*-
import numpy as np
import operator
"""
函數(shù)說明:創(chuàng)建數(shù)據(jù)集
Parameters:
無
Returns:
group - 數(shù)據(jù)集
labels - 分類標(biāo)簽
"""
def createDataSet():
#四組二維特征
group = np.array([[1,101],[5,89],[108,5],[115,8]])
#四組特征的標(biāo)簽
labels = ['愛情片','愛情片','動(dòng)作片','動(dòng)作片']
return group, labels
"""
函數(shù)說明:kNN算法,分類器
Parameters:
inX - 用于分類的數(shù)據(jù)(測(cè)試集)
dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
labes - 分類標(biāo)簽
k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
Returns:
sortedClassCount[0][0] - 分類結(jié)果
"""
def classify0(inX, dataSet, labels, k):
#numpy函數(shù)shape[0]返回dataSet的行數(shù)
dataSetSize = dataSet.shape[0]
#在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
#二維特征相減后平方
sqDiffMat = diffMat**2
#sum()所有元素相加,sum(0)列相加,sum(1)行相加
sqDistances = sqDiffMat.sum(axis=1)
#開方,計(jì)算出距離
distances = sqDistances**0.5
#返回distances中元素從小到大排序后的索引值
sortedDistIndices = distances.argsort()
#定一個(gè)記錄類別次數(shù)的字典
classCount = {}
for i in range(k):
#取出前k個(gè)元素的類別
voteIlabel = labels[sortedDistIndices[i]]
#dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
#計(jì)算類別次數(shù)
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
#python3中用items()替換python2中的iteritems()
#key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
#key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
#reverse降序排序字典
sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
#返回次數(shù)最多的類別,即所要分類的類別
return sortedClassCount[0][0]
if __name__ == '__main__':
#創(chuàng)建數(shù)據(jù)集
group, labels = createDataSet()
#測(cè)試集
test = [101,20]
#kNN分類
test_class = classify0(test, group, labels, 3)
#打印分類結(jié)果
print(test_class)
運(yùn)行結(jié)果如下:

可以看到,分類結(jié)果根據(jù)我們的"經(jīng)驗(yàn)",是正確的,盡管這種分類比較耗時(shí),用時(shí)1.4s。
到這里,也許有人早已經(jīng)發(fā)現(xiàn),電影例子中的特征是2維的,這樣的距離度量可以用兩點(diǎn)距離公式計(jì)算,但是如果是更高維的呢?
對(duì),沒錯(cuò)。我們可以用歐氏距離(也稱歐幾里德度量),如圖下圖所示。

我們高中所學(xué)的兩點(diǎn)距離公式就是歐氏距離在二維空間上的公式,也就是歐氏距離的n的值為2的情況。
看到這里,有人可能會(huì)問:“分類器何種情況下會(huì)出錯(cuò)?”或者“答案是否總是正確的?”答案是否定的,分類器并不會(huì)得到百分百正確的結(jié)果,我們可以使用多種方法檢測(cè)分類器的正確率。
此外分類器的性能也會(huì)受到多種因素的影響,如分類器設(shè)置和數(shù)據(jù)集等。不同的算法在不同數(shù)據(jù)集上的表現(xiàn)可能完全不同。
為了測(cè)試分類器的效果,我們可以使用已知答案的數(shù)據(jù),當(dāng)然答案不能告訴分類器,檢驗(yàn)分類器給出的結(jié)果是否符合預(yù)期結(jié)果。
通過大量的測(cè)試數(shù)據(jù),我們可以得到分類器的錯(cuò)誤率,即分類器給出錯(cuò)誤結(jié)果的次數(shù)除以測(cè)試執(zhí)行的總數(shù)。
錯(cuò)誤率是常用的評(píng)估方法,主要用于評(píng)估分類器在某個(gè)數(shù)據(jù)集上的執(zhí)行效果。完美分類器的錯(cuò)誤率為0,最差分類器的錯(cuò)誤率是1.0。
同時(shí),我們也不難發(fā)現(xiàn),k-近鄰算法沒有進(jìn)行數(shù)據(jù)的訓(xùn)練,直接使用未知的數(shù)據(jù)與已知的數(shù)據(jù)進(jìn)行比較,得到結(jié)果。因此,可以說k-近鄰算法不具有顯式的學(xué)習(xí)過程。
二、約會(huì)網(wǎng)站配對(duì)效果判定
上一小結(jié)學(xué)習(xí)了簡(jiǎn)單的k-近鄰算法的實(shí)現(xiàn)方法,但是這并不是完整的k-近鄰算法流程,k-近鄰算法的一般流程:
收集數(shù)據(jù):可以使用爬蟲進(jìn)行數(shù)據(jù)的收集,也可以使用第三方提供的免費(fèi)或收費(fèi)的數(shù)據(jù)。一般來講,數(shù)據(jù)放在txt文本文件中,按照一定的格式進(jìn)行存儲(chǔ),便于解析及處理。 準(zhǔn)備數(shù)據(jù):使用Python解析、預(yù)處理數(shù)據(jù)。 分析數(shù)據(jù):可以使用很多方法對(duì)數(shù)據(jù)進(jìn)行分析,例如使用Matplotlib將數(shù)據(jù)可視化。 測(cè)試算法:計(jì)算錯(cuò)誤率。 使用算法:錯(cuò)誤率在可接受范圍內(nèi),就可以運(yùn)行k-近鄰算法進(jìn)行分類。
已經(jīng)了解了k-近鄰算法的一般流程,下面開始進(jìn)入實(shí)戰(zhàn)內(nèi)容。
1、實(shí)戰(zhàn)背景
海倫女士一直使用在線約會(huì)網(wǎng)站尋找適合自己的約會(huì)對(duì)象。盡管約會(huì)網(wǎng)站會(huì)推薦不同的任選,但她并不是喜歡每一個(gè)人。經(jīng)過一番總結(jié),她發(fā)現(xiàn)自己交往過的人可以進(jìn)行如下分類:
不喜歡的人 魅力一般的人 極具魅力的人
海倫收集約會(huì)數(shù)據(jù)已經(jīng)有了一段時(shí)間,她把這些數(shù)據(jù)存放在文本文件datingTestSet.txt中,每個(gè)樣本數(shù)據(jù)占據(jù)一行,總共有1000行。datingTestSet.txt數(shù)據(jù)下載(提取碼:pmsk):
https://pan.baidu.com/s/1XWnQwKzh-ssrh0w3jRWcCA
海倫收集的樣本數(shù)據(jù)主要包含以下3種特征:
每年獲得的飛行??屠锍虜?shù) 玩視頻游戲所消耗時(shí)間百分比 每周消費(fèi)的冰淇淋公升數(shù)
這里不得不吐槽一句,海倫是個(gè)吃貨啊,冰淇淋公斤數(shù)都影響自己擇偶標(biāo)準(zhǔn)。打開txt文本文件,數(shù)據(jù)格式如下圖所示:

2、準(zhǔn)備數(shù)據(jù):數(shù)據(jù)解析
在將上述特征數(shù)據(jù)輸入到分類器前,必須將待處理的數(shù)據(jù)的格式改變?yōu)榉诸惼骺梢越邮盏母袷?。分類器接收的?shù)據(jù)是什么格式的?從上小結(jié)已經(jīng)知道,要將數(shù)據(jù)分類兩部分,即特征矩陣和對(duì)應(yīng)的分類標(biāo)簽向量。
創(chuàng)建一個(gè)kNN_test02.py文件,并寫一個(gè)為file2matrix的函數(shù),以此來處理輸入格式問題。
將datingTestSet.txt放到與kNN_test02.py相同目錄下,編寫代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
"""
函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力
Parameters:
filename - 文件名
Returns:
returnMat - 特征矩陣
classLabelVector - 分類Label向量
"""
def file2matrix(filename):
#打開文件
fr = open(filename)
#讀取文件所有內(nèi)容
arrayOLines = fr.readlines()
#得到文件行數(shù)
numberOfLines = len(arrayOLines)
#返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
returnMat = np.zeros((numberOfLines,3))
#返回的分類標(biāo)簽向量
classLabelVector = []
#行的索引值
index = 0
for line in arrayOLines:
#s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
line = line.strip()
#使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
listFromLine = line.split('\t')
#將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
returnMat[index,:] = listFromLine[0:3]
#根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
if listFromLine[-1] == 'didntLike':
classLabelVector.append(1)
elif listFromLine[-1] == 'smallDoses':
classLabelVector.append(2)
elif listFromLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
#打開的文件名
filename = "datingTestSet.txt"
#打開并處理數(shù)據(jù)
datingDataMat, datingLabels = file2matrix(filename)
print(datingDataMat)
print(datingLabels)
運(yùn)行上述代碼,得到的數(shù)據(jù)解析結(jié)果如下:

可以看到,我們已經(jīng)順利導(dǎo)入數(shù)據(jù),并對(duì)數(shù)據(jù)進(jìn)行解析,格式化為分類器需要的數(shù)據(jù)格式。接著我們需要了解數(shù)據(jù)的真正含義。可以通過友好、直觀的圖形化的方式觀察數(shù)據(jù)。
3、分析數(shù)據(jù):數(shù)據(jù)可視化
在kNN_test02.py文件中編寫名為showdatas的函數(shù),用來將數(shù)據(jù)可視化。編寫代碼如下:
# -*- coding: UTF-8 -*-
from matplotlib.font_manager import FontProperties
import matplotlib.lines as mlines
import matplotlib.pyplot as plt
import numpy as np
"""
函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力
Parameters:
filename - 文件名
Returns:
returnMat - 特征矩陣
classLabelVector - 分類Label向量
"""
def file2matrix(filename):
#打開文件
fr = open(filename)
#讀取文件所有內(nèi)容
arrayOLines = fr.readlines()
#得到文件行數(shù)
numberOfLines = len(arrayOLines)
#返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
returnMat = np.zeros((numberOfLines,3))
#返回的分類標(biāo)簽向量
classLabelVector = []
#行的索引值
index = 0
for line in arrayOLines:
#s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
line = line.strip()
#使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
listFromLine = line.split('\t')
#將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
returnMat[index,:] = listFromLine[0:3]
#根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
if listFromLine[-1] == 'didntLike':
classLabelVector.append(1)
elif listFromLine[-1] == 'smallDoses':
classLabelVector.append(2)
elif listFromLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
"""
函數(shù)說明:可視化數(shù)據(jù)
Parameters:
datingDataMat - 特征矩陣
datingLabels - 分類Label
Returns:
無
"""
def showdatas(datingDataMat, datingLabels):
#設(shè)置漢字格式
font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14)
#將fig畫布分隔成1行1列,不共享x軸和y軸,fig畫布的大小為(13,8)
#當(dāng)nrow=2,nclos=2時(shí),代表fig畫布被分為四個(gè)區(qū)域,axs[0][0]表示第一行第一個(gè)區(qū)域
fig, axs = plt.subplots(nrows=2, ncols=2,sharex=False, sharey=False, figsize=(13,8))
numberOfLabels = len(datingLabels)
LabelsColors = []
for i in datingLabels:
if i == 1:
LabelsColors.append('black')
if i == 2:
LabelsColors.append('orange')
if i == 3:
LabelsColors.append('red')
#畫出散點(diǎn)圖,以datingDataMat矩陣的第一(飛行??屠?、第二列(玩游戲)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
axs[0][0].scatter(x=datingDataMat[:,0], y=datingDataMat[:,1], color=LabelsColors,s=15, alpha=.5)
#設(shè)置標(biāo)題,x軸label,y軸label
axs0_title_text = axs[0][0].set_title(u'每年獲得的飛行常客里程數(shù)與玩視頻游戲所消耗時(shí)間占比',FontProperties=font)
axs0_xlabel_text = axs[0][0].set_xlabel(u'每年獲得的飛行??屠锍虜?shù)',FontProperties=font)
axs0_ylabel_text = axs[0][0].set_ylabel(u'玩視頻游戲所消耗時(shí)間占',FontProperties=font)
plt.setp(axs0_title_text, size=9, weight='bold', color='red')
plt.setp(axs0_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs0_ylabel_text, size=7, weight='bold', color='black')
#畫出散點(diǎn)圖,以datingDataMat矩陣的第一(飛行??屠?、第三列(冰激凌)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
axs[0][1].scatter(x=datingDataMat[:,0], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
#設(shè)置標(biāo)題,x軸label,y軸label
axs1_title_text = axs[0][1].set_title(u'每年獲得的飛行??屠锍虜?shù)與每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
axs1_xlabel_text = axs[0][1].set_xlabel(u'每年獲得的飛行??屠锍虜?shù)',FontProperties=font)
axs1_ylabel_text = axs[0][1].set_ylabel(u'每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
plt.setp(axs1_title_text, size=9, weight='bold', color='red')
plt.setp(axs1_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs1_ylabel_text, size=7, weight='bold', color='black')
#畫出散點(diǎn)圖,以datingDataMat矩陣的第二(玩游戲)、第三列(冰激凌)數(shù)據(jù)畫散點(diǎn)數(shù)據(jù),散點(diǎn)大小為15,透明度為0.5
axs[1][0].scatter(x=datingDataMat[:,1], y=datingDataMat[:,2], color=LabelsColors,s=15, alpha=.5)
#設(shè)置標(biāo)題,x軸label,y軸label
axs2_title_text = axs[1][0].set_title(u'玩視頻游戲所消耗時(shí)間占比與每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
axs2_xlabel_text = axs[1][0].set_xlabel(u'玩視頻游戲所消耗時(shí)間占比',FontProperties=font)
axs2_ylabel_text = axs[1][0].set_ylabel(u'每周消費(fèi)的冰激淋公升數(shù)',FontProperties=font)
plt.setp(axs2_title_text, size=9, weight='bold', color='red')
plt.setp(axs2_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs2_ylabel_text, size=7, weight='bold', color='black')
#設(shè)置圖例
didntLike = mlines.Line2D([], [], color='black', marker='.',
markersize=6, label='didntLike')
smallDoses = mlines.Line2D([], [], color='orange', marker='.',
markersize=6, label='smallDoses')
largeDoses = mlines.Line2D([], [], color='red', marker='.',
markersize=6, label='largeDoses')
#添加圖例
axs[0][0].legend(handles=[didntLike,smallDoses,largeDoses])
axs[0][1].legend(handles=[didntLike,smallDoses,largeDoses])
axs[1][0].legend(handles=[didntLike,smallDoses,largeDoses])
#顯示圖片
plt.show()
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
#打開的文件名
filename = "datingTestSet.txt"
#打開并處理數(shù)據(jù)
datingDataMat, datingLabels = file2matrix(filename)
showdatas(datingDataMat, datingLabels)
運(yùn)行上述代碼,可以看到可視化結(jié)果如下:

通過數(shù)據(jù)可以很直觀的發(fā)現(xiàn)數(shù)據(jù)的規(guī)律,比如以玩游戲所消耗時(shí)間占比與每年獲得的飛行??屠锍虜?shù),只考慮這二維的特征信息,給我的感覺就是海倫喜歡有生活質(zhì)量的男人。為什么這么說呢?每年獲得的飛行常客里程數(shù)表明,海倫喜歡能享受飛行常客獎(jiǎng)勵(lì)計(jì)劃的男人,但是不能經(jīng)常坐飛機(jī),疲于奔波,滿世界飛。
同時(shí),這個(gè)男人也要玩視頻游戲,并且占一定時(shí)間比例。能到處飛,又能經(jīng)常玩游戲的男人是什么樣的男人?很顯然,有生活質(zhì)量,并且生活悠閑的人。我的分析,僅僅是通過可視化的數(shù)據(jù)總結(jié)的個(gè)人看法。我想,每個(gè)人的感受應(yīng)該也是不盡相同的。
4、準(zhǔn)備數(shù)據(jù):數(shù)據(jù)歸一化
下表給出了四組樣本,如果想要計(jì)算樣本3和樣本4之間的距離,可以使用歐式距離公式計(jì)算。

計(jì)算方法如下所示:

我們很容易發(fā)現(xiàn),上面方程中數(shù)字差值最大的屬性對(duì)計(jì)算結(jié)果的影響最大,也就是說,每年獲取的飛行??屠锍虜?shù)對(duì)于計(jì)算結(jié)果的影響將遠(yuǎn)遠(yuǎn)大于上表中其他兩個(gè)特征-玩視頻游戲所耗時(shí)間占比和每周消費(fèi)冰淇淋公斤數(shù)的影響。
而產(chǎn)生這種現(xiàn)象的唯一原因,僅僅是因?yàn)轱w行??屠锍虜?shù)遠(yuǎn)大于其他特征值。但海倫認(rèn)為這三種特征是同等重要的,因此作為三個(gè)等權(quán)重的特征之一,飛行??屠锍虜?shù)并不應(yīng)該如此嚴(yán)重地影響到計(jì)算結(jié)果。
在處理這種不同取值范圍的特征值時(shí),我們通常采用的方法是將數(shù)值歸一化,如將取值范圍處理為0到1或者-1到1之間。下面的公式可以將任意取值范圍的特征值轉(zhuǎn)化為0到1區(qū)間內(nèi)的值:
newValue = (oldValue - min) / (max - min)
其中min和max分別是數(shù)據(jù)集中的最小特征值和最大特征值。雖然改變數(shù)值取值范圍增加了分類器的復(fù)雜度,但為了得到準(zhǔn)確結(jié)果,我們必須這樣做。在kNN_test02.py文件中編寫名為autoNorm的函數(shù),用該函數(shù)自動(dòng)將數(shù)據(jù)歸一化。代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
"""
函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力
Parameters:
filename - 文件名
Returns:
returnMat - 特征矩陣
classLabelVector - 分類Label向量
"""
def file2matrix(filename):
#打開文件
fr = open(filename)
#讀取文件所有內(nèi)容
arrayOLines = fr.readlines()
#得到文件行數(shù)
numberOfLines = len(arrayOLines)
#返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
returnMat = np.zeros((numberOfLines,3))
#返回的分類標(biāo)簽向量
classLabelVector = []
#行的索引值
index = 0
for line in arrayOLines:
#s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
line = line.strip()
#使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
listFromLine = line.split('\t')
#將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
returnMat[index,:] = listFromLine[0:3]
#根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
if listFromLine[-1] == 'didntLike':
classLabelVector.append(1)
elif listFromLine[-1] == 'smallDoses':
classLabelVector.append(2)
elif listFromLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
"""
函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化
Parameters:
dataSet - 特征矩陣
Returns:
normDataSet - 歸一化后的特征矩陣
ranges - 數(shù)據(jù)范圍
minVals - 數(shù)據(jù)最小值
"""
def autoNorm(dataSet):
#獲得數(shù)據(jù)的最小值
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
#最大值和最小值的范圍
ranges = maxVals - minVals
#shape(dataSet)返回dataSet的矩陣行列數(shù)
normDataSet = np.zeros(np.shape(dataSet))
#返回dataSet的行數(shù)
m = dataSet.shape[0]
#原始值減去最小值
normDataSet = dataSet - np.tile(minVals, (m, 1))
#除以最大和最小值的差,得到歸一化數(shù)據(jù)
normDataSet = normDataSet / np.tile(ranges, (m, 1))
#返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
return normDataSet, ranges, minVals
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
#打開的文件名
filename = "datingTestSet.txt"
#打開并處理數(shù)據(jù)
datingDataMat, datingLabels = file2matrix(filename)
normDataSet, ranges, minVals = autoNorm(datingDataMat)
print(normDataSet)
print(ranges)
print(minVals)
運(yùn)行上述代碼,得到結(jié)果如下所示:

從運(yùn)行結(jié)果可以看到,我們已經(jīng)順利將數(shù)據(jù)歸一化了,并且求出了數(shù)據(jù)的取值范圍和數(shù)據(jù)的最小值,這兩個(gè)值是在分類的時(shí)候需要用到的,直接先求解出來,也算是對(duì)數(shù)據(jù)預(yù)處理了。
5、測(cè)試算法:驗(yàn)證分類器
機(jī)器學(xué)習(xí)算法一個(gè)很重要的工作就是評(píng)估算法的正確率,通常我們只提供已有數(shù)據(jù)的90%作為訓(xùn)練樣本來訓(xùn)練分類器,而使用其余的10%數(shù)據(jù)去測(cè)試分類器,檢測(cè)分類器的正確率。
需要注意的是,10%的測(cè)試數(shù)據(jù)應(yīng)該是隨機(jī)選擇的,由于海倫提供的數(shù)據(jù)并沒有按照特定目的來排序,所以我們可以隨意選擇10%數(shù)據(jù)而不影響其隨機(jī)性。
為了測(cè)試分類器效果,在kNN_test02.py文件中創(chuàng)建函數(shù)datingClassTest,編寫代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
import operator
"""
函數(shù)說明:kNN算法,分類器
Parameters:
inX - 用于分類的數(shù)據(jù)(測(cè)試集)
dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
labes - 分類標(biāo)簽
k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
Returns:
sortedClassCount[0][0] - 分類結(jié)果
"""
def classify0(inX, dataSet, labels, k):
#numpy函數(shù)shape[0]返回dataSet的行數(shù)
dataSetSize = dataSet.shape[0]
#在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
#二維特征相減后平方
sqDiffMat = diffMat**2
#sum()所有元素相加,sum(0)列相加,sum(1)行相加
sqDistances = sqDiffMat.sum(axis=1)
#開方,計(jì)算出距離
distances = sqDistances**0.5
#返回distances中元素從小到大排序后的索引值
sortedDistIndices = distances.argsort()
#定一個(gè)記錄類別次數(shù)的字典
classCount = {}
for i in range(k):
#取出前k個(gè)元素的類別
voteIlabel = labels[sortedDistIndices[i]]
#dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
#計(jì)算類別次數(shù)
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
#python3中用items()替換python2中的iteritems()
#key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
#key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
#reverse降序排序字典
sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
#返回次數(shù)最多的類別,即所要分類的類別
return sortedClassCount[0][0]
"""
函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力
Parameters:
filename - 文件名
Returns:
returnMat - 特征矩陣
classLabelVector - 分類Label向量
"""
def file2matrix(filename):
#打開文件
fr = open(filename)
#讀取文件所有內(nèi)容
arrayOLines = fr.readlines()
#得到文件行數(shù)
numberOfLines = len(arrayOLines)
#返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
returnMat = np.zeros((numberOfLines,3))
#返回的分類標(biāo)簽向量
classLabelVector = []
#行的索引值
index = 0
for line in arrayOLines:
#s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
line = line.strip()
#使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
listFromLine = line.split('\t')
#將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
returnMat[index,:] = listFromLine[0:3]
#根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
if listFromLine[-1] == 'didntLike':
classLabelVector.append(1)
elif listFromLine[-1] == 'smallDoses':
classLabelVector.append(2)
elif listFromLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
"""
函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化
Parameters:
dataSet - 特征矩陣
Returns:
normDataSet - 歸一化后的特征矩陣
ranges - 數(shù)據(jù)范圍
minVals - 數(shù)據(jù)最小值
"""
def autoNorm(dataSet):
#獲得數(shù)據(jù)的最小值
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
#最大值和最小值的范圍
ranges = maxVals - minVals
#shape(dataSet)返回dataSet的矩陣行列數(shù)
normDataSet = np.zeros(np.shape(dataSet))
#返回dataSet的行數(shù)
m = dataSet.shape[0]
#原始值減去最小值
normDataSet = dataSet - np.tile(minVals, (m, 1))
#除以最大和最小值的差,得到歸一化數(shù)據(jù)
normDataSet = normDataSet / np.tile(ranges, (m, 1))
#返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
return normDataSet, ranges, minVals
"""
函數(shù)說明:分類器測(cè)試函數(shù)
Parameters:
無
Returns:
normDataSet - 歸一化后的特征矩陣
ranges - 數(shù)據(jù)范圍
minVals - 數(shù)據(jù)最小值
"""
def datingClassTest():
#打開的文件名
filename = "datingTestSet.txt"
#將返回的特征矩陣和分類向量分別存儲(chǔ)到datingDataMat和datingLabels中
datingDataMat, datingLabels = file2matrix(filename)
#取所有數(shù)據(jù)的百分之十
hoRatio = 0.10
#數(shù)據(jù)歸一化,返回歸一化后的矩陣,數(shù)據(jù)范圍,數(shù)據(jù)最小值
normMat, ranges, minVals = autoNorm(datingDataMat)
#獲得normMat的行數(shù)
m = normMat.shape[0]
#百分之十的測(cè)試數(shù)據(jù)的個(gè)數(shù)
numTestVecs = int(m * hoRatio)
#分類錯(cuò)誤計(jì)數(shù)
errorCount = 0.0
for i in range(numTestVecs):
#前numTestVecs個(gè)數(shù)據(jù)作為測(cè)試集,后m-numTestVecs個(gè)數(shù)據(jù)作為訓(xùn)練集
classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m,:],
datingLabels[numTestVecs:m], 4)
print("分類結(jié)果:%d\t真實(shí)類別:%d" % (classifierResult, datingLabels[i]))
if classifierResult != datingLabels[i]:
errorCount += 1.0
print("錯(cuò)誤率:%f%%" %(errorCount/float(numTestVecs)*100))
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
datingClassTest()
運(yùn)行上述代碼,得到如下結(jié)果:

從上圖驗(yàn)證分類器結(jié)果中可以看出,錯(cuò)誤率是3%,這是一個(gè)相當(dāng)不錯(cuò)的結(jié)果。
我們可以改變函數(shù)datingClassTest內(nèi)變量hoRatio和分類器k的值,檢測(cè)錯(cuò)誤率是否隨著變量值的變化而增加。依賴于分類算法、數(shù)據(jù)集和程序設(shè)置,分類器的輸出結(jié)果可能有很大的不同。
6、使用算法:構(gòu)建完整可用系統(tǒng)
我們可以給海倫一個(gè)小段程序,通過該程序海倫會(huì)在約會(huì)網(wǎng)站上找到某個(gè)人并輸入他的信息。程序會(huì)給出她對(duì)男方喜歡程度的預(yù)測(cè)值。
在kNN_test02.py文件中創(chuàng)建函數(shù)classifyPerson,代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
import operator
"""
函數(shù)說明:kNN算法,分類器
Parameters:
inX - 用于分類的數(shù)據(jù)(測(cè)試集)
dataSet - 用于訓(xùn)練的數(shù)據(jù)(訓(xùn)練集)
labes - 分類標(biāo)簽
k - kNN算法參數(shù),選擇距離最小的k個(gè)點(diǎn)
Returns:
sortedClassCount[0][0] - 分類結(jié)果
"""
def classify0(inX, dataSet, labels, k):
#numpy函數(shù)shape[0]返回dataSet的行數(shù)
dataSetSize = dataSet.shape[0]
#在列向量方向上重復(fù)inX共1次(橫向),行向量方向上重復(fù)inX共dataSetSize次(縱向)
diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
#二維特征相減后平方
sqDiffMat = diffMat**2
#sum()所有元素相加,sum(0)列相加,sum(1)行相加
sqDistances = sqDiffMat.sum(axis=1)
#開方,計(jì)算出距離
distances = sqDistances**0.5
#返回distances中元素從小到大排序后的索引值
sortedDistIndices = distances.argsort()
#定一個(gè)記錄類別次數(shù)的字典
classCount = {}
for i in range(k):
#取出前k個(gè)元素的類別
voteIlabel = labels[sortedDistIndices[i]]
#dict.get(key,default=None),字典的get()方法,返回指定鍵的值,如果值不在字典中返回默認(rèn)值。
#計(jì)算類別次數(shù)
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
#python3中用items()替換python2中的iteritems()
#key=operator.itemgetter(1)根據(jù)字典的值進(jìn)行排序
#key=operator.itemgetter(0)根據(jù)字典的鍵進(jìn)行排序
#reverse降序排序字典
sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
#返回次數(shù)最多的類別,即所要分類的類別
return sortedClassCount[0][0]
"""
函數(shù)說明:打開并解析文件,對(duì)數(shù)據(jù)進(jìn)行分類:1代表不喜歡,2代表魅力一般,3代表極具魅力
Parameters:
filename - 文件名
Returns:
returnMat - 特征矩陣
classLabelVector - 分類Label向量
"""
def file2matrix(filename):
#打開文件
fr = open(filename)
#讀取文件所有內(nèi)容
arrayOLines = fr.readlines()
#得到文件行數(shù)
numberOfLines = len(arrayOLines)
#返回的NumPy矩陣,解析完成的數(shù)據(jù):numberOfLines行,3列
returnMat = np.zeros((numberOfLines,3))
#返回的分類標(biāo)簽向量
classLabelVector = []
#行的索引值
index = 0
for line in arrayOLines:
#s.strip(rm),當(dāng)rm空時(shí),默認(rèn)刪除空白符(包括'\n','\r','\t',' ')
line = line.strip()
#使用s.split(str="",num=string,cout(str))將字符串根據(jù)'\t'分隔符進(jìn)行切片。
listFromLine = line.split('\t')
#將數(shù)據(jù)前三列提取出來,存放到returnMat的NumPy矩陣中,也就是特征矩陣
returnMat[index,:] = listFromLine[0:3]
#根據(jù)文本中標(biāo)記的喜歡的程度進(jìn)行分類,1代表不喜歡,2代表魅力一般,3代表極具魅力
if listFromLine[-1] == 'didntLike':
classLabelVector.append(1)
elif listFromLine[-1] == 'smallDoses':
classLabelVector.append(2)
elif listFromLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
"""
函數(shù)說明:對(duì)數(shù)據(jù)進(jìn)行歸一化
Parameters:
dataSet - 特征矩陣
Returns:
normDataSet - 歸一化后的特征矩陣
ranges - 數(shù)據(jù)范圍
minVals - 數(shù)據(jù)最小值
"""
def autoNorm(dataSet):
#獲得數(shù)據(jù)的最小值
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
#最大值和最小值的范圍
ranges = maxVals - minVals
#shape(dataSet)返回dataSet的矩陣行列數(shù)
normDataSet = np.zeros(np.shape(dataSet))
#返回dataSet的行數(shù)
m = dataSet.shape[0]
#原始值減去最小值
normDataSet = dataSet - np.tile(minVals, (m, 1))
#除以最大和最小值的差,得到歸一化數(shù)據(jù)
normDataSet = normDataSet / np.tile(ranges, (m, 1))
#返回歸一化數(shù)據(jù)結(jié)果,數(shù)據(jù)范圍,最小值
return normDataSet, ranges, minVals
"""
函數(shù)說明:通過輸入一個(gè)人的三維特征,進(jìn)行分類輸出
Parameters:
無
Returns:
無
"""
def classifyPerson():
#輸出結(jié)果
resultList = ['討厭','有些喜歡','非常喜歡']
#三維特征用戶輸入
precentTats = float(input("玩視頻游戲所耗時(shí)間百分比:"))
ffMiles = float(input("每年獲得的飛行??屠锍虜?shù):"))
iceCream = float(input("每周消費(fèi)的冰激淋公升數(shù):"))
#打開的文件名
filename = "datingTestSet.txt"
#打開并處理數(shù)據(jù)
datingDataMat, datingLabels = file2matrix(filename)
#訓(xùn)練集歸一化
normMat, ranges, minVals = autoNorm(datingDataMat)
#生成NumPy數(shù)組,測(cè)試集
inArr = np.array([ffMiles, precentTats, iceCream])
#測(cè)試集歸一化
norminArr = (inArr - minVals) / ranges
#返回分類結(jié)果
classifierResult = classify0(norminArr, normMat, datingLabels, 3)
#打印結(jié)果
print("你可能%s這個(gè)人" % (resultList[classifierResult-1]))
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
classifyPerson()
在cmd中,運(yùn)行程序,并輸入數(shù)據(jù)(12,44000,0.5),預(yù)測(cè)結(jié)果是"你可能有些喜歡這個(gè)人",也就是這個(gè)人魅力一般。一共有三個(gè)檔次:討厭、有些喜歡、非常喜歡,對(duì)應(yīng)著不喜歡的人、魅力一般的人、極具魅力的人。
結(jié)果如下圖所示:

三、手寫數(shù)字識(shí)別
1、實(shí)戰(zhàn)背景
對(duì)于需要識(shí)別的數(shù)字已經(jīng)使用圖形處理軟件,處理成具有相同的色彩和大?。簩捀呤?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">32像素x32像素。盡管采用本文格式存儲(chǔ)圖像不能有效地利用內(nèi)存空間,但是為了方便理解,我們將圖片轉(zhuǎn)換為文本格式,數(shù)字的文本格式如下圖所示。

與此同時(shí),這些文本格式存儲(chǔ)的數(shù)字的文件命名也很有特點(diǎn),格式為:數(shù)字的值_該數(shù)字的樣本序號(hào):

對(duì)于這樣已經(jīng)整理好的文本,我們可以直接使用Python處理,進(jìn)行數(shù)字預(yù)測(cè)。數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,使用上小結(jié)的方法,自己設(shè)計(jì)k-近鄰算法分類器,可以實(shí)現(xiàn)分類。數(shù)據(jù)集和實(shí)現(xiàn)代碼下載地址(提取碼:pmsk):
https://pan.baidu.com/s/1XWnQwKzh-ssrh0w3jRWcCA
這里不再講解自己用Python寫的k-鄰域分類器的方法,因?yàn)檫@不是本小節(jié)的重點(diǎn)。接下來,我們將使用強(qiáng)大的第三方Python科學(xué)計(jì)算庫Sklearn構(gòu)建手寫數(shù)字系統(tǒng)。
2、sklearn簡(jiǎn)介
Scikit learn也簡(jiǎn)稱sklearn,是機(jī)器學(xué)習(xí)領(lǐng)域當(dāng)中最知名的python模塊之一。sklearn包含了很多機(jī)器學(xué)習(xí)的方式:
Classification 分類 Regression 回歸 Clustering 非監(jiān)督分類 Dimensionality reduction 數(shù)據(jù)降維 Model Selection 模型選擇 Preprocessing 數(shù)據(jù)與處理
使用sklearn可以很方便地讓我們實(shí)現(xiàn)一個(gè)機(jī)器學(xué)習(xí)算法。一個(gè)復(fù)雜度算法的實(shí)現(xiàn),使用sklearn可能只需要調(diào)用幾行API即可。所以學(xué)習(xí)sklearn,可以有效減少我們特定任務(wù)的實(shí)現(xiàn)周期。
3、sklearn安裝
在安裝sklearn之前,需要安裝兩個(gè)庫,即numpy+mkl和scipy。不要使用pip3直接進(jìn)行安裝,因?yàn)?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">pip3默認(rèn)安裝的是numpy,而不是numpy+mkl。第三方庫下載地址:
http://www.lfd.uci.edu/~gohlke/pythonlibs/
找到對(duì)應(yīng)python版本的numpy+mkl和scipy,下載安裝即可:


使用pip3安裝好這兩個(gè)whl文件后,使用如下指令安裝sklearn。
pip3 install -U scikit-learn
4、sklearn實(shí)現(xiàn)k-近鄰算法簡(jiǎn)介
官網(wǎng)英文文檔:
https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
sklearn.neighbors模塊實(shí)現(xiàn)了k-近鄰算法,內(nèi)容如下圖所示:

我們使用sklearn.neighbors.KNeighborsClassifier就可以是實(shí)現(xiàn)上小結(jié),我們實(shí)現(xiàn)的k-近鄰算法。KNeighborsClassifier函數(shù)一共有8個(gè)參數(shù),如下圖所示。

KNneighborsClassifier參數(shù)說明:
n_neighbors:默認(rèn)為5,就是k-NN的k的值,選取最近的k個(gè)點(diǎn)。 weights:默認(rèn)是uniform,參數(shù)可以是uniform、distance,也可以是用戶自己定義的函數(shù)。uniform是均等的權(quán)重,就說所有的鄰近點(diǎn)的權(quán)重都是相等的。distance是不均等的權(quán)重,距離近的點(diǎn)比距離遠(yuǎn)的點(diǎn)的影響大。用戶自定義的函數(shù),接收距離的數(shù)組,返回一組維數(shù)相同的權(quán)重。 algorithm:快速k近鄰搜索算法,默認(rèn)參數(shù)為auto,可以理解為算法自己決定合適的搜索算法。除此之外,用戶也可以自己指定搜索算法ball_tree、kd_tree、brute方法進(jìn)行搜索,brute是蠻力搜索,也就是線性掃描,當(dāng)訓(xùn)練集很大時(shí),計(jì)算非常耗時(shí)。kd_tree,構(gòu)造kd樹存儲(chǔ)數(shù)據(jù)以便對(duì)其進(jìn)行快速檢索的樹形數(shù)據(jù)結(jié)構(gòu),kd樹也就是數(shù)據(jù)結(jié)構(gòu)中的二叉樹。以中值切分構(gòu)造的樹,每個(gè)結(jié)點(diǎn)是一個(gè)超矩形,在維數(shù)小于20時(shí)效率高。ball tree是為了克服kd樹高緯失效而發(fā)明的,其構(gòu)造過程是以質(zhì)心C和半徑r分割樣本空間,每個(gè)節(jié)點(diǎn)是一個(gè)超球體。 leaf_size:默認(rèn)是30,這個(gè)是構(gòu)造的kd樹和ball樹的大小。這個(gè)值的設(shè)置會(huì)影響樹構(gòu)建的速度和搜索速度,同樣也影響著存儲(chǔ)樹所需的內(nèi)存大小。需要根據(jù)問題的性質(zhì)選擇最優(yōu)的大小。 metric:用于距離度量,默認(rèn)度量是minkowski,也就是p=2的歐氏距離(歐幾里德度量)。 p:距離度量公式。在上小結(jié),我們使用歐氏距離公式進(jìn)行距離度量。除此之外,還有其他的度量方法,例如曼哈頓距離。這個(gè)參數(shù)默認(rèn)為2,也就是默認(rèn)使用歐式距離公式進(jìn)行距離度量。也可以設(shè)置為1,使用曼哈頓距離公式進(jìn)行距離度量。 metric_params:距離公式的其他關(guān)鍵參數(shù),這個(gè)可以不管,使用默認(rèn)的None即可。 n_jobs:并行處理設(shè)置。默認(rèn)為1,臨近點(diǎn)搜索并行工作數(shù)。如果為-1,那么CPU的所有cores都用于并行工作。
KNeighborsClassifier提供了以一些方法供我們使用,如下圖所示:

由于篇幅原因,每個(gè)函數(shù)的怎么用,就不具體講解了。官方手冊(cè)已經(jīng)講解的很詳細(xì)了,各位可以查看這個(gè)手冊(cè)進(jìn)行學(xué)習(xí),我們直接講手寫數(shù)字識(shí)別系統(tǒng)的實(shí)現(xiàn)。
5、sklearn小試牛刀
我們知道數(shù)字圖片是32x32的二進(jìn)制圖像,為了方便計(jì)算,我們可以將32x32的二進(jìn)制圖像轉(zhuǎn)換為1x1024的向量。
對(duì)于sklearn的KNeighborsClassifier輸入可以是矩陣,不用一定轉(zhuǎn)換為向量,不過為了跟自己寫的k-近鄰算法分類器對(duì)應(yīng)上,這里也做了向量化處理。然后構(gòu)建kNN分類器,利用分類器做預(yù)測(cè)。創(chuàng)建kNN_test04.py文件,編寫代碼如下:
# -*- coding: UTF-8 -*-
import numpy as np
import operator
from os import listdir
from sklearn.neighbors import KNeighborsClassifier as kNN
"""
函數(shù)說明:將32x32的二進(jìn)制圖像轉(zhuǎn)換為1x1024向量。
Parameters:
filename - 文件名
Returns:
returnVect - 返回的二進(jìn)制圖像的1x1024向量
"""
def img2vector(filename):
#創(chuàng)建1x1024零向量
returnVect = np.zeros((1, 1024))
#打開文件
fr = open(filename)
#按行讀取
for i in range(32):
#讀一行數(shù)據(jù)
lineStr = fr.readline()
#每一行的前32個(gè)元素依次添加到returnVect中
for j in range(32):
returnVect[0, 32*i+j] = int(lineStr[j])
#返回轉(zhuǎn)換后的1x1024向量
return returnVect
"""
函數(shù)說明:手寫數(shù)字分類測(cè)試
Parameters:
無
Returns:
無
"""
def handwritingClassTest():
#測(cè)試集的Labels
hwLabels = []
#返回trainingDigits目錄下的文件名
trainingFileList = listdir('trainingDigits')
#返回文件夾下文件的個(gè)數(shù)
m = len(trainingFileList)
#初始化訓(xùn)練的Mat矩陣,測(cè)試集
trainingMat = np.zeros((m, 1024))
#從文件名中解析出訓(xùn)練集的類別
for i in range(m):
#獲得文件的名字
fileNameStr = trainingFileList[i]
#獲得分類的數(shù)字
classNumber = int(fileNameStr.split('_')[0])
#將獲得的類別添加到hwLabels中
hwLabels.append(classNumber)
#將每一個(gè)文件的1x1024數(shù)據(jù)存儲(chǔ)到trainingMat矩陣中
trainingMat[i,:] = img2vector('trainingDigits/%s' % (fileNameStr))
#構(gòu)建kNN分類器
neigh = kNN(n_neighbors = 3, algorithm = 'auto')
#擬合模型, trainingMat為訓(xùn)練矩陣,hwLabels為對(duì)應(yīng)的標(biāo)簽
neigh.fit(trainingMat, hwLabels)
#返回testDigits目錄下的文件列表
testFileList = listdir('testDigits')
#錯(cuò)誤檢測(cè)計(jì)數(shù)
errorCount = 0.0
#測(cè)試數(shù)據(jù)的數(shù)量
mTest = len(testFileList)
#從文件中解析出測(cè)試集的類別并進(jìn)行分類測(cè)試
for i in range(mTest):
#獲得文件的名字
fileNameStr = testFileList[i]
#獲得分類的數(shù)字
classNumber = int(fileNameStr.split('_')[0])
#獲得測(cè)試集的1x1024向量,用于訓(xùn)練
vectorUnderTest = img2vector('testDigits/%s' % (fileNameStr))
#獲得預(yù)測(cè)結(jié)果
# classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
classifierResult = neigh.predict(vectorUnderTest)
print("分類返回結(jié)果為%d\t真實(shí)結(jié)果為%d" % (classifierResult, classNumber))
if(classifierResult != classNumber):
errorCount += 1.0
print("總共錯(cuò)了%d個(gè)數(shù)據(jù)\n錯(cuò)誤率為%f%%" % (errorCount, errorCount/mTest * 100))
"""
函數(shù)說明:main函數(shù)
Parameters:
無
Returns:
無
"""
if __name__ == '__main__':
handwritingClassTest()
運(yùn)行上述代碼,得到如下結(jié)果:

上述代碼使用的algorithm參數(shù)是auto,更改algorithm參數(shù)為brute,使用暴力搜索,你會(huì)發(fā)現(xiàn),運(yùn)行時(shí)間變長(zhǎng)了,變?yōu)?code style="font-size: 14px;overflow-wrap: break-word;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color: rgba(27, 31, 35, 0.05);font-family: "Operator Mono", Consolas, Monaco, Menlo, monospace;word-break: break-all;color: rgb(239, 112, 96);">10s+。更改n_neighbors參數(shù),你會(huì)發(fā)現(xiàn),不同的值,檢測(cè)精度也是不同的。自己可以嘗試更改這些參數(shù)的設(shè)置,加深對(duì)其函數(shù)的理解。
四、總結(jié)
優(yōu)點(diǎn)
簡(jiǎn)單好用,容易理解,精度高,理論成熟,既可以用來做分類也可以用來做回歸; 可用于數(shù)值型數(shù)據(jù)和離散型數(shù)據(jù); 訓(xùn)練時(shí)間復(fù)雜度為O(n); 無數(shù)據(jù)輸入假定; 對(duì)異常值不敏感。
缺點(diǎn)
計(jì)算復(fù)雜性高; 空間復(fù)雜性高; 樣本不平衡問題(即有些類別的樣本數(shù)量很多,而其它樣本的數(shù)量很少); 一般數(shù)值很大的時(shí)候不用這個(gè),計(jì)算量太大。但是單個(gè)樣本又不能太少,否則容易發(fā)生誤分。 最大的缺點(diǎn)是無法給出數(shù)據(jù)的內(nèi)在含義。
其他
關(guān)于 algorithm參數(shù)kd_tree的原理,可以查看《統(tǒng)計(jì)學(xué)方法 李航》書中的講解;關(guān)于距離度量的方法還有切比雪夫距離、馬氏距離、巴氏距離等;
參考資料
本文中提到的電影類別分類、約會(huì)網(wǎng)站配對(duì)效果判定、手寫數(shù)字識(shí)別實(shí)例和數(shù)據(jù)集,均來自于《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》的第二章k-近鄰算法。 本文的理論部分,參考自《統(tǒng)計(jì)學(xué)習(xí)方法 李航》的第三章k-近鄰法以及《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》的第二章k-近鄰算法。

推薦閱讀
? 聊聊我今年的計(jì)劃? 印度疫情,爆炸!? 嘿,來聚個(gè)類!
