從零開(kāi)發(fā)一個(gè)Python項(xiàng)目——手勢(shì)識(shí)別
來(lái)源:blog.csdn.net/qq_45874897
最近開(kāi)發(fā)了一個(gè)手勢(shì)處理的項(xiàng)目(零基礎(chǔ)也可以學(xué),就是針對(duì)零基礎(chǔ)的),我在這兒簡(jiǎn)單的復(fù)述一下原理,總體來(lái)說(shuō)還是比較簡(jiǎn)單的,主要運(yùn)用的知識(shí)就是opencv,python基本語(yǔ)法,圖像處理基礎(chǔ)知識(shí)。
最終實(shí)現(xiàn)結(jié)果:
獲取視頻(攝像頭)
這部分沒(méi)啥說(shuō)的,就是獲取攝像頭。
cap = cv2.VideoCapture("C:/Users/lenovo/Videos/1.mp4")#讀取文件#cap = cv2.VideoCapture(0)#讀取攝像頭while(True):ret, frame = cap.read() key = cv2.waitKey(50) & 0xFFif key == ord('q'):breakcap.release()cv2.destroyAllWindows()
膚色檢測(cè)
這里使用的是橢圓膚色檢測(cè)模型
在RGB空間里人臉的膚色受亮度影響相當(dāng)大,所以膚色點(diǎn)很難從非膚色點(diǎn)中分離出來(lái),也就是說(shuō)在此空間經(jīng)過(guò)處理后,膚色點(diǎn)是離散的點(diǎn),中間嵌有很多非膚色,這為膚色區(qū)域標(biāo)定(人臉標(biāo)定、眼睛等)帶來(lái)了難題。如果把RGB轉(zhuǎn)為YCrCb空間的話(huà),可以忽略Y(亮度)的影響,因?yàn)樵摽臻g受亮度影響很小,膚色會(huì)產(chǎn)生很好的類(lèi)聚。這樣就把三維的空間將為二維的CrCb,膚色點(diǎn)會(huì)形成一定得形狀,如:人臉的話(huà)會(huì)看到一個(gè)人臉的區(qū)域,手臂的話(huà)會(huì)看到一條手臂的形態(tài)。
def A(img):YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉(zhuǎn)換至YCrCb空間(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值cr1 = cv2.GaussianBlur(cr, (5,5), 0)_, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理res = cv2.bitwise_and(img,img, mask = skin)return res
輪廓處理
輪廓處理的話(huà)主要用到兩個(gè)函數(shù),cv2.findContours和cv2.drawContours,這兩個(gè)函數(shù)的使用使用方法很容易搜到就不說(shuō)了,這部分主要的問(wèn)題是提取到的輪廓有很多個(gè),但是我們只需要手的輪廓,所以我們要用sorted函數(shù)找到最大的輪廓。
def B(img):#binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測(cè)h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓contour = h[0]contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區(qū)域面積進(jìn)行排序#contourmax = contour[0][:, 0, :]#保留區(qū)域面積最大的輪廓點(diǎn)坐標(biāo)bg = np.ones(dst.shape, np.uint8) *255#創(chuàng)建白色幕布ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓return ret

全部代碼
""" 從視頻讀取幀保存為圖片"""import cv2import numpy as npcap = cv2.VideoCapture("C:/Users/lenovo/Videos/1.mp4")#讀取文件#cap = cv2.VideoCapture(0)#讀取攝像頭#皮膚檢測(cè)def A(img):YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉(zhuǎn)換至YCrCb空間(y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值cr1 = cv2.GaussianBlur(cr, (5,5), 0)_, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理res = cv2.bitwise_and(img,img, mask = skin)return resdef B(img):#binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測(cè)h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓contour = h[0]contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區(qū)域面積進(jìn)行排序#contourmax = contour[0][:, 0, :]#保留區(qū)域面積最大的輪廓點(diǎn)坐標(biāo)bg = np.ones(dst.shape, np.uint8) *255#創(chuàng)建白色幕布ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓return retwhile(True):ret, frame = cap.read()#下面三行可以根據(jù)自己的電腦進(jìn)行調(diào)節(jié)src = cv2.resize(frame,(400,350), interpolation=cv2.INTER_CUBIC)#窗口大小cv2.rectangle(src, (90, 60), (300, 300 ), (0, 255, 0))#框出截取位置roi = src[60:300 , 90:300] # 獲取手勢(shì)框圖res = A(roi) # 進(jìn)行膚色檢測(cè)cv2.imshow("0",roi)gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY)dst = cv2.Laplacian(gray, cv2.CV_16S, ksize = 3)Laplacian = cv2.convertScaleAbs(dst)contour = B(Laplacian)#輪廓處理cv2.imshow("2",contour)key = cv2.waitKey(50) & 0xFFif key == ord('q'):breakcap.release()cv2.destroyAllWindows()
PS:如果覺(jué)得我的分享不錯(cuò),歡迎大家隨手點(diǎn)贊、在看。
