CapsNet深度學(xué)習(xí)系統(tǒng)
醞釀許久,深度學(xué)習(xí)之父Geoffrey Hinton終于發(fā)表了備受矚目的Capsule Networks(CapsNet)。 Hinton本次挾CapsNet而來,大有要用它取代CNN的氣勢。那么,CapsNet相比CNN到底有哪些優(yōu)勢?它又是否能為AI界帶來革命性轉(zhuǎn)折呢?
首先,這位被譽(yù)為深度學(xué)習(xí)之父Geoffrey Hinto究竟是何許人也呢?在上世界50年代,深度神經(jīng)網(wǎng)絡(luò)的概念就已出現(xiàn),從理論上來講可以解決眾多問題,但是一直以來卻沒有人知道該如何訓(xùn)練它,漸漸的也就被放棄。直至1986年,Hinton想到了通過反向傳播來訓(xùn)練深度網(wǎng)絡(luò),標(biāo)志了深度學(xué)習(xí)發(fā)展的一大轉(zhuǎn)機(jī)。然而,受限于當(dāng)時的計算機(jī)運(yùn)算能力,直到2012年,Hinton的發(fā)明才得以一顯神通。這一突破也為近年來人工智能的發(fā)展奠定了基礎(chǔ)。
Capsule Networks在以下數(shù)據(jù)集上也獲得了更高的識別準(zhǔn)確度。這個數(shù)據(jù)集經(jīng)過了精心設(shè)計,是一個純粹的形狀識別任務(wù),即從不同的角度來看也能識別物體。CapsNet在該數(shù)據(jù)集上打敗了最先進(jìn)的CNN,將錯誤數(shù)量減少了45%。
要想使用膠囊網(wǎng)絡(luò),首先你得訓(xùn)練它——于是,我根據(jù)Hinton 的論文建立了一個Repo(非常感謝naturomics).
以下指南將為你提供在MNIST數(shù)據(jù)集上訓(xùn)練的模型。(MNIST是手寫數(shù)字的數(shù)據(jù)集,很適合用作測試機(jī)器學(xué)習(xí)算法的基準(zhǔn)線)
1. 復(fù)制Repo:
git clone https://github.com/bourdakos1/capsule-networks.git
2. 安裝 requirements文件:
pip install -r requirements.txt
3. 開始訓(xùn)練!
python main.py
MNIST數(shù)據(jù)集包含6萬個訓(xùn)練圖像。默認(rèn)情況下,該模型每次批處理的大小是128個,訓(xùn)練50次。每一次訓(xùn)練都是數(shù)據(jù)集的一次完整運(yùn)行過程。由于每次批量大小是128,所以每次訓(xùn)練大約有468個批處理(60,000 / 128 ≈468)。
