【討論】學(xué)習(xí)深度學(xué)習(xí)是否要先學(xué)習(xí)機(jī)器學(xué)習(xí)?
有同學(xué)問(wèn):最近做畢設(shè)要做一個(gè)神經(jīng)網(wǎng)絡(luò)的課題,想請(qǐng)教一下各位我需不需要把機(jī)器學(xué)習(xí)也都學(xué)習(xí)一遍?
看看過(guò)來(lái)人怎么回答?有同意也有反對(duì)的,都有一定道理。
歡迎大家留言討論。
回答一
作者:莫笑傅立葉
鏈接:https://www.zhihu.com/question/382278216/answer/1117203012
寫在最前面:強(qiáng)烈推薦邱錫鵬老師的神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí),閱讀起來(lái)極其流暢,收獲頗多。
若做一個(gè)調(diào)包俠,只需要調(diào)包就完了,只需要知道輸入輸出就完了,那么一切從簡(jiǎn),順利完成畢設(shè)。
那么學(xué)習(xí)流程就是這樣
python
keras
做圖像 只會(huì)cnn就完了 from Keras.layers import Conv2D
做自然語(yǔ)言處理 只會(huì)LSTM 全連接就完了 from Keras.layers import LSTM, Dense。當(dāng)然別忘了加個(gè)bert。bert是啥也不用太關(guān)注,只需要會(huì)keras_bert的模型建立就完事了
以上都不需要其他額外知識(shí)
判斷模型好不好純靠莽
若是從原理級(jí)別進(jìn)行調(diào)整,需要直接改模型源碼的
那么,統(tǒng)計(jì)學(xué)習(xí)方法 西瓜書 深度學(xué)習(xí)圣經(jīng) 各種paper %%¥#@&&%¥¥%&&**等等等等都這時(shí)候了,我看還是選擇第一個(gè)吧..一點(diǎn)不妨礙做完畢設(shè),只不過(guò)只能做些應(yīng)用型的項(xiàng)目罷了
若選擇第一種,你就是面試官眼中高贊回答的樣子以上
回答二
作者:辛俊波
鏈接:https://www.zhihu.com/question/382278216/answer/1127012045
近幾年面試了不少校招和實(shí)習(xí)生,深感深度學(xué)習(xí)之火,以至于很多學(xué)生只會(huì)各種nn網(wǎng)絡(luò),對(duì)基礎(chǔ)的機(jī)器學(xué)習(xí)算法不屑于了解。在我看來(lái),如果你真的想深入了解深度學(xué)習(xí),就不可能不了解機(jī)器學(xué)習(xí)的很多算法基礎(chǔ),就說(shuō)說(shuō)過(guò)擬合
深度學(xué)習(xí)網(wǎng)絡(luò)規(guī)模做大,免不了會(huì)遇到過(guò)擬合。說(shuō)到過(guò)擬合欠擬合,都有什么手段解決?對(duì)于模型的方差和偏差分別怎么影響的?
正則化可以緩解過(guò)擬合,那我們來(lái)說(shuō)說(shuō), l1正則和l2正則有什么區(qū)別?哦?除了了解網(wǎng)上經(jīng)典的那張坐標(biāo)解釋,是否了解它們?cè)谪惾~斯先驗(yàn)上屬于不同的分布?說(shuō)到貝葉斯分布免不了要了解共軛先驗(yàn),為什么要服從這種分布?還有哪些經(jīng)典的共軛分布?
dropout也能解決過(guò)擬合,請(qǐng)問(wèn)為什么能work?本質(zhì)上就是一種bagging的思想。說(shuō)到bagging,免不了就要知道boosting,這兩者在降低模型方差偏差影響怎樣?
說(shuō)到dropout,免不了和batch normalization對(duì)比,后者是為了解決什么問(wèn)題提出來(lái)的?對(duì)比數(shù)據(jù)白化,pca等其他方法有什么區(qū)別?還有哪些數(shù)據(jù)的normalization手段?
你看,一個(gè)過(guò)擬合的問(wèn)題在深度學(xué)習(xí)的表現(xiàn),看似都是深度的方法,背后涉及的原理全都是更加底層的機(jī)器學(xué)習(xí)基礎(chǔ)。
回答三
作者:取栗
鏈接:https://www.zhihu.com/question/382278216/answer/1384748071
作為一個(gè)在數(shù)學(xué)系學(xué)統(tǒng)計(jì)做過(guò)機(jī)器學(xué)習(xí),工作后搞深度學(xué)習(xí)的人,我可以很負(fù)責(zé)任的告訴你,不需要
理論上來(lái)說(shuō),深度學(xué)習(xí)確實(shí)是機(jī)器學(xué)習(xí)的一部分。
十年前,深度學(xué)習(xí)其實(shí)還叫 ANN,是存活在機(jī)器學(xué)習(xí)里的一小部分(別噴,我知道現(xiàn)在主流是 CNN,跟ANN不同)。
但是實(shí)際上,深度學(xué)習(xí)是一個(gè)用計(jì)算機(jī)算力暴力求解問(wèn)題的函數(shù)逼近器,跟從傳統(tǒng)統(tǒng)計(jì)學(xué)習(xí)中脫胎而出的機(jī)器學(xué)習(xí)本質(zhì)有很大區(qū)別,所以就算你從機(jī)器學(xué)習(xí)開始學(xué)起,然后再使用深度學(xué)習(xí)。很快你就會(huì)發(fā)現(xiàn),兩個(gè)東西完全不一樣。
打個(gè)不恰當(dāng)?shù)谋扔鳎罢呤怯袊?yán)格數(shù)理推導(dǎo)的,比較nerd;后者則是暴力求解的代表,過(guò)后才試圖用統(tǒng)計(jì)學(xué)知識(shí)和概念去解釋,比較geek。所以如果只是使用深度學(xué)習(xí)完成一項(xiàng)工作的話,不要說(shuō)掌握機(jī)器學(xué)習(xí)了,其實(shí)你只需要稍微了解一下深度學(xué)習(xí)就可以了,現(xiàn)在API調(diào)用十分無(wú)腦,配合pytorch這種pythonic的工具,可以說(shuō)你只需要會(huì)點(diǎn)python,數(shù)據(jù)準(zhǔn)備好,github找個(gè)項(xiàng)目拉下來(lái)一跑,齊活。
回答四
作者:周巖
鏈接:https://www.zhihu.com/question/382278216/answer/1192684168
最基礎(chǔ)的東西還是要了解,機(jī)器學(xué)習(xí)本身就涉及到統(tǒng)計(jì)和優(yōu)化的知識(shí),是一門交叉學(xué)科。
不了解這些你不會(huì)明白那些模型是做什么的,也無(wú)法理解數(shù)據(jù)是如何用的。最起碼要了解最基礎(chǔ)的最小二乘,邏輯回歸,貝葉斯,PCA這些。深度學(xué)習(xí)在機(jī)器學(xué)習(xí)的基礎(chǔ)模型上又有了很多擴(kuò)展,需要更強(qiáng)的編程知識(shí)。
編者回答
作者:黃海廣
如果是單純做本科生畢業(yè)設(shè)計(jì)的話,可以直接從深度學(xué)習(xí)入手,本科階段對(duì)畢設(shè)的要求并不高,只要符合學(xué)術(shù)規(guī)范,不存在抄襲,模型能work即可。
作為老師,對(duì)本科階段的畢設(shè)要求就是這些。

但是,如果想進(jìn)一步提高的話,還是得學(xué)習(xí)下機(jī)器學(xué)習(xí)的基本原理。
最低要求掌握的機(jī)器學(xué)習(xí)知識(shí)是:
機(jī)器學(xué)習(xí)算法的類型:如監(jiān)督學(xué)習(xí)(分類、回歸)、無(wú)監(jiān)督學(xué)習(xí)(聚類、降維等)等基礎(chǔ)知識(shí)。
基礎(chǔ)算法:線性回歸、邏輯回歸、PCA、K-means
機(jī)器學(xué)習(xí)技巧:模型擬合程度與正則,模型評(píng)估,特征工程等
編程技巧:先會(huì)Python的基本操作,然后看懂一些基本的機(jī)器學(xué)習(xí)算法的Numpy的實(shí)現(xiàn),這時(shí)候才可以開始學(xué)PyTorch。
過(guò)了本科階段,就不能做一個(gè)調(diào)包俠了,基礎(chǔ)知識(shí)決定水平的上限。
往期精彩回顧
本站qq群704220115,加入微信群請(qǐng)掃碼:
