【機器學習】要入行機器學習是不是非學數(shù)學不可?要學到什么程度,...
鏈接:https://www.zhihu.com/question/597884858 編輯:深度學習與計算機視覺 聲明:僅做學術分享,侵刪
作者:半數(shù)o阿白
https://www.zhihu.com/question/597884858/answer/3002449171
機器學習涉及的數(shù)學并不難,應該說相當基本。會求導,會矩陣向量,會計算誤差也就完事了。
對應的方面分別是神經(jīng)網(wǎng)絡,反向傳播,誤差計算。好像有一本小書就介紹了如何編寫一個簡單的識別手寫數(shù)字的神經(jīng)網(wǎng)絡。
只不過,如果想要更進一步,追上最新的研究,這點數(shù)學自然就不夠了,不過基本上還是工具式的數(shù)學,比如矩陣,向量求導,卷積公式,激活函數(shù),搭建起來復雜的神經(jīng)網(wǎng)絡結(jié)構,搭建起來后,后面就容易了,反正結(jié)構會自動更新,更多就關注于工程問題,比如數(shù)據(jù)集,訓練集的質(zhì)量,某些參數(shù)的微調(diào),其實相當?shù)呐鲞\氣。就像煉金一般,調(diào)一調(diào)這個按鈕,變一變那個參數(shù),結(jié)果就出現(xiàn)了神奇的效果。
根本用不上數(shù)學思維,尋求各種奇奇怪怪的自然解釋說不定都比數(shù)學靠譜,比如群體智能,退火算法。數(shù)據(jù)集夠大,結(jié)果就足夠精確。雖然曾經(jīng)看過機器學習的公理化理論,但說穿了,問題依然在于如何分類,實現(xiàn)輸入與預想輸出的匹配。但是我們都知道神經(jīng)網(wǎng)絡就是一個黑箱,不具有可理解性,說不定藏進去一個人也無法發(fā)現(xiàn)(笑)。還要什么數(shù)學呢?
所以,學一些基本的函數(shù),向量,矩陣的求導,還有各種距離的計算,掌握一些激活函數(shù),函數(shù)復合,當然還有簡單的線性代數(shù),會計算矩陣乘法就行了。對于概率形式的機器學習,就需要了解一些概率論的知識,分布,期望,條件期望,方差,以及貝葉斯公式以及貝葉斯網(wǎng)絡。對于有限狀態(tài)概率圖,就是馬爾科夫鏈,并不復雜,簡單的概率矩陣還有概率向量。對于每一個計算過程都可以引入更加復雜的應用數(shù)學手段實現(xiàn)更好的效果,但是那樣大概就屬于研究的范圍了。
這些數(shù)學多練習練習就會了,畢竟只是工具,也不需要理解的很深。因為困難之處在于網(wǎng)絡,而不在于節(jié)點。復雜的問題在于許多節(jié)點構成的復雜神經(jīng)網(wǎng)絡的特性,而不是每個節(jié)點的形式。
曾經(jīng)我也有一個想法,將物理系統(tǒng)也視為這樣的基本動力學節(jié)點與復雜相互作用網(wǎng)絡構成的復雜物理系統(tǒng),這樣的手段其實在場論中早已出現(xiàn),但是問題和機器學習一樣,他只具備可計算性,不具備可理解性。對于一個無法完全理解的事物,用起來總會感覺不踏實。只是,對于復雜網(wǎng)絡而言,當前的計算能力遠遠不夠,因為理解,就意味著完全描述與分類,而多節(jié)點有向帶權無環(huán)圖的所有可能構型是絕對的天文數(shù)字?;蛟S比可觀測宇宙中的所有粒子數(shù)都要多,所以,這個任務可能是永遠都無法完成的。即使他孕育出了智能,也不太可能,就像詢問一個人你的大腦是怎么工作的,想必只會得到一個疑惑的眼神。
作者:張雨辰
https://www.zhihu.com/question/597884858/answer/3005911730
把大一的微積分、線性代數(shù)、概率論這三門課學扎實了,足矣。但遺憾的是,根據(jù)我的經(jīng)驗,能達到這個標準的人不多。不信的話,看你能不能在面試的時候答出這兩個簡單的問題:
1. 對可逆的方陣,證明它的左逆矩陣等于右逆矩陣。
2. 假設有一個二分類問題,真實標簽屬于{True, False},且可能性各占一半?,F(xiàn)有3個標注員獨立進行了標注,標簽分別是L1,L2,L3。已知這3人的標注正確率分別是p1,p2,p3。怎樣計算真實標簽為True的概率?
作者:Hunto
https://www.zhihu.com/question/597884858/answer/3006904202
作為發(fā)(水)過挺多篇CV/ML頂會的數(shù)學菜雞來回答一下~
從研究/發(fā)論文上看,很多AI方向其實并不需要太多數(shù)學基礎,大多數(shù)人做的工作都是改改模型之類的。我在研究中一般就是求求導,本科微積分的知識就夠用了。
當然也有很多方向是需要推公式的。
在研究這塊可以各取所長,推不出復雜的公式也一樣可以發(fā)論文。
但并不代表你可以不重視數(shù)學。數(shù)學在AI里是一個工具,當你發(fā)現(xiàn)你的論文中需要依靠數(shù)學證明的時候,花時間好好推一下還是必要的。
所以我的建議是,你可以先入門機器學習,在需要數(shù)學的時候再補足對應的能力。
作者:未雨綢繆
https://www.zhihu.com/question/597884858/answer/3005975503
大量事實表明,很多人都對數(shù)學有著天生的恐懼,這其中也包括著廣大程序員。
可隨著機器學習的興起, 人工智能時代的 到來,數(shù)學顯得尤其重要……
如果想成為一名人工智能人才,那便不得不要拿出很大一部分時間投入到數(shù)學的學習中。但是入門機器學習需要哪種程度的數(shù)學水平?
首先,我可以很負責任地說,機器學習需要學習數(shù)學。那些告訴你機器學習可以不需要學數(shù)學而且點擊就送的教程,不好說都是騙人的,至少可以肯定無法讓你真正讀懂機器學習的靈魂。
同時,我可以很負責任地說,學機器學習不需要需很多數(shù)學。學機器學習,目的很重要,機器學習如果是一座金字塔,它的塔基就是數(shù)學,如果你要為金字塔添磚加瓦,譬如提出新的算法,或者改進現(xiàn)有算法,那你肯定得對數(shù)學十分了解。
不過,如果更想要的是了解 金字塔 結(jié)構,以及怎么解決你手頭上讓你睡得不香的問題,那你只需要了解數(shù)學這門“語言”。是的,平時我們描述一件事,會用漢語,或者用英語,而在機器學習這里,描述一件事用的是“數(shù)學語”,你要做的只是聽懂它,或者找一個人來把它翻譯成你能聽懂的話。
那機器學習的 數(shù)學基礎 怎么學呢?經(jīng)常有人問的一個問題是,要不要先學完數(shù)學再來學機器學習。這種想法的出發(fā)點我很贊賞,夯實基礎才好筑高塔,不過,數(shù)學畢竟家大業(yè)大,子領域非常多,就算是職業(yè) 數(shù)學家也 只能了解自己領域的數(shù)學知識,而且,像機器學習這種大家一起開腦洞構建起來的學科,自然會橫跨多個 數(shù)學領域, 如果真的要都學完然后才開始,恐怕就沒有然后了。
好在數(shù)學知識如果是大海汪洋,那機器學習用到的數(shù)學知識那只是 弱水一瓢, 我推薦按需學習法,大概了解機器學習都要用到哪些數(shù)學知識,有個整體印象,然后再根據(jù)需要深入學習。
知道了機器學習該怎么學,那又該學什么呢?大概分為三大塊,概率統(tǒng)計、線性代數(shù)和優(yōu)化方法。概率統(tǒng)計是機器學習的靈魂,機器學習的很多 模型方法, 追根溯源都是從統(tǒng)計學中發(fā)展而來,可謂是思想的源泉,其中頻繁用到 貝葉斯公式的 相關概念,可以重點學習。
線性代數(shù)是機器學習的骨架,具體涉及到運算的,都離不開線性代數(shù)的知識。不過,線性代數(shù)是數(shù)學中很重要的一條學科分支,內(nèi)容還是非常多,怎么辦呢?那就重點學習 矩陣運算相 關的內(nèi)容,線性代數(shù)在機器學習方面發(fā)揮作用的,主要就是矩陣運算。
以上兩塊都是數(shù)學大類下的具體子類,機器學習還有一塊需要數(shù)學基礎的內(nèi)容,通常稱為 優(yōu)化方法, 這個領域?qū)儆跈C器學習 私人定制的 數(shù)學子領域,重點是研究一類 數(shù)學問題, 凸優(yōu)化問題。
凸優(yōu)化名 字聽起挺嚇人,讓人覺得是好像是什么高深的研究放棄,其實要做的事非常簡單,就是花樣求極值,最終目的是實現(xiàn) max函數(shù)和 min函數(shù)類似的效果。既然是花樣求極值,花樣自然挺不少,內(nèi)容足夠?qū)懸槐緷M是公式很厚的書,不過,重點是梯度下降,搞懂什么是 梯度, 為什么下降就能達到求極值的效果,大的方向也就了然于胸了。
☆ END ☆
往期 精彩 回顧
-
交流群
歡迎加入機器學習愛好者微信群一起和同行交流,目前有機器學習交流群、博士群、博士申報交流、CV、NLP等微信群,請掃描下面的微信號加群,備注:”昵稱-學校/公司-研究方向“,例如:”張小明-浙大-CV“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~( 也可以加入機器學習交流qq群772479961 )
