<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          機(jī)器學(xué)習(xí)應(yīng)補(bǔ)充哪些數(shù)學(xué)基礎(chǔ)?

          共 10155字,需瀏覽 21分鐘

           ·

          2021-03-25 10:13

          點擊上方小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時間送達(dá)

          本文轉(zhuǎn)自 | 視覺算法


          機(jī)器學(xué)習(xí)理論是眾多學(xué)科的交叉,在數(shù)學(xué)基礎(chǔ)方面,應(yīng)該補(bǔ)充哪些知識呢?看看其它小伙伴推薦的相關(guān)數(shù)學(xué)從入門到熟練書籍以及課程吧。



          作者:小心假設(shè)
          https://www.zhihu.com/question/24345119/answer/1091376260
          推薦一本非常好的書,并且是“開源”的:
          Mathematics for Machine Learning
          https://mml-book.github.io/
          目錄:
          Part I: Mathematical Foundations
          1. Introduction and Motivation
          2. Linear Algebra
          3. Analytic Geometry
          4. Matrix Decompositions
          5. Vector Calculus
          6. Probability and Distribution
          7. Continuous Optimization
          Part II: Central Machine Learning Problems
          1. When Models Meet Data
          2. Linear Regression
          3. Dimensionality Reduction with Principal Component Analysis
          4. Density Estimation with Gaussian Mixture Models
          5. Classification with Support Vector Machines
          鏈接中還有一些其它資料:
          1. Linear Regression
          2. Gaussian Mixture Models
          3. PCA
          4. SVM (work in progress)
          ---
          書的 pdf:https://mml-book.github.io/book/mml-book.pdf

          作者:量子位
          https://www.zhihu.com/question/24345119/answer/564893704
          之前,Hacker News有一個高分的類似話題,討論的是:想搞機(jī)器學(xué)習(xí)/AI需要怎樣的數(shù)學(xué)基礎(chǔ),有什么推薦的入門資料/課程?
          量子位仔細(xì)看了半夜,將這些討論分為了3個類別:
          中肯建議
          教材書籍
          視頻課程
          希望能夠給大家?guī)硪恍椭?/span>


          中肯建議

          這部分內(nèi)容的主要貢獻(xiàn)者包括:mindcrime、tlbjules、rocqua、sreanleecarraher、irchans、KirinDave、wadams19pramalin

          首先

          多變量微積分、線性代數(shù)、概率論、信息論,這幾門必須基礎(chǔ)扎實。精通圖論也挺有用的。
          大部分機(jī)器學(xué)習(xí)是對數(shù)據(jù)的模型擬合。為了擬合模型,需要把一些誤差當(dāng)成真實參數(shù)的函數(shù),并對其進(jìn)行最小化。最小化的算法基于梯度下降,也就是依賴于導(dǎo)數(shù),這就是一種微積分運算。
          如果你在做貝葉斯推理,你也需要用到微積分,因為貝葉斯定律將后驗分布作為一個積分。
          搞機(jī)器學(xué)習(xí)你只需要微積分1和2,微積分3里的旋度和散度、斯托克斯定理之類的,學(xué)物理用得上,機(jī)器學(xué)習(xí)不用這些。另外,你可能還需要一些微積分4中的基本函數(shù)分析。
          (量子位注:此處微積分1234指的美國大學(xué)課程體系)


          微積分的本質(zhì)之一,是反映了事物的變化,對于變化的平順性提供了一個很好的描述。一個處于最佳狀態(tài)的系統(tǒng),在某個確定的點上不再增減變化。
          機(jī)器學(xué)習(xí)中的許多問題都是優(yōu)化問題:在給定一些約束的條件下,怎樣選擇參數(shù)才能讓錯誤最小化?通常這非常困難(NP-hard),但如果你把問題設(shè)計為“平滑”,那么就能通過微積分來獲得很好的代數(shù)解。多變量微積分也是需要的,在嘗試最小化“錯誤”時,通常會通過每次更改許多、許多參數(shù)來實現(xiàn)。這意味著你需要知道如何在高位空間進(jìn)行平滑變換。
          而微積分的中的積分,用來“測量”物體大小。大部分概率是用來描述非?;\統(tǒng)的比例?!斑@塊有多大”的問題類似于“這件事發(fā)生的可能性有多大”。解決問題的辦法,就是用數(shù)量龐大的小塊集合在一起,形成一個復(fù)雜的整體。
          所以從根本上講,機(jī)器學(xué)習(xí)取決于如何測量一件事(積分)并且知道這件事如何變化(導(dǎo)數(shù))。從某種程度上說,這兩件事就是你在微積分中學(xué)到的。


          我數(shù)學(xué)背景還不錯,但想要搞明白K-L散度時,還得重新研究一下。在機(jī)器學(xué)習(xí)領(lǐng)域,幾乎我遇到的信息論問題都是最小化K-L散度,這些看維基百科都能搞懂。你還得能理解具有概率輸出的模型,比方生成模型和強(qiáng)化學(xué)習(xí)等。

          如果你要閱讀學(xué)術(shù)期刊,至少下面這些知識點應(yīng)該懂一點:
          • 統(tǒng)計學(xué)核心。你得熟悉統(tǒng)計學(xué)家如何處理數(shù)據(jù),這常常用到
          • 微積分。你不需要成為解題達(dá)人,但得明白多個變量進(jìn)行微分和積分的過程
          • 線性代數(shù)。一切的基礎(chǔ),比統(tǒng)計還重要
          • 數(shù)值計算的方法。我不斷的查看資料,以搞懂大家為什么那樣做
          • 計算理論以及相關(guān)研究。熟悉這些能讓你發(fā)現(xiàn)錯誤,找到改進(jìn)的方向
          • 我的下一個挑戰(zhàn)是非參數(shù)統(tǒng)計。許多研究者跟我說這一領(lǐng)域會得到很多收獲,許多方法能極大的改進(jìn)機(jī)器學(xué)習(xí)

          還有人覺得,機(jī)器學(xué)習(xí)中最需要數(shù)學(xué)的地方,莫過于理解反向傳播時。反向傳播幾乎都是偏導(dǎo)數(shù)/鏈?zhǔn)椒▌t什么的。還有很多機(jī)器學(xué)習(xí)涉及一些微積分的凸優(yōu)化。


          但是

          我們得分清“應(yīng)用”和“研究”之間的區(qū)別。并不是每個人都在做最前沿的研究。有人下載一個DL4J,看幾個教程,就能搭建一個基本的網(wǎng)絡(luò)來解決問題,這個過程中也創(chuàng)造了價值。
          機(jī)器學(xué)習(xí)雖然還沒來到完全不需要關(guān)心底層細(xì)節(jié)的時間節(jié)點,但我們確實已經(jīng)可以合法獲取很多現(xiàn)成的工具,而不需要動手推導(dǎo)反向傳播的方程式。
          講真,大多數(shù)情況下在工作中應(yīng)用已知的方法,并不要求搞懂背后的數(shù)學(xué),只需要了解基本的統(tǒng)計數(shù)據(jù)和概率論,能解釋結(jié)果就好了。所以,如果你只是簡單的使用別人做好的工具來解決問題,真的不需要什么數(shù)學(xué)背景。
          一個本科生就能學(xué)會漂亮的解決問題,而不需要深入研究底層的數(shù)學(xué)細(xì)節(jié),就權(quán)當(dāng)做是工程問題的最佳實踐。大多數(shù)實際工作中,并不用演算低級別的架構(gòu)或公式,通常都是從已經(jīng)選好的框架中,把想用的東西跳出來而已。
          另一方面,如果你面臨的問題不能用現(xiàn)成的方法搞定,這時候數(shù)學(xué)背景就派上用場了。如果你想在框架里應(yīng)用一個全新或者小眾的架構(gòu),就得搞明白之后才能寫出來。
          在應(yīng)用和研究機(jī)器學(xué)習(xí)技術(shù)之間,有很大的不同。總的來說,單純在應(yīng)用這一端,并沒有太多嚴(yán)格的數(shù)學(xué)背景要求。
          需要多少數(shù)學(xué),取決于你要在機(jī)器學(xué)習(xí)/AI領(lǐng)域扎多深。
          如果只是應(yīng)付工作,那你走運了,現(xiàn)成就能用的東西原來越多了。例如DataBot、H2O、Scikit-learn、Keras(加TensorFlow)……可能唯一必備的數(shù)學(xué)技能就是統(tǒng)計學(xué)。無論你選擇了哪種解決方案,采用了何種自動調(diào)整和選擇的算法,都得需要一些統(tǒng)計數(shù)據(jù)才能說明你的模型有效果。

          想進(jìn)一步提升自己,還可以花更多時間學(xué)習(xí)特征提取、數(shù)據(jù)工程,好好研究一下上面提到的幾個工具包,特別是其中的模型。

          如果你想研發(fā)新的技術(shù)和算法,天空才是你的極限,不過還是得統(tǒng)計數(shù)據(jù)。
          那些已經(jīng)大量使用的機(jī)器學(xué)習(xí)和AI框架,其實只是頂著一個數(shù)學(xué)的帽子,你完全可以把它們當(dāng)成可靠的黑盒系統(tǒng)來用,沒必要理解模型的生成過程和設(shè)置。很多工具可以告訴你哪些算法對你的數(shù)據(jù)最有意義,甚至能幫你找出最有效的那種。
          雖然這說起來令人沮喪,但真的已經(jīng)不是非得有博士學(xué)位才能干這行了。
          不過,即便你能干的事情跟博士科學(xué)家差不多,也不意味著有人會雇你。雇主還是會看重數(shù)學(xué)、計算機(jī)科學(xué)或相關(guān)領(lǐng)域的博士學(xué)位。但這些可能更多出于其他方面因素的考量,而不是搞機(jī)器學(xué)習(xí)/AI的必要條件。
          了解數(shù)學(xué)能讓你更好的理解工作,減少愚蠢犯錯的可能。
          上面講到的工具,建議試試完全自動化的黑盒機(jī)器學(xué)習(xí)管道,比方說TPOT。盡早上手,以及可以推薦給你的產(chǎn)品經(jīng)理朋友。
          TPOT即Tree-based Pipeline Optimization Tool,這是一個基于遺傳算法自動選擇、優(yōu)化機(jī)器學(xué)習(xí)模型和參數(shù)的工具。通常模型有非常大量的參數(shù)需要調(diào)整和優(yōu)化,這類工具可以節(jié)省找到最優(yōu)參數(shù)組合的時間。

          不過,許多機(jī)器學(xué)習(xí)從業(yè)人員對這類自動化機(jī)器學(xué)習(xí)管道非常警惕。如果沒有理解這些工具的基本統(tǒng)計/數(shù)學(xué)假設(shè),可能會遇到很多坑;而這種一刀切的解決方案,也可能會給出誤導(dǎo)性的結(jié)果。另外使用這類工具,也讓解釋原因和結(jié)果的工作變得更加困難,一個“黑盒子”很難得到價值認(rèn)同。
          • TPOT的GitHub地址:
            https://github.com/rhiever/tpot

          到底應(yīng)該怎么開始學(xué)習(xí)?

          • 建議一:有兩種方法來學(xué)習(xí)機(jī)器學(xué)習(xí)/AI:1)閱讀所有資料,然后開始解決問題 2)先開始解決問題,然后根據(jù)需要學(xué)習(xí)相關(guān)的數(shù)學(xué)知識。第二種方法更好。
          • 建議二:首先在Coursera上看吳恩達(dá)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的課程。選擇你感興趣的領(lǐng)域和問題。接著閱讀機(jī)器學(xué)習(xí)/AI在這一領(lǐng)域如何應(yīng)用的論文。然后動手重現(xiàn)你已經(jīng)搞明白并且感興趣的論文。
          • 建議三:這個學(xué)習(xí)計劃我覺得非常有用,很好的列出了所需課程和時間框架,地址在此:
            https://urlify.cn/Efyeqq

          教材書籍

          接下來開始分享資源。先從書籍講起。
          這部分內(nèi)容的主要貢獻(xiàn)者包括:CuriouslyC、rdudekul、kgwgk、charlescearl、ChadyWady等。
          我認(rèn)為最好從David MacKay的《Information Theory, Inference and Learning Algorithms(信息論、推理與學(xué)習(xí)算法)》入手,內(nèi)容可能有點老舊了,但仍然是這個領(lǐng)域最平易近人的書籍之一。
          • 在線版本:
            http://www.inference.org.uk/itprnn/book.pdf
          另一本推薦的舊書是E. T. Jaynes的《Probability Theory: the Logic of Science(概率論:科學(xué)的邏輯)》。
          • 在線版本
            https://urlify.cn/QbEvuu
          以及Tibshirani的《Elements of Statistical Learning(統(tǒng)計學(xué)習(xí)元素)》。
          • 在線版本:
            https://web.stanford.edu/~hastie/ElemStatLearn/
          Andrew Gelman的《Bayesian Data Analysis(貝葉斯數(shù)據(jù)分析)》也很好。
          • 在線版本:
            https://urlify.cn/RRrE7f

          想了解這個領(lǐng)域最新的額進(jìn)展,建議閱讀Ian GoodfellowYoshua Bengio的《Deep Learning》。
          • 在線版本:
            http://www.deeplearningbook.org/
          推薦一本我本科時候用的統(tǒng)計學(xué)教材:《Probability & Statistics for Engineers & Scientists》。
          • 在線版本:
            https://urlify.cn/r6777f
          再推薦一些網(wǎng)上免費的數(shù)學(xué)參考書
          • 在線數(shù)學(xué)教材匯總
            http://people.math.gatech.edu/~cain/textbooks/onlinebooks.html
          • 免費數(shù)學(xué)教材
            http://www.openculture.com/free-math-textbooks
          • 開放教材圖書館
            https://open.umn.edu/opentextbooks/SearchResults.aspx?subjectAreaId=7
          • MIT在線教材
            https://ocw.mit.edu/courses/online-textbooks/#mathematics
          • 美國數(shù)學(xué)研究所認(rèn)證教材
            https://aimath.org/textbooks/approved-textbooks/
          AI是一個非常廣闊的領(lǐng)域,每個細(xì)分領(lǐng)域都有不同的數(shù)學(xué)背景要求。掌握所有的數(shù)學(xué)知識是不可能的,所以你得想清楚對什么感興趣。


          同時推薦一本Russell和Norvig的好書,覆蓋了人工智能中很多不同的主題。無論你本科學(xué)到了什么,這本書都可以提供了一深入了解AI的良好起點。
          這本書是《Artificial Intelligence: A Modern Approach》,中文版名稱《人工智能:一種現(xiàn)代方法》。
          • 英文版地址在此:
            http://aima.cs.berkeley.edu/
          另外附送一份Michael I. Jordan之前開出的書單。
          • 地址在此:
            https://news.ycombinator.com/item?id=1055389
          上述在線內(nèi)容都是合法的。合法的。合法的。


          視頻課程

          再來就是視頻課程匯總。主要貢獻(xiàn)者包括:72mena、leecarrahermindcrime、rdrey等。
          YouTube以及http://Videolectures.net上有很多高質(zhì)量的數(shù)學(xué)視頻教學(xué)內(nèi)容。
          • 之前提到的David MacKay,合輯在此:
            http://videolectures.net/david_mackay/
          • Leonard教授合輯在此:
            https://www.youtube.com/user/professorleonard57

          • Gilbert Strang合輯在此:
            https://www.youtube.com/results?search_query=gilbert+strang
          • 3Blue1Brown合輯在此:
            https://www.youtube.com/channel/UCYO_jab_esuFRV4b17AJtAw
          • 還有畫風(fēng)清奇的Siraj Raval講人工智能中的數(shù)學(xué):
            https://urlify.cn/vEjABz



          我的建議是,先快速看一遍Jeremy Howard的講座,這里面有很多機(jī)器學(xué)習(xí)/AI的應(yīng)用案例,而且只需要一點點的數(shù)學(xué)背景就能看懂。
          • 地址在此:
            http://course.fast.ai/
          接下來可以去Coursera上吳恩達(dá)的新課程,比原來的課程更容易接近,但仍然會有一些方程式讓你不知所措,不過你肯定能實現(xiàn)出來。地址在此:
          • 老課程《機(jī)器學(xué)習(xí)》:
            https://www.coursera.org/learn/machine-learning
          • 新課程《深度學(xué)習(xí)》:
            https://www.coursera.org/specializations/deep-learning


          再推薦一個統(tǒng)計學(xué)課程,德州大學(xué)奧斯汀分校統(tǒng)計和數(shù)據(jù)科學(xué)系Michael J. Mahometa主講的《數(shù)據(jù)分析基礎(chǔ)》。
          • 地址在此:
            https://urlify.cn/bqAZVn
          小建議,在這個課程中講師使用了R語言,我覺得還是Python更好。
          另外,Coursera上有一系列的統(tǒng)計課程還不錯。不過貝葉斯統(tǒng)計這門課有點難,建議買一本書或者補(bǔ)充點其他課外資料。我推薦這本書:《Bayes’ Rule: A Tutorial Introduction to Bayesian Analysis》
          • 亞馬遜有售:
            https://urlify.cn/AnuuEz

          作者:Ni Yun
          https://www.zhihu.com/question/24345119/answer/27856924
          機(jī)器學(xué)習(xí)主要用到兩類數(shù)學(xué):統(tǒng)計和凸優(yōu)化
          為了方便就貼亞馬遜了,這些書其實可以下到的。
          統(tǒng)計方面,推薦Larry Wasserman的兩本書:
          Amazon.com: All of Statistics: A Concise Course in Statistical Inference (Springer Texts in Statistics) (9780387402727): Larry Wasserman: Books
          Amazon.com: All of Nonparametric Statistics (Springer Texts in Statistics) (9780387251455): Larry Wasserman: Books
          凸優(yōu)化方面,推薦stanford的教材:
          http://www.stanford.edu/~boyd/cvxbook/
          入門的話,本科的數(shù)學(xué)分析,線性代數(shù),概率論與數(shù)理統(tǒng)計足夠了。

          作者:Zhihong Chen
          https://www.zhihu.com/question/24345119/answer/1103497368
          相關(guān)課程以及課程(主要以課程為主)
          數(shù)學(xué)基礎(chǔ)部分
          微積分:MIT 18.01, MIT 18.02
          線性代數(shù):MIT 18.06
          概率論與數(shù)理統(tǒng)計:MIT 6.041
          凸優(yōu)化:CVX101
          機(jī)器學(xué)習(xí)部分
          書籍
          Pattern Recognition And Machine Learning
          Machine Learning: A Bayesian and Optimization Perspective(比PRML冷門,但是強(qiáng)推,Sergios是我們這學(xué)期的ML老師,非常贊~)
          視頻
          白板推導(dǎo)系列(強(qiáng)推大佬的白板推導(dǎo)系列)

          作者:Lee
          https://www.zhihu.com/question/24345119/answer/261803442
          推薦cs229.stanford.edu,syllabus下有數(shù)學(xué)基礎(chǔ)復(fù)習(xí)的PDF。

          作者:Jere
          https://www.zhihu.com/question/24345119/answer/586641990
          本人目前在英國某高校就讀, 數(shù)據(jù)分析專業(yè),推薦一本老師上課要求讀完的數(shù)學(xué)基礎(chǔ)書
          這學(xué)期主課選了一門計算機(jī)學(xué)院下的 Data mining and visualization。這門課本身會涉及到比較多的machine learning相關(guān)的數(shù)學(xué)知識。第一節(jié)老師給我們做了一個數(shù)學(xué)測驗,然后上了幾節(jié)數(shù)學(xué)相關(guān)的課,主要介紹了線性代數(shù),向量微積分相關(guān)的內(nèi)容。由于上課本身時間不多,這位老師要求我們課下自行讀完一本類似數(shù)學(xué)導(dǎo)論的書(里面總結(jié)了基本機(jī)器學(xué)習(xí)所要求具備的數(shù)學(xué)知識。這里我附上鏈接,相信對很多想入門機(jī)器學(xué)習(xí)的朋友會有用處)。
          所有的數(shù)學(xué)內(nèi)容分為若干個章節(jié),內(nèi)容為英文版,英文比較好的同學(xué)推薦看看。每個標(biāo)題點進(jìn)去就是一個PDF, 非常方便打印,可以選擇自己比較薄弱的環(huán)節(jié)看一看。按我們老師說,這些數(shù)學(xué)是這門data mining 必須具備的知識,所以推薦大家也看一看。
          書的鏈接是:
          https://mml-book.github.io/
          另外附上我這門data mining 的學(xué)習(xí)主要內(nèi)·容:

          作者:abc abc
          https://www.zhihu.com/question/24345119/answer/1104243436
          看你要從事哪方面研究,現(xiàn)在機(jī)器學(xué)習(xí)是一個非常大的領(lǐng)域,包含了從現(xiàn)實數(shù)據(jù)建模到代碼實現(xiàn)等不同領(lǐng)域,不同領(lǐng)域所需要的數(shù)學(xué)基礎(chǔ)差距非常大,但總體上機(jī)器學(xué)習(xí)是現(xiàn)代計算機(jī)分支中對數(shù)學(xué)要求最高的一個分支之一。

          如果你想學(xué)構(gòu)建神經(jīng)網(wǎng)絡(luò):幾乎不需要數(shù)學(xué),或者說大二的水平差不多就夠了,這個部分包含了遷移學(xué)習(xí),強(qiáng)化學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)構(gòu)建等一系列前沿領(lǐng)域,這些領(lǐng)域本質(zhì)上是你對現(xiàn)實問題的特征總結(jié)。看懂模型即可。但這個領(lǐng)域是機(jī)器學(xué)習(xí)大頭,每年nips這類頂會這類文章占了一大半。
          如果說自然語言處理的經(jīng)典方法這種直接面向應(yīng)用的領(lǐng)域可能需要其他數(shù)學(xué)知識比如隨機(jī)過程,早期發(fā)展的機(jī)器學(xué)習(xí)應(yīng)用還是很看重數(shù)學(xué)的,但是神經(jīng)網(wǎng)絡(luò)之后基本上就不這么在乎數(shù)學(xué)了(或者說神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)基礎(chǔ)大家誰都不知道,沒法進(jìn)行進(jìn)一步分析)。

          如果你想學(xué)習(xí)機(jī)器學(xué)習(xí)的學(xué)習(xí)理論(或者說你平時看的論文都是在colt這種會議上的),需要的數(shù)學(xué)包含了主要是實分析,泛函分析,高等概率論,在這之下需要的數(shù)分線代基礎(chǔ)概率論就不說了。

          如果你想在最優(yōu)化算法上發(fā)力,除了上面兩個領(lǐng)域的數(shù)學(xué)基礎(chǔ)外,還需要學(xué)習(xí)最優(yōu)化算法,前沿研究還需要學(xué)統(tǒng)計決策論,漸進(jìn)統(tǒng)計論(這里推薦一下我們這個領(lǐng)域大佬斯坦福的duchi教的課程統(tǒng)計信息論,以此為基礎(chǔ)再往后扒)。

          上面兩個領(lǐng)域就是為什么機(jī)器學(xué)習(xí)對數(shù)學(xué)要求這么高的原因了,其實機(jī)器學(xué)習(xí)模型構(gòu)造的基礎(chǔ)出發(fā)點都很容易,難得是對模型的上限分析和求解。

          最后就是代碼實現(xiàn)了,這部分嚴(yán)格意義算做計算機(jī),學(xué)號計算機(jī)方面的數(shù)學(xué)就足夠了。

          總體而言,你把數(shù)學(xué)系大三以下的數(shù)學(xué)都學(xué)過基本上就能暢通了(不需要整微分方程一類),再往后整主要是概率方面的數(shù)學(xué)知識。主要是高概,假設(shè)檢驗和參數(shù)估計。

          作者:工科大屌絲
          https://www.zhihu.com/question/24345119/answer/257074745
          當(dāng)我向高人求教這個問題時,他笑了,需要準(zhǔn)備的數(shù)學(xué)知識太分散,如果僅僅是為了準(zhǔn)備知識,反而效率不高,畢竟你可能會偏離方向。之后他推薦了我一本書,國外的教材叫做 Pattern recognition and machine learning
          我感覺很6,但是很難,里面所涉及到的數(shù)學(xué)知識就是需要搞清楚的。

          作者:匿名用戶
          https://www.zhihu.com/question/24345119/answer/157183781
          數(shù)學(xué):高等數(shù)學(xué)、線性代數(shù)、概率論與數(shù)理統(tǒng)計、最優(yōu)化,特別是最后一個要理解其解題方法。
          所以基本上理科生在大學(xué)都是學(xué)過前三門的,補(bǔ)充看下第四個就可以了。
          另外之前沒學(xué)過的可以參考國外教程,學(xué)過的還是看國內(nèi)大學(xué)教材更親切一些。

          作者:弱雞
          https://www.zhihu.com/question/24345119/answer/599275364

          optimization, 我們用的教材:linear and nonlinear programming
          其他的非傳統(tǒng)數(shù)學(xué),本人上過這些課,在AI學(xué)習(xí)中受益匪淺,僅建議
          1.adaptive control, 教材找不到了,幫助理解reinforcement
          2. Detection and estimation theory, 又叫 statistical signal processing (本人拿了A+,臭嘚瑟一下)
          3. Detection and estimation theory的前置課:analysis of stochastic process 貝葉斯到死,馬爾科夫到死
          4. Algorithm: from newbee to phycho
          5. Data structure: sudo rm -rf /
          6. C++: https://leetcode.com/

          作者:shujujia
          https://www.zhihu.com/question/24345119/answer/100471448
          機(jī)器學(xué)習(xí):
          《數(shù)據(jù)挖掘?qū)嵱脵C(jī)器學(xué)習(xí)工具與技術(shù)》
          《數(shù)據(jù)挖掘?qū)д摗?/span>
          《機(jī)器學(xué)習(xí)》
          《數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)WAKA應(yīng)用技術(shù)與實踐》
          Python:
          《利用Python進(jìn)行數(shù)據(jù)分析》
          《Python基礎(chǔ)教程》
          《Python Cookbook》
          《“笨辦法”學(xué)Python》
          MATLAB:
          《精通MATLAB》
          《MATLAB R2014a從入門到精通》
          《MATLAB R2014a完全自學(xué)一本通》
          《MATLAB寶典》
          數(shù)據(jù)庫:
          《MongoDB權(quán)威指南》
          《數(shù)據(jù)庫系統(tǒng)概念》
          《SQL語言與數(shù)據(jù)庫操作技術(shù)大全》
          《Oracle從入門到精通》
          R語言:
          《統(tǒng)計建模與R軟件》
          《R語言實戰(zhàn)》
          《ggplot2數(shù)據(jù)分析與圖形藝術(shù)》
          《數(shù)據(jù)挖掘與R語言》




          ☆ END ☆
          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺」公眾號后臺回復(fù):擴(kuò)展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺、目標(biāo)跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實戰(zhàn)項目52講
          小白學(xué)視覺公眾號后臺回復(fù):Python視覺實戰(zhàn)項目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內(nèi)容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學(xué)校計算機(jī)視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學(xué)視覺公眾號后臺回復(fù):OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會逐漸細(xì)分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進(jìn)入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~


          瀏覽 85
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  特黄特色一级特黄大片 | 天天天天日夜夜夜草 | 午夜操逼片 | 大香蕉伊仁久久情色 | 国产又色又爽又黄又免费 |