<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          【機器學習】要入行機器學習是不是非學數(shù)學不可?要學到什么程度,...

          共 3864字,需瀏覽 8分鐘

           ·

          2023-10-15 07:12

          鏈接:https://www.zhihu.com/question/597884858 編輯:深度學習與計算機視覺 聲明:僅做學術分享,侵刪

          作者:半數(shù)o阿白

          https://www.zhihu.com/question/597884858/answer/3002449171

          機器學習涉及的數(shù)學并不難,應該說相當基本。會求導,會矩陣向量,會計算誤差也就完事了。

          對應的方面分別是神經(jīng)網(wǎng)絡,反向傳播,誤差計算。好像有一本小書就介紹了如何編寫一個簡單的識別手寫數(shù)字的神經(jīng)網(wǎng)絡。

          只不過,如果想要更進一步,追上最新的研究,這點數(shù)學自然就不夠了,不過基本上還是工具式的數(shù)學,比如矩陣,向量求導,卷積公式,激活函數(shù),搭建起來復雜的神經(jīng)網(wǎng)絡結(jié)構,搭建起來后,后面就容易了,反正結(jié)構會自動更新,更多就關注于工程問題,比如數(shù)據(jù)集,訓練集的質(zhì)量,某些參數(shù)的微調(diào),其實相當?shù)呐鲞\氣。就像煉金一般,調(diào)一調(diào)這個按鈕,變一變那個參數(shù),結(jié)果就出現(xiàn)了神奇的效果。

          根本用不上數(shù)學思維,尋求各種奇奇怪怪的自然解釋說不定都比數(shù)學靠譜,比如群體智能,退火算法。數(shù)據(jù)集夠大,結(jié)果就足夠精確。雖然曾經(jīng)看過機器學習的公理化理論,但說穿了,問題依然在于如何分類,實現(xiàn)輸入與預想輸出的匹配。但是我們都知道神經(jīng)網(wǎng)絡就是一個黑箱,不具有可理解性,說不定藏進去一個人也無法發(fā)現(xiàn)(笑)。還要什么數(shù)學呢?

          所以,學一些基本的函數(shù),向量,矩陣的求導,還有各種距離的計算,掌握一些激活函數(shù),函數(shù)復合,當然還有簡單的線性代數(shù),會計算矩陣乘法就行了。對于概率形式的機器學習,就需要了解一些概率論的知識,分布,期望,條件期望,方差,以及貝葉斯公式以及貝葉斯網(wǎng)絡。對于有限狀態(tài)概率圖,就是馬爾科夫鏈,并不復雜,簡單的概率矩陣還有概率向量。對于每一個計算過程都可以引入更加復雜的應用數(shù)學手段實現(xiàn)更好的效果,但是那樣大概就屬于研究的范圍了。

          這些數(shù)學多練習練習就會了,畢竟只是工具,也不需要理解的很深。因為困難之處在于網(wǎng)絡,而不在于節(jié)點。復雜的問題在于許多節(jié)點構成的復雜神經(jīng)網(wǎng)絡的特性,而不是每個節(jié)點的形式。

          曾經(jīng)我也有一個想法,將物理系統(tǒng)也視為這樣的基本動力學節(jié)點與復雜相互作用網(wǎng)絡構成的復雜物理系統(tǒng),這樣的手段其實在場論中早已出現(xiàn),但是問題和機器學習一樣,他只具備可計算性,不具備可理解性。對于一個無法完全理解的事物,用起來總會感覺不踏實。只是,對于復雜網(wǎng)絡而言,當前的計算能力遠遠不夠,因為理解,就意味著完全描述與分類,而多節(jié)點有向帶權無環(huán)圖的所有可能構型是絕對的天文數(shù)字?;蛟S比可觀測宇宙中的所有粒子數(shù)都要多,所以,這個任務可能是永遠都無法完成的。即使他孕育出了智能,也不太可能,就像詢問一個人你的大腦是怎么工作的,想必只會得到一個疑惑的眼神。


          作者:張雨辰
          https://www.zhihu.com/question/597884858/answer/3005911730

          把大一的微積分、線性代數(shù)、概率論這三門課學扎實了,足矣。但遺憾的是,根據(jù)我的經(jīng)驗,能達到這個標準的人不多。不信的話,看你能不能在面試的時候答出這兩個簡單的問題:

          1. 對可逆的方陣,證明它的左逆矩陣等于右逆矩陣。

          2. 假設有一個二分類問題,真實標簽屬于{True, False},且可能性各占一半?,F(xiàn)有3個標注員獨立進行了標注,標簽分別是L1,L2,L3。已知這3人的標注正確率分別是p1,p2,p3。怎樣計算真實標簽為True的概率?


          作者:Hunto
          https://www.zhihu.com/question/597884858/answer/3006904202

          作為發(fā)(水)過挺多篇CV/ML頂會的數(shù)學菜雞來回答一下~

          從研究/發(fā)論文上看,很多AI方向其實并不需要太多數(shù)學基礎,大多數(shù)人做的工作都是改改模型之類的。我在研究中一般就是求求導,本科微積分的知識就夠用了。

          當然也有很多方向是需要推公式的。

          在研究這塊可以各取所長,推不出復雜的公式也一樣可以發(fā)論文。

          但并不代表你可以不重視數(shù)學。數(shù)學在AI里是一個工具,當你發(fā)現(xiàn)你的論文中需要依靠數(shù)學證明的時候,花時間好好推一下還是必要的。

          所以我的建議是,你可以先入門機器學習,在需要數(shù)學的時候再補足對應的能力。


          作者:未雨綢繆
          https://www.zhihu.com/question/597884858/answer/3005975503

          大量事實表明,很多人都對數(shù)學有著天生的恐懼,這其中也包括著廣大程序員。

          可隨著機器學習的興起, 人工智能時代的 到來,數(shù)學顯得尤其重要……

          如果想成為一名人工智能人才,那便不得不要拿出很大一部分時間投入到數(shù)學的學習中。但是入門機器學習需要哪種程度的數(shù)學水平?

          首先,我可以很負責任地說,機器學習需要學習數(shù)學。那些告訴你機器學習可以不需要學數(shù)學而且點擊就送的教程,不好說都是騙人的,至少可以肯定無法讓你真正讀懂機器學習的靈魂。

          同時,我可以很負責任地說,學機器學習不需要需很多數(shù)學。學機器學習,目的很重要,機器學習如果是一座金字塔,它的塔基就是數(shù)學,如果你要為金字塔添磚加瓦,譬如提出新的算法,或者改進現(xiàn)有算法,那你肯定得對數(shù)學十分了解。

          不過,如果更想要的是了解 金字塔 結(jié)構,以及怎么解決你手頭上讓你睡得不香的問題,那你只需要了解數(shù)學這門“語言”。是的,平時我們描述一件事,會用漢語,或者用英語,而在機器學習這里,描述一件事用的是“數(shù)學語”,你要做的只是聽懂它,或者找一個人來把它翻譯成你能聽懂的話。

          那機器學習的 數(shù)學基礎 怎么學呢?經(jīng)常有人問的一個問題是,要不要先學完數(shù)學再來學機器學習。這種想法的出發(fā)點我很贊賞,夯實基礎才好筑高塔,不過,數(shù)學畢竟家大業(yè)大,子領域非常多,就算是職業(yè) 數(shù)學家也 只能了解自己領域的數(shù)學知識,而且,像機器學習這種大家一起開腦洞構建起來的學科,自然會橫跨多個 數(shù)學領域, 如果真的要都學完然后才開始,恐怕就沒有然后了。

          好在數(shù)學知識如果是大海汪洋,那機器學習用到的數(shù)學知識那只是 弱水一瓢, 我推薦按需學習法,大概了解機器學習都要用到哪些數(shù)學知識,有個整體印象,然后再根據(jù)需要深入學習。

          知道了機器學習該怎么學,那又該學什么呢?大概分為三大塊,概率統(tǒng)計、線性代數(shù)和優(yōu)化方法。概率統(tǒng)計是機器學習的靈魂,機器學習的很多 模型方法, 追根溯源都是從統(tǒng)計學中發(fā)展而來,可謂是思想的源泉,其中頻繁用到 貝葉斯公式的 相關概念,可以重點學習。

          線性代數(shù)是機器學習的骨架,具體涉及到運算的,都離不開線性代數(shù)的知識。不過,線性代數(shù)是數(shù)學中很重要的一條學科分支,內(nèi)容還是非常多,怎么辦呢?那就重點學習 矩陣運算相 關的內(nèi)容,線性代數(shù)在機器學習方面發(fā)揮作用的,主要就是矩陣運算。

          以上兩塊都是數(shù)學大類下的具體子類,機器學習還有一塊需要數(shù)學基礎的內(nèi)容,通常稱為 優(yōu)化方法, 這個領域?qū)儆跈C器學習 私人定制的 數(shù)學子領域,重點是研究一類 數(shù)學問題, 凸優(yōu)化問題。

          凸優(yōu)化名 字聽起挺嚇人,讓人覺得是好像是什么高深的研究放棄,其實要做的事非常簡單,就是花樣求極值,最終目的是實現(xiàn) max函數(shù)和 min函數(shù)類似的效果。既然是花樣求極值,花樣自然挺不少,內(nèi)容足夠?qū)懸槐緷M是公式很厚的書,不過,重點是梯度下降,搞懂什么是 梯度, 為什么下降就能達到求極值的效果,大的方向也就了然于胸了。



          ☆ END ☆
                  
                        
                          
                            
                              
                                    
                                                        往期
                                                        精彩
                                                        回顧
                                                      
                                                    



          •         

            交流群

          歡迎加入機器學習愛好者微信群一起和同行交流,目前有機器學習交流群、博士群、博士申報交流、CV、NLP等微信群,請掃描下面的微信號加群,備注:”昵稱-學校/公司-研究方向“,例如:”張小明-浙大-CV“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~( 也可以加入機器學習交流qq群772479961

          瀏覽 34
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日日躁夜夜躁夜夜揉人人视频 | 亚洲日韩中文字幕在线 | 日本欧美黄色 | 新人妻中文字幕网站 | 亚洲三级网站在线观看 |