<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          所以,機器學習和深度學習的區(qū)別是什么?

          共 1706字,需瀏覽 4分鐘

           ·

          2021-02-21 03:01

          ↑↑↑點擊上方藍字,回復資料,10個G的驚喜

          作者:aporras 翻譯:郭振@Python與算法社區(qū)(ID:alg-channel

          深度學習是機器學習算法的子類,其特殊性是有更高的復雜度。因此,深度學習屬于機器學習,但它們絕對不是相反的概念。我們將淺層學習稱為不是深層的那些機器學習技術(shù)。

          讓我們開始將它們放到我們的世界中:

          這種高度復雜性基于什么?

          在實踐中,深度學習由神經(jīng)網(wǎng)絡中的多個隱藏層組成。我們在《從神經(jīng)元到網(wǎng)絡》一文中解釋了神經(jīng)網(wǎng)絡的基礎知識,然后我們已經(jīng)將深度學習介紹為一種特殊的超級網(wǎng)絡:

          層數(shù)的增加和網(wǎng)絡的復雜性被稱為深度學習,類似于類固醇(steroids)上的常規(guī)網(wǎng)絡。

          為什么這種復雜性是一個優(yōu)勢?

          知識在各個層間流動。就像人類學習,一個逐步學習的過程。第一層專注于學習更具體的概念,而更深的層將使用已經(jīng)學習的信息來吸收得出更多抽象的概念。這種構(gòu)造數(shù)據(jù)表示的過程稱為特征提取

          它們的復雜體系結(jié)構(gòu)為深度神經(jīng)網(wǎng)絡提供了自動執(zhí)行特征提取的能力。相反,在常規(guī)的機器學習或淺層學習中,此任務是在算法階段之外執(zhí)行的。由人員,數(shù)據(jù)科學家團隊(而非機器)負責分析原始數(shù)據(jù)并將其更改為有價值的功能。

          深度學習的根本優(yōu)勢在于,可以在無結(jié)構(gòu)化數(shù)據(jù)上訓練這些算法,而無限制地訪問信息。這種強大的條件為他們提供了獲得更多有價值的學習的機會。

          也許現(xiàn)在您在想...

          從多少層開始,它被視為深度學習?關(guān)于淺層學習何時結(jié)束和深度學習何時開始尚無統(tǒng)一定義。但是,最一致的共識是,多個隱藏層意味著深度學習。換句話說,我們考慮從至少3個非線性轉(zhuǎn)換進行深度學習,即大于2個隱藏層+ 1個輸出層。

          除了神經(jīng)網(wǎng)絡之外,還有其他深度學習嗎?

          我也無法對此達成完全共識。然而,似乎有關(guān)深度學習的一切至少或間接地與神經(jīng)網(wǎng)絡有關(guān)。因此,我同意那些斷言沒有神經(jīng)網(wǎng)絡就不會存在深度學習的人的觀點。

          我們什么時候需要深度學習?

          通用逼近定理( Universal Approximation Theorem, UAT)聲明,只有一個有限層神經(jīng)元的隱藏層足以逼近任何尋找的函數(shù)。這是一個令人印象深刻的陳述,其原因有兩個:一方面,該定理證明了神經(jīng)網(wǎng)絡的巨大能力。但是,另一方面,這是否意味著我們永遠不需要深度學習?不,深吸一口氣,并不意味著……

          UAT并未指定必須包含多少個神經(jīng)元。盡管單個隱藏層足以為特定函數(shù)建模,但通過多個隱藏層網(wǎng)絡學習它可能會更加有效。此外,在訓練網(wǎng)絡時,我們正在尋找一種函數(shù),可以最好地概括數(shù)據(jù)中的關(guān)系。即使單個隱藏網(wǎng)絡能夠表示最適合訓練示例的函數(shù),這也不意味著它可以更好地概括訓練集中數(shù)據(jù)的行為。

          Ia Goodfellow,Yahua Bengio,Aaron Courville的《深度學習》一書對此進行了很好的解釋:

          總而言之,具有單層的前饋網(wǎng)絡足以表示任何函數(shù),但是該層可能過大而無法正確學習和概括。在許多情況下,使用更深入的模型可以減少表示函數(shù)所需的單元數(shù),并可以減少泛化誤差。


          總結(jié)

          深度學習基本上是機器學習的子類,它是使用多個隱藏層的神經(jīng)網(wǎng)絡。它們的復雜性允許這種類型的算法自行執(zhí)行特征提取。由于它們能夠處理原始數(shù)據(jù),因此可以訪問所有信息,因此有可能找到更好的解決方案。

          原文鏈接:https://quantdare.com/what-is-the-difference-between-deep-learning-and-machine-learning/


          也可以加一下老胡的微信
          圍觀朋友圈~~~


          推薦閱讀

          (點擊標題可跳轉(zhuǎn)閱讀)

          我愛線代,線代使我快樂

          麻省理工學院計算機課程【中文版】

          【清華大學王東老師】現(xiàn)代機器學習技術(shù)導論.pdf

          機器學習中令你事半功倍的pipeline處理機制

          機器學習避坑指南:訓練集/測試集分布一致性檢查

          機器學習深度研究:特征選擇中幾個重要的統(tǒng)計學概念

          老鐵,三連支持一下,好嗎?↓↓↓


          瀏覽 52
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  五月丁香色色激情综合 | 国产又爽 又黄 免费观看 | 黑丝空姐在线观看视频 | 亚洲无码成人精品 | 丁香五月婷婷在线 |