<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          機(jī)器學(xué)習(xí)十大熱門算法

          共 3102字,需瀏覽 7分鐘

           ·

          2022-05-12 22:43

          關(guān)注"Python學(xué)習(xí)與數(shù)據(jù)挖掘"

          設(shè)為“星標(biāo)”,第一時間送達(dá)干貨

          資料專欄

          李航老師《統(tǒng)計學(xué)習(xí)方法(第二版)》課件&代碼

          【視頻+PPT】李宏毅老師機(jī)器學(xué)習(xí)40講


          機(jī)器學(xué)習(xí)是該行業(yè)的一個創(chuàng)新且重要的領(lǐng)域。我們?yōu)闄C(jī)器學(xué)習(xí)程序選擇的算法類型,取決于我們想要實(shí)現(xiàn)的目標(biāo)。


          現(xiàn)在,機(jī)器學(xué)習(xí)有很多算法。可能對于初學(xué)者來說,是相當(dāng)不堪重負(fù)的。今天,我們將簡要介紹 10 種最流行的機(jī)器學(xué)習(xí)算法,這樣你就可以適應(yīng)這個激動人心的機(jī)器學(xué)習(xí)世界了!


          1. 線性回歸

          線性回歸(Linear Regression)可能是最流行的機(jī)器學(xué)習(xí)算法。線性回歸就是要找一條直線,并且讓這條直線盡可能地擬合散點(diǎn)圖中的數(shù)據(jù)點(diǎn)。它試圖通過將直線方程與該數(shù)據(jù)擬合來表示自變量(x 值)和數(shù)值結(jié)果(y 值)。然后就可以用這條線來預(yù)測未來的值!

          這種算法最常用的技術(shù)是最小二乘法(Least of squares)。這個方法計算出最佳擬合線,以使得與直線上每個數(shù)據(jù)點(diǎn)的垂直距離最小。總距離是所有數(shù)據(jù)點(diǎn)的垂直距離(綠線)的平方和。其思想是通過最小化這個平方誤差或距離來擬合模型。

          例如,簡單線性回歸,它有一個自變量(x 軸)和一個因變量(y 軸)

          2. 邏輯回歸

          邏輯回歸(Logistic regression)與線性回歸類似,但它是用于輸出為二進(jìn)制的情況(即,當(dāng)結(jié)果只能有兩個可能的值)。對最終輸出的預(yù)測是一個非線性的 S 型函數(shù),稱為 logistic function, g()。

          這個邏輯函數(shù)將中間結(jié)果值映射到結(jié)果變量 Y,其值范圍從 0 到 1。然后,這些值可以解釋為 Y 出現(xiàn)的概率。S 型邏輯函數(shù)的性質(zhì)使得邏輯回歸更適合用于分類任務(wù)。

          邏輯回歸曲線圖,顯示了通過考試的概率與學(xué)習(xí)時間的關(guān)系。

          3. 決策樹

          決策樹(Decision Trees)可用于回歸和分類任務(wù)。

          在這一算法中,訓(xùn)練模型通過學(xué)習(xí)樹表示(Tree representation)的決策規(guī)則來學(xué)習(xí)預(yù)測目標(biāo)變量的值。樹是由具有相應(yīng)屬性的節(jié)點(diǎn)組成的。

          在每個節(jié)點(diǎn)上,我們根據(jù)可用的特征詢問有關(guān)數(shù)據(jù)的問題。左右分支代表可能的答案。最終節(jié)點(diǎn)(即葉節(jié)點(diǎn))對應(yīng)于一個預(yù)測值。

          每個特征的重要性是通過自頂向下方法確定的。節(jié)點(diǎn)越高,其屬性就越重要。

          決定是否在餐廳等候的決策樹示例。

          4. 樸素貝葉斯

          樸素貝葉斯(Naive Bayes)是基于貝葉斯定理。它測量每個類的概率,每個類的條件概率給出 x 的值。這個算法用于分類問題,得到一個二進(jìn)制“是 / 非”的結(jié)果。看看下面的方程式。

          樸素貝葉斯分類器是一種流行的統(tǒng)計技術(shù),可用于過濾垃圾郵件!

          5. 支持向量機(jī)(SVM)

          支持向量機(jī)(Support Vector Machine,SVM)是一種用于分類問題的監(jiān)督算法。支持向量機(jī)試圖在數(shù)據(jù)點(diǎn)之間繪制兩條線,它們之間的邊距最大。為此,我們將數(shù)據(jù)項(xiàng)繪制為 n 維空間中的點(diǎn),其中,n 是輸入特征的數(shù)量。在此基礎(chǔ)上,支持向量機(jī)找到一個最優(yōu)邊界,稱為超平面(Hyperplane),它通過類標(biāo)簽將可能的輸出進(jìn)行最佳分離。

          超平面與最近的類點(diǎn)之間的距離稱為邊距。最優(yōu)超平面具有最大的邊界,可以對點(diǎn)進(jìn)行分類,從而使最近的數(shù)據(jù)點(diǎn)與這兩個類之間的距離最大化。

          例如,H1 沒有將這兩個類分開。但 H2 有,不過只有很小的邊距。而 H3 以最大的邊距將它們分開了。

          6. K- 最近鄰算法(KNN)

          K- 最近鄰算法(K-Nearest Neighbors,KNN)非常簡單。KNN 通過在整個訓(xùn)練集中搜索 K 個最相似的實(shí)例,即 K 個鄰居,并為所有這些 K 個實(shí)例分配一個公共輸出變量,來對對象進(jìn)行分類。

          K 的選擇很關(guān)鍵:較小的值可能會得到大量的噪聲和不準(zhǔn)確的結(jié)果,而較大的值是不可行的。它最常用于分類,但也適用于回歸問題。

          用于評估實(shí)例之間相似性的距離可以是歐幾里得距離(Euclidean distance)、曼哈頓距離(Manhattan distance)或明氏距離(Minkowski distance)。歐幾里得距離是兩點(diǎn)之間的普通直線距離。它實(shí)際上是點(diǎn)坐標(biāo)之差平方和的平方根。

          KNN 分類示例

          7. K- 均值

          K- 均值(K-means)是通過對數(shù)據(jù)集進(jìn)行分類來聚類的。例如,這個算法可用于根據(jù)購買歷史將用戶分組。它在數(shù)據(jù)集中找到 K 個聚類。K- 均值用于無監(jiān)督學(xué)習(xí),因此,我們只需使用訓(xùn)練數(shù)據(jù) X,以及我們想要識別的聚類數(shù)量 K。

          該算法根據(jù)每個數(shù)據(jù)點(diǎn)的特征,將每個數(shù)據(jù)點(diǎn)迭代地分配給 K 個組中的一個組。它為每個 K- 聚類(稱為質(zhì)心)選擇 K 個點(diǎn)。基于相似度,將新的數(shù)據(jù)點(diǎn)添加到具有最近質(zhì)心的聚類中。這個過程一直持續(xù)到質(zhì)心停止變化為止。

          8. 隨機(jī)森林

          隨機(jī)森林(Random Forest)是一種非常流行的集成機(jī)器學(xué)習(xí)算法。這個算法的基本思想是,許多人的意見要比個人的意見更準(zhǔn)確。在隨機(jī)森林中,我們使用決策樹集成(參見決策樹)。

          為了對新對象進(jìn)行分類,我們從每個決策樹中進(jìn)行投票,并結(jié)合結(jié)果,然后根據(jù)多數(shù)投票做出最終決定。

          (a)在訓(xùn)練過程中,每個決策樹都是基于訓(xùn)練集的引導(dǎo)樣本來構(gòu)建的。

          (b)在分類過程中,輸入實(shí)例的決定是根據(jù)多數(shù)投票做出的。

          9. 降維

          由于我們今天能夠捕獲的數(shù)據(jù)量之大,機(jī)器學(xué)習(xí)問題變得更加復(fù)雜。這就意味著訓(xùn)練極其緩慢,而且很難找到一個好的解決方案。這一問題,通常被稱為“維數(shù)災(zāi)難”(Curse of dimensionality)。

          降維(Dimensionality reduction)試圖在不丟失最重要信息的情況下,通過將特定的特征組合成更高層次的特征來解決這個問題。主成分分析(Principal Component Analysis,PCA)是最流行的降維技術(shù)。

          主成分分析通過將數(shù)據(jù)集壓縮到低維線或超平面 / 子空間來降低數(shù)據(jù)集的維數(shù)。這盡可能地保留了原始數(shù)據(jù)的顯著特征。

          可以通過將所有數(shù)據(jù)點(diǎn)近似到一條直線來實(shí)現(xiàn)降維的示例。

          10. 人工神經(jīng)網(wǎng)絡(luò)(ANN)

          人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,ANN)可以處理大型復(fù)雜的機(jī)器學(xué)習(xí)任務(wù)。神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一組帶有權(quán)值的邊和節(jié)點(diǎn)組成的相互連接的層,稱為神經(jīng)元。在輸入層和輸出層之間,我們可以插入多個隱藏層。人工神經(jīng)網(wǎng)絡(luò)使用了兩個隱藏層。除此之外,還需要處理深度學(xué)習(xí)。

          人工神經(jīng)網(wǎng)絡(luò)的工作原理與大腦的結(jié)構(gòu)類似。一組神經(jīng)元被賦予一個隨機(jī)權(quán)重,以確定神經(jīng)元如何處理輸入數(shù)據(jù)。通過對輸入數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)輸入和輸出之間的關(guān)系。在訓(xùn)練階段,系統(tǒng)可以訪問正確的答案。

          如果網(wǎng)絡(luò)不能準(zhǔn)確識別輸入,系統(tǒng)就會調(diào)整權(quán)重。經(jīng)過充分的訓(xùn)練后,它將始終如一地識別出正確的模式。

          每個圓形節(jié)點(diǎn)表示一個人工神經(jīng)元,箭頭表示從一個人工神經(jīng)元的輸出到另一個人工神經(jīng)元的輸入的連接。

          接下來是什么?現(xiàn)在,你已經(jīng)了解了最流行的機(jī)器學(xué)習(xí)算法的基礎(chǔ)介紹。你已經(jīng)準(zhǔn)備好學(xué)習(xí)更為復(fù)雜的概念,甚至可以通過深入的動手實(shí)踐來實(shí)現(xiàn)它們。如果你想了解如何實(shí)現(xiàn)這些算法,可以參考 Educative 出品的 Grokking Data Science 課程,該課程將這些激動人心的理論應(yīng)用于清晰、真實(shí)的應(yīng)用程序。

          祝你學(xué)習(xí)愉快!

          長按或掃描下方二維碼,后臺回復(fù):加群,即可申請入群。一定要備注:來源+研究方向+學(xué)校/公司,否則不拉入群中,見諒!

          長按三秒,進(jìn)入后臺


          推薦閱讀

          瀏覽 56
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  大香蕉论坛伊人在线网 | 国内外成人在线视频导航 | 伊人成人大香蕉 | 国产女人被躁到高潮的AV | 在线免费观看国产黄色片 |