<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          機(jī)器學(xué)習(xí)算法備忘單!

          共 6856字,需瀏覽 14分鐘

           ·

          2022-07-26 13:51

           轉(zhuǎn)自:Datawhale

          機(jī)器學(xué)習(xí)(ML)是人工智能(AI)和計(jì)算機(jī)科學(xué)的一個(gè)子領(lǐng)域,主要是利用數(shù)據(jù)和算法來模仿人的學(xué)習(xí)方式,逐步提高其準(zhǔn)確性。使用這個(gè)樹狀圖作為指南,以確定使用哪種ML算法來解決你的AI問題。

          圖片來源:LatinX 在 AI? 中的機(jī)器學(xué)習(xí)算法備忘單

          如果你想知道在不同的應(yīng)用程序中使用哪些機(jī)器學(xué)習(xí)算法,或者你是一個(gè)開發(fā)者,同時(shí)為你試圖解決的問題尋找一種方法,請(qǐng)繼續(xù)閱讀下文,并以這些步驟作為指導(dǎo)。

          無監(jiān)督學(xué)習(xí)使用未標(biāo)記的信息數(shù)據(jù),這樣機(jī)器應(yīng)該在沒有指導(dǎo)的情況下根據(jù)模式、相似性和差異來工作。

          另一方面,有監(jiān)督學(xué)習(xí)有一個(gè) "老師" 存在,他負(fù)責(zé)通過標(biāo)記數(shù)據(jù)來訓(xùn)練機(jī)器工作。接下來,機(jī)器會(huì)收到一些示例,使其能夠產(chǎn)生正確的結(jié)果。

          但是對(duì)于這些類型的學(xué)習(xí),有一種混合的方法,這種半監(jiān)督學(xué)習(xí)適用于有標(biāo)簽和無標(biāo)簽的數(shù)據(jù)。這種方法使用一個(gè)極小的標(biāo)記數(shù)據(jù)集來訓(xùn)練和標(biāo)記其余數(shù)據(jù),并進(jìn)行相應(yīng)的預(yù)測(cè),最后給出問題的解決方案。

          首先,你需要知道你所處理的維數(shù),它意味著你的問題中輸入的數(shù)量(也被稱為特征)。如果你正在處理一個(gè)大數(shù)據(jù)集或許多特征,你可以選擇降維算法。

          一、無監(jiān)督學(xué)習(xí):降維

          數(shù)據(jù)集合中的大量維度可能會(huì)對(duì)機(jī)器學(xué)習(xí)算法的性能產(chǎn)生重大影響。"維度詛咒" 是一個(gè)用來描述大維度可能造成的麻煩的術(shù)語,例如,聚類中的 "距離聚集(Distance Concentration)" 問題,即隨著數(shù)據(jù)維度的增加,不同的數(shù)據(jù)點(diǎn)會(huì)有相同的值。

          最小化訓(xùn)練數(shù)據(jù)中輸入變量數(shù)量的技術(shù)被稱為 "降維"。

          現(xiàn)在你需要熟悉特征提取特征選擇的概念,以便繼續(xù)學(xué)習(xí)。

          將原始數(shù)據(jù)轉(zhuǎn)化為可以處理的數(shù)字特征,同時(shí)保留原始數(shù)據(jù)集的信息,這一過程被稱為特征提取。它比直接將機(jī)器學(xué)習(xí)應(yīng)用于原始數(shù)據(jù)產(chǎn)生更好的結(jié)果。

          它用于三種已知的降維算法,包括主成分分析、奇異值分解和線性判別分析,但你需要清楚地知道你想用哪種工具來尋找模式或從數(shù)據(jù)中推斷出新的信息。

          如果你不希望合并數(shù)據(jù)中的變量,而是想通過只保留重要的特征來去除不需要的特征,那么你可以使用主成分分析算法。

          PCA(主成分分析)

          主成分分析是一種降低數(shù)據(jù)集維數(shù)的數(shù)學(xué)算法,在保留大部分信息的同時(shí)簡(jiǎn)化變量的數(shù)量。這種以準(zhǔn)確性換取簡(jiǎn)單性的方法被廣泛用于在大型數(shù)據(jù)集中尋找模式。

          圖片來源:什么是主成分分析?

          https://liorpachter.wordpress.com/2014/05/26/what-is-principal-component-analysis/

          在線性連接方面,它在有大量數(shù)據(jù)存在的情況下有著廣泛的應(yīng)用,如媒體編輯、統(tǒng)計(jì)質(zhì)量控制、投資組合分析,以及人臉識(shí)別、圖像壓縮等許多應(yīng)用。

          另外,如果你想要一個(gè)通過組合你正在使用的數(shù)據(jù)的變量來工作的算法,簡(jiǎn)單的PCA可能不是你使用的最佳工具。接下來,你可以有一個(gè)概率模型或一個(gè)非概率模型。概率數(shù)據(jù)是涉及到隨機(jī)選擇的數(shù)據(jù),是大多數(shù)科學(xué)家的首選,可以得到更準(zhǔn)確的結(jié)果。而非概率數(shù)據(jù)不涉及這種隨機(jī)性。

          如果你正在處理非概率數(shù)據(jù),你應(yīng)該使用奇異值分解算法。

          SVD(奇異值分解)

          在機(jī)器學(xué)習(xí)領(lǐng)域,SVD允許數(shù)據(jù)被轉(zhuǎn)化為一個(gè)可以輕松區(qū)分類別的空間。這種算法將一個(gè)矩陣分解為三個(gè)不同的矩陣。例如,在圖像處理中,使用數(shù)量減少的矢量來重建與原始圖像非常接近的圖片。

          使用給定數(shù)量的組件壓縮圖像

          與PCA算法相比,兩者都可以對(duì)數(shù)據(jù)進(jìn)行降維處理。但PCA跳過了不太重要的成分,而SVD只是把它們變成特殊的數(shù)據(jù),表示為三個(gè)不同的矩陣,更容易操作和分析。

          當(dāng)涉及到概率方法時(shí),對(duì)于更抽象的問題,最好使用線性判別分析算法。

          LDA(線性判別分析)

          線性判別分析(LDA)是一種分類方法,在這種方法中,先前已經(jīng)確定了兩個(gè)或更多的組,根據(jù)其特征將新的觀察結(jié)果歸為其中一個(gè)。

          它不同于PCA,因?yàn)長(zhǎng)DA發(fā)現(xiàn)了一個(gè)優(yōu)化組可分離性的特征子空間,而PCA忽略了類標(biāo)簽,專注于捕捉數(shù)據(jù)集的最高方差方向。

          該算法使用貝葉斯定理,這是一個(gè)概率定理,用于根據(jù)一個(gè)事件與另一個(gè)事件的關(guān)系來確定其發(fā)生的可能性。

          它經(jīng)常被用于人臉識(shí)別、客戶識(shí)別和醫(yī)學(xué)領(lǐng)域,以識(shí)別病人的疾病狀況。

          從UMIST數(shù)據(jù)庫中隨機(jī)選取的五個(gè)主體(類)的170張人臉圖像在(a)基于PCA的子空間,(b)基于D-LDA的子空間,以及(c)基于DF-LDA的子空間的分布。

          資料來源:Face recognition using LDA-based algorithms

          https://www.researchgate.net/publication/5613964FacerecognitionusingLDA-based_algorithms

          下一步是選擇你是否希望你的算法有響應(yīng),這意味著你要開發(fā)一個(gè)基于標(biāo)記數(shù)據(jù)的預(yù)測(cè)模型來教導(dǎo)你的機(jī)器。如果你愿意使用非標(biāo)簽數(shù)據(jù),你可以使用聚類技術(shù),這樣你的機(jī)器就可以在沒有指導(dǎo)的情況下工作,搜索相似性。

          另一方面,選擇相關(guān)特征(變量、預(yù)測(cè)因子)的子集用于模型創(chuàng)建的過程被稱為特征選擇。它有助于簡(jiǎn)化模型,使研究人員和用戶更容易理解它們,以及減少訓(xùn)練周期和避免維度詛咒。

          它包括聚類法、回歸法和分類法。

          二、無監(jiān)督學(xué)習(xí):聚類

          聚類是一種分離具有相似特征的群體并將其分配到群組的技術(shù)。

          如果你正在尋找一種分層的算法:

          Hierarchical Clustering(層次聚類)

          這種類型的聚類是機(jī)器學(xué)習(xí)中最流行的技術(shù)之一。層次聚類協(xié)助一個(gè)組織對(duì)數(shù)據(jù)進(jìn)行分類,以確定相似性,以及不同的分組和特征,從而使其定價(jià)、商品、服務(wù)、營銷信息和其他方面的業(yè)務(wù)有的放矢。它的層次結(jié)構(gòu)應(yīng)顯示出類似于樹狀數(shù)據(jù)結(jié)構(gòu)的數(shù)據(jù),即所謂的樹狀圖。有兩種方法對(duì)數(shù)據(jù)進(jìn)行分組:聚類和分化。

          聚合式聚類是一種 "自下而上" 的方法。換句話說,每個(gè)項(xiàng)目首先被認(rèn)為是一個(gè)單元素集群(葉子)。在該方法的每個(gè)階段,最具可比性的兩個(gè)集群被連接成一個(gè)新的更大的集群(結(jié)點(diǎn))。這種方法反復(fù)進(jìn)行,直到所有的點(diǎn)都屬于單個(gè)大簇(根)。

          分化聚類以一種 "自上而下" 的方式工作。它從根部開始,所有項(xiàng)目都分組在一個(gè)集群中,然后在每個(gè)迭代階段將最多的項(xiàng)目分成兩個(gè)。迭代程序直到所有的項(xiàng)目都在他們的組中。

          如果你不尋找分層解決方案,則必須確定你的方法是否需要指定要使用的集群數(shù)量。如果你不需要定義,你可以利用基于密度的有噪聲的應(yīng)用程序空間聚類算法。

          DBSCAN(基于密度的有噪聲的應(yīng)用程序空間聚類法)

          當(dāng)涉及到任意形狀的聚類或檢測(cè)異常值時(shí),最好使用基于密度的聚類方法。DBSCAN是一種檢測(cè)那些任意形狀的聚類和有噪聲的聚類方法,它根據(jù)兩個(gè)參數(shù):eps和minPoints將彼此接近的點(diǎn)分組。

          eps告訴我們兩個(gè)點(diǎn)之間需要有多大的距離才能被視為一個(gè)集群。而minPoints是創(chuàng)建一個(gè)集群的最小點(diǎn)數(shù)。

          我們?cè)诜治鯪etflix服務(wù)器的異常值時(shí)使用了這種算法。流媒體服務(wù)運(yùn)行著數(shù)以千計(jì)的服務(wù)器,通常只有不到百分之一的服務(wù)器能夠變得不健康,這會(huì)降低流媒體的性能。真正的問題是這個(gè)問題不容易被發(fā)現(xiàn),為了解決這個(gè)問題,Netflix使用DBSCAN指定一個(gè)要監(jiān)測(cè)的指標(biāo),然后收集數(shù)據(jù),最后傳遞給算法來檢測(cè)服務(wù)器的異常值。

          資料來源:Tracking down the Villains: Outlier Detection at Netflix

          日常使用可以是電子商務(wù)向客戶推薦產(chǎn)品。對(duì)用戶之前購買過的產(chǎn)品數(shù)據(jù)應(yīng)用DBSCAN。

          如果你需要指定聚類的數(shù)量,有三種現(xiàn)有的算法可供使用,包括K-Modes、K-Means和高斯混合模型。接下來,你需要知道是否要使用分類變量,這是一種離散變量,通過對(duì)觀察值進(jìn)行分組來捕捉定性的后果。如果你要使用它們,你可以選擇K-Modes。

          K-Modes

          這種方法被用來對(duì)分類變量進(jìn)行分組。我們確定這些類型的數(shù)據(jù)點(diǎn)之間的總不匹配度。我們的數(shù)據(jù)點(diǎn)之間的差異越少,它們就越相似。

          K-Modes和K-Means之間的主要區(qū)別是:對(duì)于分類數(shù)據(jù)點(diǎn),我們不能計(jì)算距離,因?yàn)樗鼈儾皇菙?shù)字值。

          這種算法被用于文本挖掘應(yīng)用、文檔聚類、主題建模(每個(gè)聚類組代表一個(gè)特定的主題)、欺詐檢測(cè)系統(tǒng)和市場(chǎng)營銷。

          對(duì)于數(shù)值型數(shù)據(jù),你應(yīng)該使用K-Means聚類。

          K-Means

          數(shù)據(jù)被聚類為k個(gè)組,其方式是同一聚類中的數(shù)據(jù)點(diǎn)是相關(guān)的,而其他聚類中的數(shù)據(jù)點(diǎn)則相距較遠(yuǎn)。這種距離經(jīng)常用歐幾里得距離來衡量。換句話說,K-Means算法試圖最小化聚類內(nèi)的距離,最大化不同聚類之間的距離。

          搜索引擎、消費(fèi)者細(xì)分、垃圾郵件檢測(cè)系統(tǒng)、學(xué)術(shù)表現(xiàn)、缺陷診斷系統(tǒng)、無線通信和許多其他行業(yè)都使用K-Means聚類。

          如果預(yù)期的結(jié)果是基于概率的,那么你應(yīng)該使用高斯混合模型。

          GMM(高斯混合模型)

          這種方法意味著存在許多高斯分布,每個(gè)高斯分布代表一個(gè)集群。該算法將確定每個(gè)數(shù)據(jù)點(diǎn)屬于給定批次數(shù)據(jù)的每個(gè)分布的概率。

          GMM與K-Means不同,因?yàn)樵贕MM中,我們不知道一個(gè)數(shù)據(jù)點(diǎn)是否屬于一個(gè)指定的聚類,我們使用概率來表達(dá)這種不確定性。而K-Means方法對(duì)一個(gè)數(shù)據(jù)點(diǎn)的位置是確定的,并開始在整個(gè)數(shù)據(jù)集上迭代。

          高斯混合模型經(jīng)常被用于信號(hào)處理、語言識(shí)別、異常檢測(cè)和音樂的流派分類。

          在使用標(biāo)記數(shù)據(jù)來訓(xùn)練機(jī)器的情況下,首先,你需要指定它是否要預(yù)測(cè)數(shù)字,這種數(shù)字預(yù)測(cè)將有助于算法解決問題。如果是這樣的話,你可以選擇回歸算法。

          三、監(jiān)督學(xué)習(xí):回歸

          回歸是一種機(jī)器學(xué)習(xí)算法,其結(jié)果被預(yù)測(cè)為一個(gè)連續(xù)的數(shù)值。這種方法通常用于銀行、投資和其他領(lǐng)域。

          在這里,你需要對(duì)速度和準(zhǔn)確性做出取舍。如果你正在尋找速度,你可以使用決策樹算法或線性回歸算法。

          決策樹

          決策樹是一個(gè)類似樹形數(shù)據(jù)結(jié)構(gòu)的流程圖。在這里,數(shù)據(jù)根據(jù)一個(gè)給定的參數(shù)被連續(xù)分割。每個(gè)參數(shù)允許在一個(gè)樹節(jié)點(diǎn)中,而整個(gè)樹的結(jié)果位于葉子中。有兩種類型的決策樹。

          • 分類樹(是/否類型),這里的決策變量是分類的。
          • 回歸樹(連續(xù)數(shù)據(jù)類型),這里的決策或結(jié)果變量是連續(xù)的。

          當(dāng)特征和輸出變量之間存在復(fù)雜的相互作用時(shí),決策樹就會(huì)派上用場(chǎng)。當(dāng)存在缺失的特征,類別和數(shù)字特征的混合,或特征大小的巨大差異時(shí),與其他方法相比,它們的表現(xiàn)更好。

          該算法用于提高促銷活動(dòng)的準(zhǔn)確性、欺詐檢測(cè)以及患者嚴(yán)重或可預(yù)防疾病的檢測(cè)。

          線性回歸

          基于一個(gè)給定的自變量,這種方法預(yù)測(cè)因變量的值。因此,這種回歸方法決定了輸入(自變量)和輸出(因變量)之間是否存在線性聯(lián)系。這也是線性回歸這一術(shù)語的由來。

          線性回歸非常適合于那些特征和輸出變量具有線性關(guān)系的數(shù)據(jù)集。

          它通常用于預(yù)測(cè)(這對(duì)小公司了解銷售效果特別有用),了解廣告支出和收入之間的聯(lián)系,以及在醫(yī)療行業(yè)了解藥物劑量和病人血壓之間的相關(guān)性。

          另外,如果你的算法需要準(zhǔn)確性,你可以使用以下三種算法。神經(jīng)網(wǎng)絡(luò)、梯度提升樹和隨機(jī)森林。

          神經(jīng)網(wǎng)絡(luò)

          需要一個(gè)神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)特征和目標(biāo)之間復(fù)雜的非線性關(guān)系。它是一種模擬人腦中神經(jīng)元工作的算法。有幾種類型的神經(jīng)網(wǎng)絡(luò),包括香草神經(jīng)網(wǎng)絡(luò)(只處理結(jié)構(gòu)化數(shù)據(jù)),以及循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò),它們都可以處理非結(jié)構(gòu)化數(shù)據(jù)。

          當(dāng)你有大量的數(shù)據(jù)(和處理能力),并且準(zhǔn)確性對(duì)你很重要時(shí),你幾乎肯定會(huì)利用神經(jīng)網(wǎng)絡(luò)。

          這種算法有很多應(yīng)用,例如釋義檢測(cè)、文本分類、語義解析和問答。

          Gradient Boosting Tree(梯度提升樹)

          梯度提升樹是一種將不同樹的輸出合并進(jìn)行回歸或分類的方法。這兩種監(jiān)督學(xué)習(xí)都結(jié)合了大量的決策樹,以減少每棵樹單獨(dú)面對(duì)的過擬合的危險(xiǎn)(一種統(tǒng)計(jì)建模錯(cuò)誤,當(dāng)一個(gè)函數(shù)與少量數(shù)據(jù)點(diǎn)過于緊密匹配時(shí),就會(huì)出現(xiàn)這種情況,使得模型的預(yù)測(cè)能力下降)。這種算法采用了Boosting,它需要連續(xù)組合弱學(xué)習(xí)器(通常是只有一次分裂的決策樹,稱為決策樹樁),以便每棵新樹都糾正前一棵樹的錯(cuò)誤。

          當(dāng)我們希望減少偏差誤差時(shí),也就是模型的預(yù)測(cè)與目標(biāo)值之間的差異,我們通常采用梯度提升算法。

          當(dāng)數(shù)據(jù)的維度較少,基本的線性模型表現(xiàn)不佳,可解釋性并不重要,而且沒有嚴(yán)格的延遲限制時(shí),梯度提升算法是最有利的。

          它被用在很多研究中,比如基于大師級(jí)運(yùn)動(dòng)員動(dòng)機(jī)的性別預(yù)測(cè)算法,使用梯度提升決策樹,探索他們基于心理維度預(yù)測(cè)性別的能力,評(píng)估參加大師級(jí)運(yùn)動(dòng)的原因作為統(tǒng)計(jì)方法。

          隨機(jī)森林

          隨機(jī)森林是一種解決回歸和分類問題的方法。它利用了集成學(xué)習(xí),這是一種通過結(jié)合幾個(gè)分類器來解決復(fù)雜問題的技術(shù)。

          它由許多決策樹組成,其中每一個(gè)決策樹的結(jié)果都會(huì)以平均或平均決策的方式得出最終結(jié)果。樹的數(shù)量越多,結(jié)果的精確度就越高。

          當(dāng)我們有一個(gè)巨大的數(shù)據(jù)集并且可解釋性不是一個(gè)關(guān)鍵問題時(shí),隨機(jī)森林是合適的,因?yàn)殡S著數(shù)據(jù)集的增大,它變得越來越難以把握。

          這種算法被用于股票市場(chǎng)分析、醫(yī)療領(lǐng)域的病人診斷、預(yù)測(cè)貸款申請(qǐng)人的信用度,以及欺詐檢測(cè)。

          對(duì)于非數(shù)字預(yù)測(cè)算法,你可以選擇分類方法而不是回歸。

          四、監(jiān)督學(xué)習(xí):分類

          與回歸方法一樣,你選擇的結(jié)果是偏向于速度還是準(zhǔn)確性。

          如果你在尋找準(zhǔn)確性,你不僅可以選擇核支持向量機(jī),還可以使用之前提到的其他算法,如神經(jīng)網(wǎng)絡(luò)、梯度提升樹和隨機(jī)森林?,F(xiàn)在,讓我們來介紹一下這個(gè)新算法。

          Kernel Support Vector Machine(核支持向量機(jī))

          在支持向量機(jī)模型中,通常使用核技術(shù)來連接線性和非線性。為了理解這一點(diǎn),有必要知道SVM方法學(xué)習(xí)如何通過形成決策邊界來分離不同的組。

          但是,當(dāng)我們?cè)谝粋€(gè)維度較高的數(shù)據(jù)集面前,而且成本昂貴時(shí),建議使用這種核方法。它使我們能夠在原始特征空間中工作,而不必在高維空間中計(jì)算數(shù)據(jù)的坐標(biāo)。

          它主要用于文本分類問題,因?yàn)榇蠖鄶?shù)問題都可以被線性分離。

          當(dāng)需要速度的時(shí)候,我們需要看看我們要采用的技術(shù)是否是可解釋的,這意味著它可以解釋你的模型中從頭到尾發(fā)生了什么。在這種情況下,我們可能會(huì)使用決策樹算法或Logistic回歸算法。

          Logistic Regression(邏輯回歸)

          當(dāng)因變量是分類的時(shí)候,就會(huì)使用Logistic回歸。通過概率估計(jì),它有助于理解因變量和一個(gè)或多個(gè)自變量之間的聯(lián)系。

          有三種不同類型的Logistic回歸。

          • 二元邏輯回歸,響應(yīng)只有兩個(gè)可能的值。
          • 多項(xiàng)式Logistic回歸,三個(gè)或更多的結(jié)果,沒有順序。
          • 有序邏輯回歸,三個(gè)或更多的類別,有順序。

          邏輯回歸算法在酒店預(yù)訂中被廣泛使用,它(通過統(tǒng)計(jì)研究)向你展示了你在預(yù)訂中可能想要的選項(xiàng),如酒店房間、該地區(qū)的一些行程等等。

          如果你只對(duì)問題的輸入和輸出感興趣,你可以檢查你所處理的數(shù)據(jù)是否太大。如果數(shù)量很大,你可以使用線性支持向量機(jī)。

          Linear Support Vector Machine(線性支持向量機(jī))

          線性SVM用于線性可分離的數(shù)據(jù)。它在具有不同變量的數(shù)據(jù)(線性可分離數(shù)據(jù))中工作,這些變量可以用一條簡(jiǎn)單的直線(線性SVM分類器)來分離。這條直線代表了用戶的行為或通過既定問題的結(jié)果。

          由于文本通常是線性可分離的,并且有很多特征,因此線性SVM是用于其分類的最佳選擇。

          在我們的下一個(gè)算法中,如果數(shù)據(jù)量大或者不大,你都可以使用它。

          Na?ve Bayes(樸素貝葉斯)

          這種算法是基于貝葉斯定理的。它包括通過對(duì)象的概率進(jìn)行預(yù)測(cè)。它被稱為Na?ve(樸素),是因?yàn)樗僭O(shè)一個(gè)特征的出現(xiàn)與其他特征的出現(xiàn)無關(guān)。

          這種方法深受歡迎,因?yàn)樗踔量梢猿阶顝?fù)雜的分類方法。此外,它構(gòu)造簡(jiǎn)單,可迅速建立。

          由于其易于使用和高效,它被用來做實(shí)時(shí)決策。與此同時(shí),Gmail使用這種算法來知道一封郵件是否是垃圾郵件。

          Gmail垃圾郵件檢測(cè)選擇一組詞或 "標(biāo)記" 來識(shí)別垃圾郵件(這種方法也用于文本分類,它通常被稱為詞袋)。接下來,他們使用這些tokens(令牌),將其與垃圾郵件和非垃圾郵件進(jìn)行比較。最后,使用Na?ve Bayes算法,他們計(jì)算出該郵件是否是垃圾郵件的概率。

          總結(jié)

          我們發(fā)現(xiàn),機(jī)器學(xué)習(xí)是一種被廣泛使用的技術(shù),由于它經(jīng)常發(fā)生,因此我們無法識(shí)別許多應(yīng)用。在這篇文章中,我們不僅區(qū)分了機(jī)器學(xué)習(xí)的不同方法,還區(qū)分了如何根據(jù)我們正在處理的數(shù)據(jù)和我們想要解決的問題來使用它們。

          要學(xué)習(xí)機(jī)器學(xué)習(xí),你必須具備一些微積分、線性代數(shù)、統(tǒng)計(jì)學(xué)和編程技能的知識(shí)。你可以使用不同的編程語言來實(shí)現(xiàn)其中一種算法,從Python到C++,以及R語言。這取決于你做出最好的決定,并與你的機(jī)器一起開始學(xué)習(xí)。

          原文鏈接??:

          https://medium.com/accel-ai/machine-learning-algorithms-cheat-sheet-990104aaaabc


          往期精彩:

           深度學(xué)習(xí)論文精讀[1]:FCN全卷積網(wǎng)絡(luò)

           深度學(xué)習(xí)論文精讀[2]:UNet網(wǎng)絡(luò)

           深度學(xué)習(xí)論文精讀[3]:SegNet

           深度學(xué)習(xí)論文精讀[4]:RefineNet

           深度學(xué)習(xí)論文精讀[5]:Attention UNet

           講解視頻來了!機(jī)器學(xué)習(xí) 公式推導(dǎo)與代碼實(shí)現(xiàn)開錄!

           完結(jié)!《機(jī)器學(xué)習(xí) 公式推導(dǎo)與代碼實(shí)現(xiàn)》全書1-26章PPT下載

          瀏覽 27
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚州国产色婷婷 | 亚州免费视频 | 色香蕉网站 | 黄色一级视频 | 无码精品一区二区三区免费久久 |