<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          初學(xué)者 | 10個(gè)例子帶你了解機(jī)器學(xué)習(xí)中的線性代數(shù)

          共 3662字,需瀏覽 8分鐘

           ·

          2020-09-15 08:45

          ↑↑↑點(diǎn)擊上方藍(lán)字,回復(fù)資料,10個(gè)G的驚喜


          選自 | machinelearningmastery? ?作者 |?Jason Brownlee

          編譯 | 機(jī)器之心? ?參與 | 張倩、劉曉坤

          本文介紹了 10 個(gè)常見(jiàn)機(jī)器學(xué)習(xí)案例,這些案例需要用線性代數(shù)才能得到最好的理解。

          線性代數(shù)是數(shù)學(xué)的分支學(xué)科,涉及矢量、矩陣和線性變換。


          它是機(jī)器學(xué)習(xí)的重要基礎(chǔ),從描述算法操作的符號(hào)到代碼中算法的實(shí)現(xiàn),都屬于該學(xué)科的研究范圍。

          雖然線性代數(shù)是機(jī)器學(xué)習(xí)領(lǐng)域不可或缺的一部分,但二者的緊密關(guān)系往往無(wú)法解釋,或只能用抽象概念(如向量空間或特定矩陣運(yùn)算)解釋。

          閱讀這篇文章后,你將會(huì)了解到:

          • 如何在處理數(shù)據(jù)時(shí)使用線性代數(shù)結(jié)構(gòu),如表格數(shù)據(jù)集和圖像。

          • 數(shù)據(jù)準(zhǔn)備過(guò)程中用到的線性代數(shù)概念,例如 one-hot 編碼和降維。

          • 深度學(xué)習(xí)、自然語(yǔ)言處理和推薦系統(tǒng)等子領(lǐng)域中線性代數(shù)符號(hào)和方法的深入使用。


          讓我們開(kāi)始吧。

          這 10 個(gè)機(jī)器學(xué)習(xí)案例分別是:

          1. Dataset and Data Files 數(shù)據(jù)集和數(shù)據(jù)文件
          2. Images and Photographs 圖像和照片
          3. One-Hot Encoding one-hot 編碼
          4. Linear Regression 線性回歸
          5. Regularization 正則化
          6. Principal Component Analysis 主成分分析
          7. Singular-Value Decomposition 奇異值分解
          8. Latent Semantic Analysis 潛在語(yǔ)義分析
          9. Recommender Systems 推薦系統(tǒng)
          10. Deep Learning 深度學(xué)習(xí)

          ???1. 數(shù)據(jù)集和數(shù)據(jù)文件

          在機(jī)器學(xué)習(xí)中,你可以在數(shù)據(jù)集上擬合一個(gè)模型。

          這是表格式的一組數(shù)字,其中每行代表一組觀察值,每列代表觀測(cè)的一個(gè)特征。

          例如,下面這組數(shù)據(jù)是鳶尾花數(shù)據(jù)集的一部分

          數(shù)據(jù)集:http://archive.ics.uci.edu/ml/datasets/Iris

          5.1,3.5,1.4,0.2,Iris-setosa
          4.9,3.0,1.4,0.2,Iris-setosa
          4.7,3.2,1.3,0.2,Iris-setosa
          4.6,3.1,1.5,0.2,Iris-setosa
          5.0,3.6,1.4,0.2,Iris-setosa

          這些數(shù)據(jù)實(shí)際上是一個(gè)矩陣:線性代數(shù)中的一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

          接下來(lái),將數(shù)據(jù)分解為輸入數(shù)據(jù)和輸出數(shù)據(jù),來(lái)擬合一個(gè)監(jiān)督機(jī)器學(xué)習(xí)模型(如測(cè)量值和花卉品種),得到矩陣(X)和矢量(y)。矢量是線性代數(shù)中的另一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

          每行長(zhǎng)度相同,即每行的數(shù)據(jù)個(gè)數(shù)相同,因此我們可以說(shuō)數(shù)據(jù)是矢量化的。這些行數(shù)據(jù)可以一次性或成批地提供給模型,并且可以預(yù)先配置模型,以得到固定寬度的行數(shù)據(jù)。

          ???2. 圖像和照片

          也許你更習(xí)慣于在計(jì)算機(jī)視覺(jué)應(yīng)用中處理圖像或照片。

          你使用的每個(gè)圖像本身都是一個(gè)固定寬度和高度的表格結(jié)構(gòu),每個(gè)單元格有用于表示黑白圖像的 1 個(gè)像素值或表示彩色圖像的 3 個(gè)像素值。

          照片也是線性代數(shù)矩陣的一種。

          與圖像相關(guān)的操作,如裁剪、縮放、剪切等,都是使用線性代數(shù)的符號(hào)和運(yùn)算來(lái)描述的。

          ???3. one-hot 編碼

          有時(shí)機(jī)器學(xué)習(xí)中要用到分類數(shù)據(jù)。

          可能是用于解決分類問(wèn)題的類別標(biāo)簽,也可能是分類輸入變量。

          對(duì)分類變量進(jìn)行編碼以使它們更易于使用并通過(guò)某些技術(shù)進(jìn)行學(xué)習(xí)是很常見(jiàn)的。one-hot 編碼是一種常見(jiàn)的分類變量編碼。

          one-hot 編碼可以理解為:創(chuàng)建一個(gè)表格,用列表示每個(gè)類別,用行表示數(shù)據(jù)集中每個(gè)例子。在列中為給定行的分類值添加一個(gè)檢查或「1」值,并將「0」值添加到所有其他列。

          例如,共計(jì) 3 行的顏色變量:


          red
          green
          blue
          ...

          這些變量可能被編碼為:

          red, green, blue
          1, 0, 0
          0, 1, 0
          0, 0, 1
          ...

          每一行都被編碼為一個(gè)二進(jìn)制矢量,一個(gè)被賦予「0」或「1」值的矢量。這是一個(gè)稀疏表征的例子,線性代數(shù)的一個(gè)完整子域。

          ???4. 線性回歸

          線性回歸是一種用于描述變量之間關(guān)系的統(tǒng)計(jì)學(xué)傳統(tǒng)方法。

          該方法通常在機(jī)器學(xué)習(xí)中用于預(yù)測(cè)較簡(jiǎn)單的回歸問(wèn)題的數(shù)值。

          描述和解決線性回歸問(wèn)題有很多種方法,即找到一組系數(shù),用這些系數(shù)與每個(gè)輸入變量相乘并將結(jié)果相加,得出最佳的輸出變量預(yù)測(cè)。

          如果您使用過(guò)機(jī)器學(xué)習(xí)工具或機(jī)器學(xué)習(xí)庫(kù),解決線性回歸問(wèn)題的最常用方法是通過(guò)最小二乘優(yōu)化,這一方法是使用線性回歸的矩陣分解方法解決的(例如 LU 分解或奇異值分解)。

          即使是線性回歸方程的常用總結(jié)方法也使用線性代數(shù)符號(hào):


          y = A . b

          其中,y 是輸出變量,A 是數(shù)據(jù)集,b 是模型系數(shù)。

          ???5. 正則化

          在應(yīng)用機(jī)器學(xué)習(xí)時(shí),我們往往尋求最簡(jiǎn)單可行的模型來(lái)發(fā)揮解決問(wèn)題的最佳技能。

          較簡(jiǎn)單的模型通常更擅長(zhǎng)從具體示例泛化到未見(jiàn)過(guò)的數(shù)據(jù)。

          在涉及系數(shù)的許多方法中,例如回歸方法和人工神經(jīng)網(wǎng)絡(luò),較簡(jiǎn)單的模型通常具有較小的系數(shù)值。

          一種常用于模型在數(shù)據(jù)擬合時(shí)盡量減小系數(shù)值的技術(shù)稱為正則化,常見(jiàn)的實(shí)現(xiàn)包括正則化的 L2 和 L1 形式。

          這兩種正則化形式實(shí)際上是系數(shù)矢量的大小或長(zhǎng)度的度量,是直接脫胎于名為矢量范數(shù)的線性代數(shù)方法。

          ???6. 主成分分析

          通常,數(shù)據(jù)集有許多列,列數(shù)可能達(dá)到數(shù)十、數(shù)百、數(shù)千或更多。

          對(duì)具有許多特征的數(shù)據(jù)進(jìn)行建模具有一定的挑戰(zhàn)性。而且,從包含不相關(guān)特征的數(shù)據(jù)構(gòu)建的模型通常不如用最相關(guān)的數(shù)據(jù)訓(xùn)練的模型。

          我們很難知道數(shù)據(jù)的哪些特征是相關(guān)的,而哪些特征又不相關(guān)。

          自動(dòng)減少數(shù)據(jù)集列數(shù)的方法稱為降維,其中也許最流行的方法是主成分分析法(簡(jiǎn)稱 PCA)。

          該方法在機(jī)器學(xué)習(xí)中,為可視化和模型創(chuàng)建高維數(shù)據(jù)的投影。

          PCA 方法的核心是線性代數(shù)的矩陣分解方法,可能會(huì)用到特征分解,更廣義的實(shí)現(xiàn)可以使用奇異值分解(SVD)。

          ???7. 奇異值分解

          另一種流行的降維方法是奇異值分解方法,簡(jiǎn)稱 SVD。

          如上所述,正如該方法名稱所示,它是源自線性代數(shù)領(lǐng)域的矩陣分解方法。

          該方法在線性代數(shù)中有廣泛的用途,可直接應(yīng)用于特征選擇、可視化、降噪等方面。

          在機(jī)器學(xué)習(xí)中我們會(huì)看到以下兩個(gè)使用 SVD 的情況。

          ???8. 潛在語(yǔ)義分析

          在用于處理文本數(shù)據(jù)的機(jī)器學(xué)習(xí)子領(lǐng)域(稱為自然語(yǔ)言處理),通常將文檔表示為詞出現(xiàn)的大矩陣。

          例如,矩陣的列可以是詞匯表中的已知詞,行可以是文本的句子、段落、頁(yè)面或文檔,矩陣中的單元格標(biāo)記為單詞出現(xiàn)的次數(shù)或頻率。

          這是文本的稀疏矩陣表示。矩陣分解方法(如奇異值分解)可以應(yīng)用于此稀疏矩陣,該分解方法可以提煉出矩陣表示中相關(guān)性最強(qiáng)的部分。以這種方式處理的文檔比較容易用來(lái)比較、查詢,并作為監(jiān)督機(jī)器學(xué)習(xí)模型的基礎(chǔ)。

          這種形式的數(shù)據(jù)準(zhǔn)備稱為潛在語(yǔ)義分析(簡(jiǎn)稱 LSA),也稱為潛在語(yǔ)義索引(LSI)。

          ???9. 推薦系統(tǒng)

          涉及產(chǎn)品推薦的預(yù)測(cè)建模問(wèn)題被稱為推薦系統(tǒng),這是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域。

          例如,基于你在亞馬遜上的購(gòu)買記錄和與你類似的客戶的購(gòu)買記錄向你推薦書(shū)籍,或根據(jù)你或與你相似的用戶在 Netflix 上的觀看歷史向你推薦電影或電視節(jié)目。

          推薦系統(tǒng)的開(kāi)發(fā)主要涉及線性代數(shù)方法。一個(gè)簡(jiǎn)單的例子就是使用歐式距離或點(diǎn)積之類的距離度量來(lái)計(jì)算稀疏顧客行為向量之間的相似度。

          像奇異值分解這樣的矩陣分解方法在推薦系統(tǒng)中被廣泛使用,以提取項(xiàng)目和用戶數(shù)據(jù)的有用部分,以備查詢、檢索及比較。

          ???10. 深度學(xué)習(xí)

          人工神經(jīng)網(wǎng)絡(luò)是一種非線性機(jī)器學(xué)習(xí)算法,它受大腦中信息處理元素的啟發(fā),其有效性已經(jīng)在一系列問(wèn)題中得到驗(yàn)證,其中最重要的是預(yù)測(cè)建模。

          深度學(xué)習(xí)是近期出現(xiàn)的、使用最新方法和更快硬件的人工神經(jīng)網(wǎng)絡(luò)的復(fù)興,這一方法使得在非常大的數(shù)據(jù)集上開(kāi)發(fā)和訓(xùn)練更大更深的(更多層)網(wǎng)絡(luò)成為可能。深度學(xué)習(xí)方法通常會(huì)在機(jī)器翻譯、照片字幕、語(yǔ)音識(shí)別等一系列具有挑戰(zhàn)性的領(lǐng)域取得最新成果。

          神經(jīng)網(wǎng)絡(luò)的執(zhí)行涉及線性代數(shù)數(shù)據(jù)結(jié)構(gòu)的相乘和相加。如果擴(kuò)展到多個(gè)維度,深度學(xué)習(xí)方法可以處理向量、矩陣,甚至輸入和系數(shù)的張量,此處的張量是一個(gè)兩維以上的矩陣。

          線性代數(shù)是描述深度學(xué)習(xí)方法的核心,它通過(guò)矩陣表示法來(lái)實(shí)現(xiàn)深度學(xué)習(xí)方法,例如 Google 的 TensorFlow Python 庫(kù),其名稱中包含「tensor」一詞。

          原文鏈接:https://machinelearningmastery.com/examples-of-linear-algebra-in-machine-learning/

          掃描二維碼添加好友↓

          推薦閱讀

          (點(diǎn)擊標(biāo)題可跳轉(zhuǎn)閱讀)

          震驚!深度學(xué)習(xí)崗位已崩潰!

          Numpy核心語(yǔ)法和代碼整理匯總!

          數(shù)學(xué)系的概率論和我們的不太一樣。。。

          【數(shù)學(xué)史】矩陣和線性代數(shù)原來(lái)是這么來(lái)的

          老鐵,三連支持一下,好嗎?↓↓↓

          瀏覽 61
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  豆花成人理论在线电影一区二区 | 久久视频网黄色 | 天天夜夜橾橾 | 日日干天天操 | 啪啪在线观看 |