<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          如何用上邏輯回歸讓數(shù)據(jù)分析顯得高大上?

          共 2372字,需瀏覽 5分鐘

           ·

          2021-02-02 02:37

          今天我們將學習邏輯回歸(logistics regression),由于邏輯回歸是基于線性回歸的特殊變化,我將用最簡單通俗的語言來為大家介紹邏輯回歸模型及其應用。


          邏輯回歸是解決二分類問題的監(jiān)督學習算法,用來估計某個類別的概率。其直接預測值是表示0-1區(qū)間概率的數(shù)據(jù),基于概率再劃定閾值進行分類,而求解概率的過程就是回歸的過程。

          ?

          邏輯回歸應用于數(shù)據(jù)分析的場景主要有三種:

          • 驅(qū)動力分析:某個事件發(fā)生與否受多個因素所影響,分析不同因素對事件發(fā)生驅(qū)動力的強弱(驅(qū)動力指相關性,不是因果性);

          • 預測:預測事件發(fā)生的概率;

          • 分類:適合做多種分類算法、因果分析等的基礎組件;


          01


          ? ??
          邏輯回歸的原理


          下圖是之前講到的線性回歸模型的數(shù)據(jù)分布,線性回歸是用一條線來擬合自變量和因變量之間的關系,我們可以看到其輸出結果y是連續(xù)的。例如我們想預測不同用戶特征對所使用產(chǎn)品的滿意分,可以采用線性回歸模型。但是如果我們想根據(jù)這些因素去判斷用戶的性別,或者是否推薦使用等,之前的線性回歸就不適用了,這時,我們就要用到邏輯回歸進行二分類了。但是分類模型輸出結果卻需要是離散的,如何把連續(xù)型的y轉(zhuǎn)化為取值范圍0-1的數(shù)值呢?

          ?

          答案是,我們只需要將線性回歸模型的結果帶入到sigmoid函數(shù)(sigmoid函數(shù)就是Logistic函數(shù),故本算法名為邏輯回歸),即可將線性回歸模型轉(zhuǎn)化為二分類問題,這就是邏輯回歸。我們可以這樣理解:邏輯回歸=線性回歸+sigmoid函數(shù)
          ?
          那么,什么是sigmoid函數(shù)呢?如圖,當輸入值趨于無窮小時,函數(shù)值趨近于0;輸入值趨于無窮大時,函數(shù)值趨近于1。我們將線性回歸結果y帶入到sigmoid函數(shù)的x,即下圖橫坐標,就輕而易舉的將連續(xù)變量y轉(zhuǎn)換為了0-1區(qū)間的一個概率值。當這個概率值(函數(shù)值)小于0.5時,我們將最終結果預測為0,當概率值大于0.5時,我們將預測結果預測為1。
          ?

          以上就是邏輯回歸的基本原理,簡述一下邏輯回歸的算法步驟,可以概括為四步:

          • 將自變量特征輸入
          • 定義自變量的線性組合y,即針對自變量線性回歸
          • 將線性回歸結果y映射到sigmoid函數(shù),生成一個0-1范圍取值的函數(shù)概率值
          • 根據(jù)概率值,定義閾值(通常為0.5),判定分類結果的正負
          ?
          ? ??

          02


          ? ??
          邏輯回歸的目標函數(shù)

          在明確了邏輯回歸的原理后,我們來看它的目標函數(shù)可以用什么來表示?在之前的線性回歸模型中,我們用誤差平方和來做其目標函數(shù),意思就是每個數(shù)據(jù)點預測值與實際值誤差的平方和。在此,我們將單一數(shù)據(jù)點的誤差定義為cost函數(shù),即可獲得目標函數(shù)的通用形式:
          我希望每一個我預測出的數(shù)據(jù)點結果使得它的誤差所帶來的代價越小越好,然后求和所得到的目標函數(shù)也是越小越好。在具體模型訓練的時候,我們在假設可以調(diào)整模型的一些參數(shù),通過這些參數(shù)我們求得每一點的預測值,最終我們調(diào)整模型參數(shù)使得目標函數(shù)可以取到它能取得的最小值。
          ?
          但是邏輯回歸不可用最小誤差平方和作為其目標函數(shù),原因主要是邏輯回歸的優(yōu)化方法需要使用梯度下降法?,而使用誤差平方和會導致非凸(non-convex)的目標函數(shù),非凸函數(shù)會存在多個局部極小值,而多個局部極小值不利于用梯度下降法找到全局的最小損失值。

          ?那么邏輯回歸用什么來表示誤差呢?如果y表示樣本的真實標簽,即0或者1,f(x)表示預測結果是0或者1的概率,f(x)的取值在區(qū)間[0,1]。
          ?
          邏輯回歸的cost函數(shù)如下,我們?nèi)绾卫斫膺@個公式呢?


          當真實標簽為正時,即y= 1,Cost函數(shù)=-log?(f(x)), 預測值越接近于1,說明預測越準確,則損失函數(shù)趨于0。
          當真實標簽為負時,即y= 0,Cost函數(shù)=-log?(1-f(x)),預測值越接近于0,說明預測越準確,則損失函數(shù)趨于0。


          將邏輯回歸的cost函數(shù)簡化,即得出:


          將邏輯回歸cost函數(shù)帶入目標函數(shù)通用形式,即可形成邏輯回歸最終的目標函數(shù):



          ? ??

          03


          ? ??
          邏輯回歸python實現(xiàn)
          ?
          鳶尾花下有三個亞屬,分別是山鳶尾 (setosa),變色鳶尾(versicolor)和維吉尼亞鳶尾(virginica),據(jù)此可將鳶尾屬花分為以上三類。本案例根據(jù)花萼的長度和寬度,花瓣的長度和寬度,采用邏輯回歸建立分類模型,對鳶尾屬花進行分類。
          ?
          1、導入包及訓練數(shù)據(jù)集


          2、觀測多特征數(shù)據(jù)點分布
          通過觀察特征分布,發(fā)現(xiàn)山鳶尾(藍色)與其他兩類花能夠較好區(qū)分,但是變色鳶尾(綠色)和維吉尼亞鳶尾(紅色)相對難以區(qū)分。
          ?


          3、數(shù)據(jù)清洗、劃分訓練集
          將分類變量賦于0/1/2數(shù)值,觀測結果標簽分布,發(fā)現(xiàn)各種類型鳶尾分布均勻。將特征變量和結果變量進行劃分,并劃分訓練集與測試集。


          4、? 訓練分類模型、并進行分類性能評估



          5、構建混淆矩陣
          觀察混淆矩陣,發(fā)現(xiàn)我們的分類器只在兩個樣本上預測失誤。這兩個樣本真實類別是2(virginica,維吉尼亞鳶尾),而我們的分類器將其分類成1(versicolor,變色鳶尾)


          6、獲取模型系數(shù)與截距(模型系數(shù)即為影響事件發(fā)生的驅(qū)動力)

          ?


          上邏輯回歸就講完了,邏輯回歸是數(shù)據(jù)分析面試的高頻考點,一定要熟練掌握喔~

          --------? ?往 期 推 薦??----------

          ? ??

          瀏覽 50
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美一区二区三区四区在线 | 久草小视频 | 青青草成人自拍 | 狠狠干视频在线 | 神马影音先锋无码视频 |