機器學習常用損失函數(shù)總覽:基本形式、原理、特點
點擊上方“小白學視覺”,選擇加"星標"或“置頂”
重磅干貨,第一時間送達
本文轉自 | 視覺算法
目錄:
-
前言 -
均方差損失 Mean Squared Error Loss -
平均絕對誤差損失 Mean Absolute Error Loss -
Huber Loss -
分位數(shù)損失 Quantile Loss -
交叉熵損失 Cross Entropy Loss -
合頁損失 Hinge Loss -
總結
損失函數(shù) Loss Function 通常是針對單個訓練樣本而言,給定一個模型輸出 和一個真實 ,損失函數(shù)輸出一個實值損失
代價函數(shù) Cost Function 通常是針對整個訓練集(或者在使用 mini-batch gradient descent 時一個 mini-batch)的總損失
目標函數(shù) Objective Function 是一個更通用的術語,表示任意希望被優(yōu)化的函數(shù),用于機器學習領域和非機器學習領域(比如運籌優(yōu)化)
基本形式與原理:
背后的假設:
因此在這個假設能被滿足的場景中(比如回歸),均方差損失是一個很好的損失函數(shù)選擇;當這個假設沒能被滿足的場景中(比如分類),均方差損失不是一個好的選擇。
03 平均絕對誤差損失
基本形式與原理:
背后的假設:
MAE 與 MSE 區(qū)別:
-
第一個角度是直觀地理解,下圖是 MAE 和 MSE 損失畫到同一張圖里面,由于MAE 損失與絕對誤差之間是線性關系,MSE 損失與誤差是平方關系,當誤差非常大的時候,MSE 損失會遠遠大于 MAE 損失。因此當數(shù)據(jù)中出現(xiàn)一個誤差非常大的 outlier 時,MSE 會產(chǎn)生一個非常大的損失,對模型的訓練會產(chǎn)生較大的影響。
Huber Loss 的特點:
05 分位數(shù)損失 Quantile Loss
二分類:
多分類:
Cross Entropy is good. But WHY?
可以看到通過最小化交叉熵的角度推導出來的結果和使用最大化似然得到的結果是一致的。
07 合頁損失 Hinge Loss
合頁損失 Hinge Loss 是另外一種二分類損失函數(shù),適用于 maximum-margin 的分類,支持向量機 Support Vector Machine (SVM) 模型的損失函數(shù)本質上就是 Hinge Loss + L2 正則化。
Machine Learning: A Probabilistic Perspective
Picking Loss Functions - A comparison between MSE, Cross Entropy, and Hinge Loss
5 Regression Loss Functions All Machine Learners Should Know
Quantile Regression Demo
交流群
歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~

