fbpx
维基百科

分類問題之損失函數

機器學習最佳化領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別。將一個向量空間做為所有的輸入值,而向量空間做為所有的輸出值。我们希望能夠找到最佳的公式映射到[1]。然而,由于信息不完整、雜訊、计算過程中的非确定性模块等因素,有可能會有相同的輸入值映射到不同的輸出值[2]。因此,這個學習過程的目的就是要最小化預期風險(更详细的介绍参见统计学习理论),預期風險之定義為:

各种代理损失函数的曲线。蓝色为0–1指示函数,绿色为平方损失函数,紫色为铰链损失函数,黄色为逻辑损失函数。注意所有代理损失函数对y=f(x= 0) 均给出1的惩罚。

其中即損失函數,而為機率密度函數。而實作上概率分布通常是未知的,因此我们使用由数据样本空间中取出的獨立且同分布(i.i.d.)的樣本點

作为训练集,將樣本空間所得到的经验風險做為預期風險的替代,其定義為:

基於分類問題的二元性,可定義0-1函數做為匹配值之基準。因此損失函數為:

其中步階函數。然而損失函數並不是凸函數或平滑函數,是一種NP-hard的問題,因此做為替代,需要使用可以追蹤的機器學習演算法(透過凸損失函數)。

分類問題之界線 编辑

使用貝式定理,可以基於問題的二元性最佳化映射公式 為:

 

 

簡化分類問題預期風險 编辑

 

平方損失 编辑

 

平方損失凸且平滑,但容易過度懲罰錯誤預測,導致收斂速度比邏輯損失和鏈結損失慢。它的優點為有助於簡化交叉驗證之正則化(regularization)。

最小化預期風險之映射函數為:

 

鏈結損失 编辑

 

鏈結損失公式等同於支持向量機(SVM)的損失公式。鏈結損失凸但不平滑(在 不可微分),因此不適用於梯度下降法和隨機梯度下降法,但適用次梯度下降法。 最小化預期風險之映射函數為:

 

廣義平滑鏈結損失 编辑

 

其中 

邏輯損失 编辑

 

適用於梯度下降法,但不會對錯誤預測做懲罰。 最小化預期風險之映射函數為:

 

交叉熵損失 编辑

 

其中  so that   屬於凸函數,適用於隨機梯度下降法。

指數損失 编辑

 

参考资料 编辑

  1. ^ Shen, Yi, Loss Functions For Binary Classification and Class Probability Estimation (PDF), University of Pennsylvania, 2005 [6 December 2014], (原始内容 (PDF)于2019-06-14) 
  2. ^ Rosasco, Lorenzo; Poggio, Tomaso, A Regularization Tour of Machine Learning, MIT-9.520 Lectures Notes, Manuscript, 2014 

分類問題之損失函數, 此條目需要編修, 以確保文法, 用詞, 语气, 格式, 標點等使用恰当, 2022年6月1日, 請按照校對指引, 幫助编辑這個條目, 幫助, 討論, 此條目包含過多行話或專業術語, 可能需要簡化或提出進一步解釋, 2022年6月1日, 請在討論頁中發表對於本議題的看法, 並移除或解釋本條目中的行話, 在機器學習和最佳化領域中, 可以用來表達預測不準確之程度, 其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別, 將一個向量空間x, displaystyle, 做為所有的輸入值, 而向量空間y. 此條目需要編修 以確保文法 用詞 语气 格式 標點等使用恰当 2022年6月1日 請按照校對指引 幫助编辑這個條目 幫助 討論 此條目包含過多行話或專業術語 可能需要簡化或提出進一步解釋 2022年6月1日 請在討論頁中發表對於本議題的看法 並移除或解釋本條目中的行話 在機器學習和最佳化領域中 分類問題之損失函數可以用來表達預測不準確之程度 其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別 將一個向量空間X displaystyle X 做為所有的輸入值 而向量空間Y 1 1 displaystyle Y 1 1 做為所有的輸出值 我们希望能夠找到最佳的公式f X ℜ displaystyle f X rightarrow Re 將x displaystyle vec x 映射到y displaystyle y 1 然而 由于信息不完整 雜訊 计算過程中的非确定性模块等因素 有可能會有相同的輸入值x displaystyle vec x 映射到不同的輸出值y displaystyle y 2 因此 這個學習過程的目的就是要最小化預期風險 更详细的介绍参见统计学习理论 預期風險之定義為 各种代理损失函数的曲线 蓝色为0 1指示函数 绿色为平方损失函数 紫色为铰链损失函数 黄色为逻辑损失函数 注意所有代理损失函数对y f x 0 均给出1的惩罚 I f X Y V f x y p x y d x d y displaystyle I f textstyle int X times Y displaystyle V f vec x y p vec x y d vec x dy 其中V f x y displaystyle V f vec x y 即損失函數 而p x y displaystyle p vec x y 為機率密度函數 而實作上概率分布p x y displaystyle p vec x y 通常是未知的 因此我们使用由数据样本空间中取出的n displaystyle n 個獨立且同分布 i i d 的樣本點 S x 1 y 1 x n y n displaystyle S vec x 1 y 1 vec x n y n 作为训练集 將樣本空間所得到的经验風險做為預期風險的替代 其定義為 I S f 1 n i 1 n V f x i y i displaystyle I S f frac 1 n sum i 1 n V f vec x i y i 基於分類問題的二元性 可定義0 1函數做為匹配值之基準 因此損失函數為 V f x y H y f x displaystyle V f vec x y H yf vec x 其中H displaystyle H 為步階函數 然而損失函數並不是凸函數或平滑函數 是一種NP hard的問題 因此做為替代 需要使用可以追蹤的機器學習演算法 透過凸損失函數 目录 1 分類問題之界線 2 簡化分類問題預期風險 3 平方損失 4 鏈結損失 5 廣義平滑鏈結損失 6 邏輯損失 7 交叉熵損失 8 指數損失 9 参考资料分類問題之界線 编辑使用貝式定理 可以基於問題的二元性最佳化映射公式f displaystyle f nbsp 為 f x 1 if p 1 x gt p 1 x 1 if p 1 x lt p 1 x displaystyle f vec x begin cases 1 amp text if p 1 mid vec x gt p 1 mid vec x 1 amp text if p 1 mid vec x lt p 1 mid vec x end cases nbsp 當p 1 x p 1 x displaystyle p 1 mid vec x neq p 1 mid vec x nbsp 簡化分類問題預期風險 编辑I f x X Y V f x y p x y d x d y X Y V f x y p x y p x d y d x X V f x p 1 x V f x p 1 x p x d x X V f x p 1 x V f x 1 p 1 x p x d x displaystyle begin alignedat 4 I f x amp int X times Y V f vec x y p vec x y d vec x dy amp int X int Y V f vec x y p vec x y p vec x dyd vec x amp int X V f vec x p 1 mid x V f vec x p 1 mid x p vec x d vec x amp int X V f vec x p 1 mid x V f vec x 1 p 1 mid x p vec x d vec x end alignedat nbsp 平方損失 编辑V f x y 1 y f x 2 displaystyle V f vec x y 1 yf vec x 2 nbsp 平方損失凸且平滑 但容易過度懲罰錯誤預測 導致收斂速度比邏輯損失和鏈結損失慢 它的優點為有助於簡化交叉驗證之正則化 regularization 最小化預期風險之映射函數為 f S q u a r e 2 p 1 x 1 displaystyle f Square 2p 1 mid x 1 nbsp 鏈結損失 编辑V f x y max 0 1 y f x 1 y f x displaystyle V f vec x y max 0 1 yf vec x 1 yf vec x nbsp 鏈結損失公式等同於支持向量機 SVM 的損失公式 鏈結損失凸但不平滑 在y f x 1 displaystyle yf vec x 1 nbsp 不可微分 因此不適用於梯度下降法和隨機梯度下降法 但適用次梯度下降法 最小化預期風險之映射函數為 f S q u a r e 2 p 1 x 1 displaystyle f Square 2p 1 mid x 1 nbsp 廣義平滑鏈結損失 编辑f a z a a 1 if z lt 0 1 a 1 z a 1 z a a 1 if 0 lt z lt 1 0 if z 1 displaystyle f alpha z begin cases frac alpha alpha 1 amp text if z lt 0 frac 1 alpha 1 z alpha 1 z frac alpha alpha 1 amp text if 0 lt z lt 1 0 amp text if z geq 1 end cases nbsp 其中z y f x displaystyle z yf vec x nbsp 邏輯損失 编辑V f x y 1 ln 2 ln 1 e y f x displaystyle V f vec x y frac 1 ln 2 ln 1 e yf vec x nbsp 適用於梯度下降法 但不會對錯誤預測做懲罰 最小化預期風險之映射函數為 f Logistic ln p 1 x 1 p 1 x displaystyle f text Logistic ln left frac p 1 mid x 1 p 1 mid x right nbsp 交叉熵損失 编辑V f x t t ln f x 1 t ln 1 f x displaystyle V f vec x t t ln f vec x 1 t ln 1 f vec x nbsp 其中t 1 y 2 displaystyle t 1 y 2 nbsp so that t 0 1 displaystyle t in 0 1 nbsp 屬於凸函數 適用於隨機梯度下降法 指數損失 编辑V f x y e b y f x displaystyle V f vec x y e beta yf vec x nbsp 参考资料 编辑 Shen Yi Loss Functions For Binary Classification and Class Probability Estimation PDF University of Pennsylvania 2005 6 December 2014 原始内容存档 PDF 于2019 06 14 Rosasco Lorenzo Poggio Tomaso A Regularization Tour of Machine Learning MIT 9 520 Lectures Notes Manuscript 2014 取自 https zh wikipedia org w index php title 分類問題之損失函數 amp oldid 78562539, 维基百科,wiki,书籍,书籍,图书馆,

文章

,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。