1. 程式人生 > >機器學習經典損失函式之交叉熵和均方差

機器學習經典損失函式之交叉熵和均方差

技術交流qq群: 659201069


損失函式是用來評估預測模型效果的,即model的預測值與實真實值的差距。不用的機器學習模型有不同的損失函式來評估。本篇博文主要講用於分類問題的交叉熵和迴歸問題的均方差。

先來說下分類和迴歸的區別。機器學習或深度學習領域常見的就是分類和迴歸,通俗的講分類就把樣品分到事先定義好的n個類別中,解決的是離散量的問題,迴歸輸出一個實數,解決的是模擬量的問題,例好如垃圾郵件預測是一個分類問題,身高預測是一個迴歸問題。分類又分類二分類和多分類,迴歸分類線性迴歸和非線性迴歸,這裡不作過多解釋。

交叉熵,出自資訊理論中的一個概念,原來的含義是用來估算平均編碼長度的。在機器學習領域,交叉熵是用來評估兩個概率分佈p和q之間的的距離,公式如下

        H (p,q) =      

    p(x)是原始資料的概率分佈,q(x)是對應輸入x的預測值,交叉熵在機器學習中的含義是用概率分佈q來表達概率分佈p的因難度有多大。有時p,q不是概率分佈時,一般通過softmax轉換成概率分佈

均方差,主要用於評估迴歸模型的效果,概念比較簡單,就是真實值與預測值差值的平方的均值,公式如下