1. 程式人生 > >【聯絡】二項分佈的對數似然函式與交叉熵(cross entropy)損失函式

【聯絡】二項分佈的對數似然函式與交叉熵(cross entropy)損失函式

1. 二項分佈

二項分佈也叫 0-1 分佈,如隨機變數 x 服從二項分佈,關於引數 μ0μ1),其值取 1 和取 0 的概率如下:

{p(x=1|μ)=μp(x=0|μ)=1μ

則在 x 上的概率分佈為:

Bern(x|μ)=μx(1μ)1x

2. 服從二項分佈的樣本集的對數似然函式

給定樣本集 D={x1,x2,,xB} 是對隨機變數 x 的觀測值,假定樣本集從二項分佈 p(x|μ) 中獨立(p(x1,x2,,xN)=ip(xi))取樣得來,則當前樣本集關於 μ 的似然函式為:

p(D|μ)=n=1Np(xn|μ)=n=1Nμxn(1μ)1xn

從頻率學派的觀點來說,通過最大似然函式的取值,可以估計引數 μ

,最大化似然函式,等價於最大化其對數形式:

則有:

lnp(D|μ)===lnμn=1Nxn+ln(1μ)n=1N1xnlnμn=1Nxn+ln(1μ)(Nn=1Nxn)n=1Nxnlnμ+(1xn)ln(1μ)

求其關於 μ 的導數,解得 μ 的最大似然解為:

μML=1Nn=1Nxn

這裡我們僅關注:

lnP(D|μ)=n=1Nxnlnμ+(1xn)ln(1μ)

3. 交叉熵損失函式

LH(x,z)=n=1Nxnlogzn+(1xn)log(1zn)

x 表示原始訊號,z 表示重構訊號。(損失函式的目標是最小化,似然函式則是最大化,二者僅相差一個符號)。