1. 程式人生 > >機器學習----貝葉斯分類器(貝葉斯決策論和極大似然估計)

機器學習----貝葉斯分類器(貝葉斯決策論和極大似然估計)

貝葉斯決策論

貝葉斯決策論(Bayesian decision theory)是概率框架下實施決策的基本方法。在所有相關概率都已知的理想情況下,貝葉斯決策論考慮如何基於這些概率和誤判斷來選擇最優的類別標記。
假設有N種可能的類別標記,即Y={c1,c2,...,cn}λij是將一個真實標記為cj的樣本誤分類為ci所產生的損失。基於後驗概率P(ci|x)可獲得將樣本x分類為ci所產生的期望損失(expected loss),即在樣本x上的“條件風險”(conditional risk)

R(ci|x)=j=1NλijP(cj|x)
我們的任務是尋找一個判定準則h:XY以最小化總結風險
R
(h)=Ex[R(h(x)|x)]

顯然,對每個樣本x,若h能最小化條件風險R(h(x)|x),則總體風險R(h)也將被最小化。這就產生了貝葉斯判定準則(Bayes decision rule):
為最小化總體風險,只需在每個樣本上選擇哪個能使條件風險R(c|x)最小化的類別標記,即:
h=argmincYR(c|x)
此時h成為貝葉斯最優分類器(Bayes optimal classifier),與之對應的總體風險R(h)稱為貝葉斯風險,1R(h)反映了分類器能達到的最好效能,即通過機器學習所能產生的模型精度的理論上限。

後驗概率最大化的意義

若我們的問題為分類問題,則可以有:

λij={01ifi=jotherwise
此時條件風險為
R(c|x)=1P(c|x)
於是,最小化分類錯誤率的貝葉斯最優分類器為
h(x)=argmaxcYP(c|x)
所以我們可以看出後驗概率最大化就是期望風險最小化。這裡我們用了期望風險這個詞,其實和上面的條件風險是一個東西。

生成方法解決之道

不然看出我們要解決後延概率P(c|x),判別模型就是對P(c|x)直接建模。如前面的決策樹、BP神經網路、支援向量機等,都可以歸入判別方法。對於生成模型,我們考慮:

P(c|x)=P(x,c)P(x)=P(c)P(x|c)P(x)
其中,P(c)是類“先驗”(prior)概率;P(x|c)是樣本x相對於類標記c的類條件概率(class-conditional probality),或者成為“似然”(likelihood);P(x)是用於歸一化的“證據”(evidence)因子。對於給定樣本,p(x)與類標記無關,因此估計p(c|x)的問題就轉化為如何基於訓練樣本資料D來估計先驗概率P(c)和似然P(x|c)。

極大似然估計

估計類條件概率的一種常用策略是先假定其具有某種確定的概率分佈形式,再基於訓練樣本對概率分佈的引數進行估計。事實上,概率模型的訓練過程就是引數估計(parameter estimation)過程
對於引數估計,統計學界有兩種方案:

  1. 頻率主義學派(Frequentist)認為引數雖然未知,但卻是客觀存在的固定值,因此可通過優化似然函式等準則來確定參考值;
  2. 貝葉斯學派(Bayesian)則認為引數是未觀察到的隨機變數,其本身也可有分佈,因此,可假定引數服從一個先驗分佈,然後基於觀測到的資料來計算引數的後驗分佈。

極大似然估計是頻率主義學派的經典方法~其思想就是目前出現的分佈是概率最大的分佈
Dc表示訓練D中第c類樣本組成的集合,假設這些樣本是獨立同分布的,則引數θc對於資料集Dc的似然是:

P(Dc|θc)=xDcP(x|θc)
極大似然就是P(Dc|θc)取最大值的時候的θc作為估計值。(╮(╯▽╰)╭哎,人類也是沒轍了啊,我們能怎麼辦,我們也很絕望啊)
上式連乘容易造成結果下溢,通常使用對數似然(log-likelihood):
LL(θc)=logP(Dc|θc)=xDc

相關推薦

機器學習----分類決策論極大估計

貝葉斯決策論 貝葉斯決策論(Bayesian decision theory)是概率框架下實施決策的基本方法。在所有相關概率都已知的理想情況下,貝葉斯決策論考慮如何基於這些概率和誤判斷來選擇最優的類別標記。 假設有N種可能的類別標記,即Y={c1,c2,.

機器學習筆記08】分類softmax迴歸)

基本定義 首先給出softmax的數學定義,如下: hθ(x(i))=[p(y(i)=1∣x(i);θ)p(y(i)=2∣x(i);θ)⋮p(y(i)=k∣x(i);θ)]=1∑j=1keθjTx(i)[eθ1Tx(i)eθ2Tx(i)⋮eθkTx(i)]

Opencv Python版學習筆記 字元識別-分類SVM,KNearest,RTrees,Boost,MLP

Opencv提供了幾種分類器,例程裡通過字元識別來進行說明的 1、支援向量機(SVM):給定訓練樣本,支援向量機建立一個超平面作為決策平面,使得正例和反例之間的隔離邊緣被最大化。 函式原型:訓練原型 cv2.SVM.train(trainData, responses[, varIdx[,

估計極大估計到底有何區別

在開始接觸最大似然估計和貝葉斯估計時,大家都會有個疑問:最大似然估計和貝葉斯估計二者很相似,到底有何區別?本文便來說說二者的不同之處以及求參模型的公式推導! 預熱知識必知 如何求類條件概率密度: 我們知道貝葉斯決策中關鍵便在於知道後驗概率,那麼問題便集

機器學習系列——樸素分類

表示 -h line log ima 條件 code 樸素貝葉斯 spa 貝葉斯定理: 其中: 表示事件B已經發生的前提下,事件A發生的概率,叫做事件B發生下事件A的條件概率。其基本求解公式為:。 機器學習系列——樸素貝葉斯分類器(二)

機器學習分類——高樸素分類代碼實現

mod ces 數據 大於等於 即使 平均值 方差 很多 mode 一 高斯樸素貝葉斯分類器代碼實現 網上搜索不調用sklearn實現的樸素貝葉斯分類器基本很少,即使有也是結合文本分類的多項式或伯努利類型,因此自己寫了一遍能直接封裝的高斯類型NB分類器,當然與真正的源碼相

機器學習---樸素分類Machine Learning Naive Bayes Classifier

垃圾郵件 垃圾 bubuko 自己 整理 href 極值 multi 帶來 樸素貝葉斯分類器是一組簡單快速的分類算法。網上已經有很多文章介紹,比如這篇寫得比較好:https://blog.csdn.net/sinat_36246371/article/details/601

機器學習》 周志華學習筆記第七章 分類課後習題python 實現

課後習題答案 1.試用極大似然法估算西瓜集3.0中前3個屬性的類條件概率。 好瓜有8個,壞瓜有9個 屬性色澤,根蒂,敲聲,因為是離散屬性,根據公式(7.17) P(色澤=青綠|好瓜=是) = 3/8 P(色澤=烏黑|好瓜=是) = 4/8 P(色澤=淺白|好瓜=是) =

機器學習入門-分類

今天學習的內容是貝葉斯分類器。 在正式介紹之前,先說兩個名詞: 標稱型資料:只在有限的目標集中取值,如真與假(主要用於分類) 數值型資料:可從無限的數值集合中取值(主要用於迴歸分析) 貝葉斯決策論 Bayes Decision theor

周志華 《機器學習》之 第七章分類概念總結

貝葉斯分類器是利用概率的知識完成資料的分類任務,在機器學習中使用貝葉斯決策論實施決策的基本方法也是在概率的框架下進行的,它是考慮如何基於這些概率和誤判損失來選擇最優的類別標記。 1、貝葉斯決策論 條件風險:假設有N種可能的類別標記,Y={c1,c2,c3

《Spark機器學習》筆記——Spark分類模型線性迴歸、樸素、決策樹、支援向量機

一、分類模型的種類 1.1、線性模型 1.1.1、邏輯迴歸 1.2.3、線性支援向量機 1.2、樸素貝葉斯模型 1.3、決策樹模型 二、從資料中抽取合適的特徵 MLlib中的分類模型通過LabeledPoint(label: Double, features

分類

不同特徵獨立性假設條件下的貝葉斯分類器介紹 在貝葉斯分類器(一)一節,我們簡要證明了貝葉斯分類器相較於其他判別規則具有最小誤分類概率。我們知道貝葉斯分類的關鍵包括對類先驗概率的確定以及類樣本概率密度的確定。當使用不同的方法估計類樣本概率密度時,我們基於貝葉斯分類

樸素分類Naive Bayes Classifiers

本文討論的是樸素貝葉斯分類器( Naive Bayes classifiers)背後的理論以及其的實現。 樸素貝葉斯分類器是分類演算法集合中基於貝葉斯理論的一種演算法。它不是單一存在的,而是一個演算法家族,在這個演算法家族中它們都有共同的規則。例如每個被分類的

機器學習筆記極大估計估計的區別

似然函式: 樣本資料的分佈和在引數為下的概率分佈的相似程度 極大似然估計:只要求出符合樣本資料分佈的最優引數即可,不需要考慮先驗。 貝葉斯估計   MAP(最大後驗估計)

情感分析方法之snownlp分類

《情感分析方法之nltk情感分析器和SVM分類器(二)》主要使用nltk處理英文語料,使用SVM分類器處理中文語料。實際的新聞評論中既包含英文,又包含中文和阿拉伯文。本次主要使用snownlp處理中文語料。一、snownlp使用from snownlp import Snow

常用分類問題的演算法-樸素分類Naive Bayes Classifiers

樸素貝葉斯分類器是分類演算法集合中基於貝葉斯理論的一種演算法。它不是單一存在的,而是一個演算法家族,在這個演算法家族中它們都有共同的規則。例如每個被分類的特徵對與其他的特徵對都是相互獨立的。 樸素貝葉斯分類器的核心思想是: 1、將所有特徵的取值看成已經發生的

分類含MATLAB實現

由於被測試的模式特徵向量通常存在隨機性,所獲得的模式樣本有一定的統計分佈。因此,採用統計決策的理論方法進行模式分類是常用的模式識別方法。這也是遙感影象土地分類的常用方法。統計決策函式以貝葉斯定理為基礎,一般需要滿足兩個基本條件: 1)已知模式向量的有關概率分佈先驗知識,如先

樸素分類Python實現

基本思想: 樸素貝葉斯分類器,在當給出了特徵向量w情況下,分類為ci的條件概率p(ci | w)。 利用貝葉斯公式:p(ci | w) = p(w | ci) * p(ci) / p(w),可以完成轉化,觀察公式可以發現分母p(w)都一樣,所以只要比較分子的

分類

貝葉斯推理提供了一種概率(主要應用條件概率)學習手段,根據以往資料的概率分佈和已觀察到的資料進行推理判斷。對資料量大的問題十分適用,在雲端計算和大資料時代再次成為研究熱點。貝葉斯分類器分成兩個部分,第一部分對基礎知識、貝葉斯決策論、極大似然估計、樸素貝葉斯

分類(Python實現+詳細完整原始碼原理)

在概率和統計學領域,貝葉斯理論基於對某一事件證據的認識來預測該事件的發生概率, 由結果推測原因的概率大小 首先,理解這個公式的前提是理解條件概率,因此先複習條件概率。 P(A|B)=P(AB)/P(B) 貝葉斯公式: 在機器學習領域,貝葉斯分類器是基於貝葉斯