1. 程式人生 > >機器學習中的基礎知識(三)

機器學習中的基礎知識(三)

p s img gist 多類別 合成 在線 區別 深度 表示

技術分享圖片

通過前兩篇文章我們給大家介紹了機器學習的相關概念,我們不難看出,機器學習的知識是十分零碎的,這是因為機器學習涉及到的知識有很多,在這篇文章中我們繼續為大家介紹機器學習的知識,希望這篇文章能夠給大家帶來幫助。

(1)分類閾值應用於模型的預測分數以分離正類別和負類別的一種標量值標準。當需要將 logistic 回歸的結果映射到二元分類模型中時就需要使用分類閾值。

(2)凸函數就是一種形狀大致呈字母 U 形或碗形的函數。然而,在退化情形中,凸函數的形狀就像一條線。凸函數是很常用的損失函數。因為當一個函數有最小值的時候,梯度下降的各種變化都能保證找到接近函數最小值的點。類似的,隨機梯度下降的各種變化有很大的概率找到接近函數最小值的點。兩個凸函數相加後仍然是凸函數。深度模型通常是非凸的。

(3)早期停止法就是一種正則化方法,在訓練損失完成下降之前停止模型訓練過程。當驗證數據集的損失開始上升的時候,即泛化表現變差的時候,就該使用早期停止法了。

(4)交叉熵就是多類別分類問題中對 Log 損失函數的推廣。交叉熵量化兩個概率分布之間的區別。

(5)密集特征就是大多數取值為非零的一種特征,通常用取浮點值的張量表示。和稀疏特征相反。

(6)派生特征是合成特征的同義詞。

(7)離散特征就是只有有限個可能取值的一種特征。和連續特征(continuous feature)對照。

(8)dropout 正則化就是訓練神經網絡時一種有用的正則化方法。dropout 正則化的過程是在單次梯度計算中刪去一層網絡中隨機選取的固定數量的單元。刪去的單元越多,正則化越強。

(9)動態模型是以連續更新的方式在線訓練的模型。即數據連續不斷的輸入模型。

(10)數據集就是樣本的集合。

(11)決策邊界在一個二元分類或多類別分類問題中模型學習的類別之間的分離器。

(12)深度模型是一種包含多個隱藏層的神經網絡。深度模型依賴於其可訓練的非線性性質。和寬度模型對照。

在這篇文章中我們給大家介紹了很多有關機器學習的概念,通過這些概念我們不難發現人工智能和機器學習都是很多學科交叉而成,尤其是離不開數學,所以我們一定要重視數學的學習。

機器學習中的基礎知識(三)