1. 程式人生 > >演算法/機器學習演算法工程師筆試題

演算法/機器學習演算法工程師筆試題

基本概念

  • 迴歸(regression):迴歸,指研究一組隨機變數 (Y1Y2Yi) 和另一組 (X1X2Xk) 變數之間關係的統計分析方法,又稱多重回歸分析。通常 (Y1Y2Yi) 是因變數,(X1X2Xk) 是自變數。

分類準則

  • 線性分類器最佳準則:
    • 感知準則函式
    • 支援向量機
    • Fisher準則
    • 貝葉斯分類器不是線性分類器

損失函式的分類

  • 對稱損失 / 0-1 損失函式

    對於分類問題而言,通常每種類別狀態都與 c 類中的一種有關,且行為 αi 通常被解釋為類別狀態被判決為 wi,如果採取行為 αi 而實際為 wj,則只有在 i=j 的情況下判決是正確的:

λ(αi|wj)={0,ij1,i=ji,j=1,2,,c

SVM

  • 幾何間隔(margin)與誤分次數的關係(數學上):#(2Rρ)2,分母即為幾何間隔,分子中的 R,為樣本中的最大向量;

  • 軟間隔 SVM 的最大間隔距離滿足如下不等式:ρ2(mC)1/2C 位軟間隔 SVM 的常數,m 位支援向量的個數;

雜項

基於二次準則函式的H-K演算法較之於感知器演算法的優點

  • HK 演算法的思想很樸實,就是在最小均方誤差準則下求得權向量。
  • 它相對於感知器演算法的優點在於,它適用於線性可分和非線性可分的情況。
  • 對於線性可分的情況,給出最優權向量,
  • 對於分線性可分的情況,能夠判別出來,以退出迭代過程。