1. 程式人生 > 其它 >機器學習八股文-1

機器學習八股文-1

作者:穆文
連結:https://www.zhihu.com/question/62482926/answer/233521233
來源:知乎
著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。

  • 過擬合欠擬合(舉幾個例子讓判斷下,順便問問交叉驗證的目的、超引數搜尋方法、EarlyStopping)、L1正則和L2正則的做法、正則化背後的思想(順便問問BatchNorm、Covariance Shift)、L1正則產生稀疏解原理、邏輯迴歸為何線性模型(順便問問LR如何解決低維不可分、從圖模型角度看LR和樸素貝葉斯和無監督)、幾種引數估計方法MLE/MAP/貝葉斯的聯絡和區別、簡單說下SVM的支援向量(順便問問KKT條件、為何對偶、核的通俗理解)、 GBDT隨機森林能否並行(順便問問bagging boosting)、 生成模型判別模型舉個例子、聚類方法的掌握(順便問問Kmeans的EM推導思路、譜聚類和Graph-cut的理解)、梯度下降類方法和牛頓類方法的區別(順便問問Adam、L-BFGS的思路)、半監督的思想(順便問問一些特定半監督演算法是如何利用無標籤資料的、從MAP角度看半監督)、常見的分類模型的評價指標(順便問問交叉熵、ROC如何繪製、AUC的物理含義、類別不均衡樣本)
  • CNN中卷積操作和卷積核作用、maxpooling作用、卷積層與全連線層的聯絡、梯度爆炸和消失的概念(順便問問神經網路權值初始化的方法、為何能減緩梯度爆炸消失、CNN中有哪些解決辦法、LSTM如何解決的、如何梯度裁剪、dropout如何用在RNN系列網路中、dropout防止過擬合)、為何卷積可以用在影象/語音/語句上(順便問問channel在不同型別資料來源中的含義)
  • 如果面試者跟我一樣做NLP、推薦系統,我會繼續追問 CRF跟邏輯迴歸 最大熵模型的關係、CRF的優化方法、CRF和MRF的聯絡、HMM和CRF的關係(順便問問 樸素貝葉斯和HMM的聯絡、LSTM+CRF 用於序列標註的原理、CRF的點函式和邊函式、CRF的經驗分佈)、WordEmbedding的幾種常用方法和原理(順便問問language model、perplexity評價指標、word2vec跟Glove的異同)、topic model說一說、為何CNN能用在文字分類、syntactic和semantic問題舉例、常見Sentence embedding方法、注意力機制(順便問問注意力機制的幾種不同情形、為何引入、seq2seq原理)、序列標註的評價指標、語義消歧的做法、常見的跟word有關的特徵、factorization machine、常見矩陣分解模型、如何把分類模型用於商品推薦(包括資料集劃分、模型驗證等)、序列學習、wide&deep model(順便問問為何wide和deep)