吳恩達老師機器學習筆記SVM(一)
時隔好久沒有再拾起機器學習了,今日抽空接著學
今天是從最簡單的二維資料分類開始學習SVM~
(上圖為原始資料)
SVM的代價函式
這裡套用以前logistic迴歸的模板改一下下。。
load('ex6data1.mat'); theta=rand(3,1); [m,n]=size(X); x=ones(m,1); % 新增常量 x=[x X]; C=1; for i=1:10000 % 擬合次數 theta=theta-(((x).*(x*theta>=-1))'*(1-y)+((-x).*(x*theta<=1))'*y).*C; % 先不考慮正則化項 end
C值設為不同的數值,得到的決策邊界如下:
由此可見,C值越大的話,資料錯分的現象會減少,但是不會得到更貼合自然(間隔大)的決策邊界。
(梨今天學習也要加油呢,手動比心~❥)
相關推薦
吳恩達老師機器學習筆記SVM(一)
時隔好久沒有再拾起機器學習了,今日抽空接著學 今天是從最簡單的二維資料分類開始學習SVM~ (上圖為原始資料) SVM的代價函式 這裡套用以前logistic迴歸的模板改一下下。。 load('ex6data1.mat'); theta=rand(3,1); [
吳恩達老師機器學習筆記SVM(二)
今天的部分是利用高斯核函式對分佈稍微複雜一點的資料進行分類 這裡的高斯核函式是構建新的特徵,該特徵是關於到其餘所有樣點的歐式距離。 下面放出程式碼: load('ex6data2.mat'); [m n]=size(X); f=zeros(m,m); a=0.005 for i=
吳恩達老師機器學習筆記異常檢測(一)
明天就要開組會了,天天在辦公室划水都不知道講啥。。。 今天開始異常檢測的學習,同樣程式碼比較簡單一點 異常檢測的原理就是假設樣本的個特徵值都呈高斯分佈,選擇分佈較離散的樣本的作為異常值。這裡主要注意的是通過交叉驗證對閾值的選擇和F1score的應用。 原始資料: 程式碼如下:
吳恩達老師機器學習筆記主成分分析PCA
接著學習主成分分析,這個演算法在之前計量地理學的作業裡寫過,不過前者稍微囉嗦了一點。 原始二維資料: 放程式碼: load('ex7data1.mat'); [m n]=size(X); X=(X-mean(X))./std(X); sigma=1/m*(X'*X); % 求取協
吳恩達老師機器學習筆記K-means聚類演算法(二)
運用K-means聚類演算法進行影象壓縮 趁熱打鐵,修改之前的演算法來做第二個練習—影象壓縮 原始圖片如下: 程式碼如下: X =imread('bird.png'); % 讀取圖片 X =im2double(X); % unit8轉成double型別 [m,n,z]=size
吳恩達老師機器學習筆記K-means聚類演算法(一)
今天接著學習聚類演算法 以後堅決要八點之前起床學習!不要浪費每一個早晨。 K-means聚類演算法聚類過程如下: 原理基本就是先從樣本中隨機選擇聚類中心,計算樣本到聚類中心的距離,選擇樣本最近的中心作為該樣本的類別。最後某一類樣本的座標平均值作為新聚類中心的座標,如此往復。 原
吳恩達老師機器學習筆記異常檢測(二)
明天就要開組會了,天天在辦公室划水都不知道講啥。。。 今天開始異常檢測的學習,同樣程式碼比較簡單一點 異常檢測的原理就是假設樣本的個特徵值都呈高斯分佈,選擇分佈較離散的樣本的作為異常值。這裡主要注意的是通過交叉驗證對閾值的選擇和F1score的應用。 原始資料:
寫吳恩達老師機器學習課時使用scipy.optimize.fmin_cg結果出現問題
訓練完成提示: Warning: Desired error not necessarily achieved due to precision loss. Current function value: 原因是我前邊的def computeCost(m
<吳恩達老師深度學習筆記二>第一周,深度學習介紹(未完待續)
神奇 建立 網絡筆記 1.3 展示 定義 信息 英語 輸出 摘要: 本篇博客僅作為筆記,如有侵權,請聯系,立即刪除(網上找博客學習,然後手記筆記,因紙質筆記不便保存,所以保存到網絡筆記)。 1.1 歡迎 深度學習常常運用於:讀取X光圖像、個性化教育、精準化農業、駕駛
<吳恩達老師深度學習筆記二>第一週,深度學習介紹(未完待續)
摘要: 本篇部落格僅作為筆記,如有侵權,請聯絡,立即刪除(網上找部落格學習,然後手記筆記,因紙質筆記不便儲存,所以儲存到網路筆記)。 1.1 歡迎 深度學習常常運用於:讀取X光影象、個性化教育、精準化農業、駕駛汽車等領域。深度學習處於AI分支中,學習如何建立神經網路(包含一個深度神經網路),以及如
機器學習:SVM(一)——線性可分支援向量機原理與公式推導
原理 SVM基本模型是定義在特徵空間上的二分類線性分類器(可推廣為多分類),學習策略為間隔最大化,可形式化為一個求解凸二次規劃問題,也等價於正則化的合頁損失函式的最小化問題。求解演算法為序列最小最優化演算法(SMO) 當資料集線性可分時,通過硬間隔最大化,學習一個線性分類器;資料集近似線性可分時,即存在一小
吳恩達-DeepLearning.ai-05 序列模型(一)
吳恩達-DeepLearning.ai-05 序列模型 迴圈序列模型 1、為什麼選擇序列模型? 舉了幾個例子:語音識別、音樂生成、情感分析、DNA序列分析、機器翻譯、視訊動作識別、命名實體識別等 2、數學符號 文字資料的表示:命名實體識別中,要識別的內容標籤為1,其他為
吳恩達老師深度學習視訊課筆記:構建機器學習專案(機器學習策略)(1)
機器學習策略(machine learning strategy):分析機器學習問題的方法。 正交化(orthogonalization):要讓一個監督機器學習系統很好的工作,一般要確保四件事情,如下圖: (1)、首先,你通常必須確保至少系
Coursera 深度學習 吳恩達 deep learning.ai 筆記整理(3-2)——機器學習策略
新的 bsp 誤差 spa 歸納 空間 font 處理 整理 一、誤差分析 定義:有時我們希望算法能夠勝任人類能做的任務,但是當算法還沒達到人類所預期的性能時,人工檢查算法錯誤會讓你知道接下來做什麽,這也就是誤差分析 檢查,發現會把夠狗當恒,是否需要做一個項目專門處理狗
深度學習,周志華,機器學習,西瓜書,TensorFlow,Google,吳軍,數學之美,李航,統計學習方法,吳恩達,深度學習筆記,pdf下載
1. 機器學習入門經典,李航《統計學習方法》 2. 周志華的《機器學習》pdf 3.《數學之美》吳軍博士著pdf 4. Tensorflow 實戰Google深度學習框架.pdf 5.《TensorFlow實戰》黃文堅 高清完整PDF 6. 復旦大
吳恩達新書-機器學習學習筆記-(四)學習曲線
1.診斷偏差與方差:學習曲線 學習曲線可以將開發集的誤差與訓練集樣本的數量進行關聯比較。想要繪製出它,你需要設定不同大小的訓練集執行演算法。假設有1000個樣本,你可以選擇在規模為100、200、300、····1000的樣本集中分別執行演算法,接著便能得到開發集誤差隨訓練
吳恩達新書-機器學習學習筆記-(五)與人類表現水平對比
1.為何與人類表現水平進行對比 許多機器學習系統的設計目的是想要自動化處理一些人類可以處理得很好的事情。可舉的例子有影象識別、語音識別以及垃圾郵件分類等等。學習演算法進步如此之快,有許多類似任務的處理已經超過了人類的表現水平。 有很多理由表明在處理人類擅長的任務時,構建一
吳恩達《機器學習》課程筆記——第一章:緒論 初識機器學習
【重要提示】:本人機器學習課程的主要學習資料包括:吳恩達教授的機器學習課程和黃廣海博士的中文學習筆記。感謝吳恩達教授和黃廣海博士的知識分享和無私奉獻。作為機器學習小白,計劃每週末記錄一週以來的學習內容,總結回顧。希望大家多多挑錯,也願我的學習筆記能幫助到有需要的人。 1.1 什麼是機器學習 卡內基梅隆大學
吳恩達Coursera機器學習課程筆記-單變數線性迴歸
The Hypothesis Function we will be trying out various values of θ0 and θ1 to try to find values which provide the best possibl
吳恩達《機器學習》課程筆記
class 關於 閱讀全文 多變量 第一章 title 知識 代數 ref 吳恩達《機器學習》課程筆記 吳恩達《機器學習》課程筆記——第五章:Matlab/Octave教程 摘要: 這一章的內容比較簡單,主要是MATLAB的一些基礎教程,