1. 程式人生 > >【GAN ZOO翻譯系列】Cat GAN:UNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督和半監督學習的GAN

【GAN ZOO翻譯系列】Cat GAN:UNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督和半監督學習的GAN

Jost Tobias Springenberg
弗萊堡大學
79110 Freiburg, Germany
[email protected]
原文連結https://arxiv.org/abs/1511.06390v2,引用請註明出處

摘要

本文提出了一種從未標記或部分標記的資料中學習判別分類器的方法。方法基於客觀函式,該函式在觀察到的示例與其預測的分類類別分佈之間交換互資訊,與生成模型的分類器的魯棒性進行對抗。得到的演算法可以被解釋為生成對抗網路(GAN)框架的自然概括,或者被解釋為正則化資訊最大化(RIM)框架的擴充套件,用於針對最優對手進行魯棒分類。作者憑經驗評估他們的方法-作者將分類生成對抗網路(CatGAN)用於合成數據以及具有挑戰性的影象分類任務,並陳述了該分類器的魯棒性。作者進一步定性地評估由判別分類器學習的對抗生成器生成的樣本的保真度,並將CatGAN目標和判別性聚類演算法(例如RIM)之間進行連線。


1、引言

從未標記或僅部分標記的資料中學習非線性分類器是機器學習中長期存在的問題。從未標記資料中學習的前提是,訓練樣本中存在的結構包含可用於推斷未知標籤的資訊。也就是說,在無監督學習中,假設輸入分佈 p ( x ) p(x) 包含關於 p

( y x ) p(y|x) 的資訊,其中 y {
1 , . . . k } y\in\{1,...k\}
表示未知標籤。通過利用來自資料分佈的標記和未標記的樣本,人們希望學習得到這種共有結構的表示。這樣的表示可以僅使用少數標記樣本來生成資料的部分分佈,用於幫助分類器的訓練。此外,無監督的資料分類是用於發現具有未知類結構的資料集中的組的常用工具。

傳統上,這個任務被形式化為群集分配問題,可以使用大量經過充分研究的演算法。這些可以分為兩種型別:
(1)生成聚類方法,如高斯混合模型,k均值和密度估計演算法,它們直接嘗試對資料分佈 p ( x ) p(x) 或其幾何性質進行建模;
(2)判別聚類方法,如最大邊緣聚類(MMC)(徐等,2005)或正則化資訊最大化(RIM)(Krause等,2010),其目的是通過一些分類機制將未標記的資料直接分組到已經被良好區分的類別,而無需明確地對 p ( x ) p(x) 進行建模。
雖然後一種方法更直接地對應於學習類別分離的目標(而不是樣本類別或樣本中心),但它們很容易過度擬合數據中的虛假相關性,特別是當與強大的非線性分類器(如神經網路)結合使用時。

最近,神經網路社群已經探索了用於無監督和半監督學習任務的各種方法。這些方法通常訓練引數化的生成模型,例如,通過深度玻爾茲曼機(如Salakhutdinov&Hinton,2009或Goodfellow等,2013)或者通過前饋神經網路(如,Bengio等,2014或Kingma等,2014)或訓練自動編碼器網路(如,Hinton和Salakhutdinov,2006或Vincent等,2008)。因為他們通過重建輸入樣本明確地模擬資料分佈,所有這些模型都與聚類生成方法相關,並且通常僅用於預訓練分類網路。這種基於重建的學習方法的一個問題是,通過構造,他們試圖學習保留輸入樣本中存在的所有資訊的表示。這種完美重建的目標通常與學習分類器的目標相反,因為分類器是對 p ( y x ) p(y|x) 進行建模,因此只希望保留預測所必需的資訊(並對其他不重要的細節具有魯棒性)。

本文的分類生成對抗網路(CatGAN)框架的想法是結合生成和判別的角度。特別地,學習判別性神經網路分類器 D D ,其最大化輸入 x x 和標籤 y y 之間的互資訊(如通過條件分佈 p ( y x , D ) p(y|x,D) 預測的)。對於k個未知類別,為了幫助這些分類器更好的發現潛在的資料,作者將分類器的魯棒性施加到對抗性生成模型產生的示例,該模型試圖欺騙分類器接受虛假輸入示例。

本文的其餘部分安排如下:在介紹新方法之前,將簡要回顧一節中的生成對抗網路框架;然後,將CatGAN的目標推導為GAN框架的擴充套件,然後在MNIST(LeCun等,1989)和CIFAR-10(Krizhevsky&Hinton,2009)資料集上進行實驗。

2、生成對抗網路

Goodfellow等(2014)提出了生成對抗網路(GAN)框架。他們通過一個目標函式訓練生成模型,該目標函式在一個鑑別器 D D 和一個生成器 G G 之間實現一個雙人zero sum遊戲。判別器旨在分辨真假輸入資料,生成器 G G 用於生成“愚弄”判別器的輸入資料(來自噪聲)。然後可以如下直觀地描述生成器和判別器所玩的“遊戲”。在每個步驟中,生成器從隨機噪聲中產生一個樣本,該樣本有可能欺騙判別器。然後,判別器被呈現一些真實資料樣本,以及由生成器產生的示例,其任務是將它們分類為“真實的”或“假的”。之後,判別器被訓練以區分正確的分類,並且生成器被訓練以生成愚弄鑑別器的示例。然後更新兩個模型並開始下一個”遊戲“週期。

該過程可以如下形式化。設 X = x 1 , . . . x N \mathcal X= {x_1 ,. . . x_N } n n 維的真實資料輸入(即 x R n {x∈R^n} )。設 D D 表示上述判別函式, G G 表示生成函式。即 G G 將隨機向量 z R Z z∈R^ Z 對映到 x ^ = G ( z ) \hat x = G(z) ,並且用判別器 D D 來計算樣本 x x 存在於資料集 X X 中的概率: p ( y = 1 x D ) = 1 1 + e D ( x ) p(y = 1 | x,D)=\frac 1 {1+e^{-D(x)}}

GAN的目標函式如下:
(1) min G max D E x X [ log p ( y = 1 x , D ) ] + E z P ( z ) [ log ( 1 p ( y = 1 G ( z ) D ) ) ] . \min_G \max_D \mathbb E_{x\sim\mathcal X}[\log p(y=1|x,D)]+\mathbb E _{z\sim P(z)}[\log (1-p(y=1|G(z),D))].\tag{1}

其中 P ( z ) P(z) 是一個任意的噪聲分佈,在不失一般性的情況下,在本文中假設是的均勻分佈 P ( z i ) = U ( 0 , 1 ) P(z_i )=\mathcal U(0,1) 。如果生成器和判別器都是可微函式(例如深度神經網路),則可以通過交替隨機梯度下降(SGD)步驟對目標函式 ( 1 ) (1) 進行訓練,有效地實現上述兩個玩家的遊戲。

3 類別生成的對抗網路(CATGANS)

建立在第2章的基礎上,現在將推匯出用於無監督和半監督學習的分類生成對抗網路(CatGAN)的目標函式。作者首先將自己侷限於無監督設定,這可以通過將GAN框架推廣到多個類來獲得,並在3.3章中介紹了半監督學習。應該注意的是,從正則化資訊最大化(RIM)的角度出發,可以等效地推匯出CatGAN模型,如附錄中所述(注:附錄未翻譯),且具有相同的結果。

3.1 問題設定

和以前一樣,令 X = x 1 , . . . x N {\mathcal X= x_1 ,. . . x _N} 是未標記的資料集。考慮無監督地學習判別分類器 D D 的問題,使得 D D 能將資料分類為先驗選擇的類別 K K 。此外,需要 D ( x ) D(x) 來產生到類別的條件概率分佈,即 k = 1 K p ( y = k x D ) = 1 \sum _{k=1}^K p(y = k | x,D)= 1 然後學習的目標是訓練概率分類器 D D ,其類別分配滿足擬合優度的標準。值得注意的是,由於對示例的真實類分佈未知,不得不求助於中間度量來判斷分類器效能,而不是僅僅最小化負對數似然之類的準則。具體而言,在下文中,作者將總是優先選擇 D D ,對於給定樣本 x x 的條件類分佈 p ( y x , D ) p(y|x,D) 具有高確定性,並且對所有的 k k ,邊際類分佈 p ( y D ) p(y|D) 接近於某些先驗分佈 P ( y ) P(y) 。在後文中,將始終假設一個均勻分佈的先驗類別,即期望 X \mathcal X 中每個類別的樣本數對於所有 k k 是相同的:
k , k K : p ( y = k D ) = p ( y = k D ) . ∀k,k'\in K:p(y = k|D)= p(y = k ' | D).

關於這個問題的第一個觀點是它自然可以被認為是“軟的”或概率叢集分配任務。因此,原則上可以通過概率聚類演算法來解決,例如正則化資訊最大化(RIM)(Krause等,2010)或相關的熵最小化(Grandvalet和Bengio,2005),或早期關於模擬目標的無監督分類的工作(Bridle等人,1992)。所有這些方法都有過度擬合數據中虛假相關性的趨勢,作者的目標是通過將鑑別器與對抗性生成模型配對來緩解這個問題,使其變得魯棒。這種方法可以被理解為RIM的強大擴充套件,這種對抗提供了自適應正則化機制。這種關係在附錄中明確說明。

可以做出的一個稍微明顯但重要的第二個觀點是標準GAN目標不能直接用於解決所描述的類別分配問題。這樣做的原因是同時優化公式 ( 1 ) (1) 確實產生了一個有辨別力的分類器 D D ,這個分類器能區分訓練資料與生成資料,即這個分類器用於確定給定的樣本 x x 是否屬於 X \mathcal X 。原則上,作者希望能夠對資料分佈建模的分類器也可以學習特徵表示(例如,在神經網路的情況下, D D 的最後一層中的隱藏表示)對於在第二步中的提取類別是有用的(例如通過判別模型進行聚類)。然後,有必要認識到函式 D D 執行二元分類任務的方法(區分真實樣本和假樣本)在GAN框架中不受限制,因此分類器將主要關注輸入特徵,這些輸入特性尚未由生成器正確建模。反過來,這些特徵不一定與想要分類資料的目標一致。在最壞的情況下,它們可以檢測源自生成器資料中的噪聲。

儘管存在這些問題,但是存在一種原則但簡單的擴充套件GAN框架的方式,使得判別器可用於多類分類。為了實現這一點,作者考慮改變一下GAN框架後面的兩個玩家遊戲的規則(這將在下一節中形式化):不要求

相關推薦

GAN ZOO翻譯系列Cat GANUNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督監督學習GAN

Jost Tobias Springenberg 弗萊堡大學 79110 Freiburg, Germany [email protected] 原文連結https://arxiv.org/abs

GAN ZOO翻譯系列基於能量的生成對抗網路 Energy-Based Generative Adversarial Networks

趙俊博, Michael Mathieu, Yann LeCun 紐約大學計算機科學系 Facebook人工智慧研究院 {jakezhao, mathieu, yann}@cs.nyu.edu 原文連結https://arxiv.org/abs/1609.031

GAN ZOO翻譯系列InfoGAN Interpretable Representation Learning by Information Maximizing GAN

本文是InfoGAN的翻譯,原文地址:https://arxiv.org/abs/1606.03657 相當一部分部分翻譯參照於:https://blog.csdn.net/pingguolou/article/details/72920970 infoGAN:通過最大化生成對抗網路中資

GAN ZOO翻譯系列s2GAN使用樣式結構對抗式網路的生成影象建模

王小龍,Abhinav Gupta 卡耐基梅隆大學機器人研究所 摘要 當前的生成框架使用的端至端的學習,並從均勻噪聲分佈取樣產生影象。然而,這些方法忽略影象形成的最基本的原理。影象是按照以下方式產生的:(a)結構:3D模型;(B)樣式:紋理到結構的對

GAN ZOO閱讀系列NONSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習

Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala Facebook AI Research New York, NY [e

GAN ZOO閱讀系列UNSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習

Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala

BAT面試題系列面試官你了解樂觀鎖悲觀鎖嗎?

次數 catch val util overflow info 基本概念 因此 問題 前言 樂觀鎖和悲觀鎖問題,是出現頻率比較高的面試題。本文將由淺入深,逐步介紹它們的基本概念、實現方式(含實例)、適用場景,以及可能遇到的面試官追問,希望能夠幫助你打動面試官。 目錄

GAN ZOO翻譯StackGANText to Photo-realistic Image Synthesis with Stacked GAN 使用堆疊的GAN從文字中生成照片一樣逼真的圖片

Han Zhang1, Tao Xu2, Hongsheng Li3, Shaoting Zhang4, Xiaogang Wang3, Xiaolei Huang2, Dimitris Metaxas1 1羅格斯大學 2裡海大學 3香港中文大學 4百度研究院

1.3.2Deep Learning翻譯系列Activation Functions 啟用函式

1、Sigmoid與雙曲正切 當建立神經網路,要做出的選擇之一是在隱藏層、輸出單元使用什麼啟用函式。 常見如的Sigmoid函式: σ

1.3.1 Deep Learning翻譯系列Neural Network Overview神經網路概覽

上圖是一個神經網路。神經網路中每個的節點對應於的兩個步驟: 首先計算 z = w

1.2.11 Deep Learning翻譯系列Explanation of Logistic Regression Cost Function 對數機率迴歸代價函式的說明

視訊地址 本視訊給出在對數機率迴歸使用這個成本函式的理由。 在之前的對數機率迴歸中,預測 y ^

1.2.7&1.2.8 Deep Learning翻譯系列Derivatives with a Computation Graph 採用計算圖計算微分

我說神經網路的計算是按正向傳遞或前向傳播步驟組織的,我們計算神經網路的輸出,然後是反向傳遞或反向傳播步驟,我們用於計算梯度或計算導數。計算圖解釋了為什麼它以這種方式組織。我們將通過一個例子說明計算圖(比對數概率迴歸或完整的神經網路更簡單的例子)。 假設我們正在嘗試計算一個函式

數據庫系列MySql中的select的鎖表範圍

nbsp 範圍 nod 指定 lock 無數據 才會 rdb sele 由於InnoDB預設的是Row-Level Lock,只有明確指定主鍵的時候MySql才會執行Row lock,否則MySql將會執行Table Lock. 1、明確指定主鍵則是行鎖 2、明確指定主鍵,

epub.js|翻譯|原創開源中間件epub.js的使用及其中文文檔

一個 () function cnblogs 文檔 rep 回調函數 arp 程序 小組項目 “基於JavaScript的讀書平臺” 正在開發中,預計年底上線。 由於之前有Flask框架的web開發經驗,產品的第一個版本我負責了web平臺搭建,技術選型: 服務器端:node

ASP.NET MVC系列淺談MVC

後端 nbsp 文獻 ats 路勁 onf 將在 cot get 描述 本篇文章主要概述ASP.NET MVC,具體包括如下內容: 1.MVC模式概述 2.WebForm概述 3.WebForm與MVC區別 4.ASP.NET MVC發展歷程 5.運用程序結構 6.ASP.

APS.NET 框架系列淺談ASP.NET 框架

處理請求 splay bapi tps cat 底層 show 一個 優化 本篇文章稍微偏原理且底層,有一定難度和且比較晦澀。 本篇文章主要是從廣度上概括一下,具體的更細粒度的,會在後續的文章中,結合具體的Demo實例分析。 一 .NET框架概述

ASP.NET MVC系列淺談表單HTML輔助方法

繼承 好的 內容 概述 調用 復制 畫圖 models pac 【01】淺談Google Chrome瀏覽器(理論篇) 【02】淺談Google Chrome瀏覽器(操作篇)(上) 【03】淺談Google Chrome瀏覽器(操作篇)(下) 【04】淺談AS

腫瘤預測模型系列如何在R軟體中求一致性指數( Harrell'concordance index:C-index)?

今晚收到一封醫生好友的郵件,諮詢如何求Harrell的C-index?曾在丁香園論壇裡遇到過朋友求助,自己也嘗試回答過,論壇裡回答的言簡意賅,針對問題論問題,沒有詳細的原理說明,今天趁回覆朋友郵件的機會,就大致總結下自己對C-index的理解以及在R軟體中的計算過程。 所謂C-index,英文名全稱conc

中文分詞系列 8 更好的新詞發現演算法

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!