新智元建議
【新智元介紹】本文是DeepMind高級(jí)研究科學(xué)家巴拉吉·拉克什米納拉亞南(Balaji Lakshminarayanan)在SF AI Meetup上給出的幻燈片,總結(jié)了他與伊恩·古德費(fèi)勒(Ian Goodfellow)、沙基爾·穆罕默德(Shakir Mohamed)、米哈埃拉·羅斯卡(Mihaela Rosca)等人的最新GAN工作。
PPT下載:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf
理解和生成對(duì)抗網(wǎng)絡(luò)
包括以下內(nèi)容:
GAN與概率機(jī)器學(xué)習(xí)中的其他方法有哪些聯(lián)系?如何比較分布?生成模型與算法如何結(jié)合VAE和GAN來獲得更好的結(jié)果?縮小理論與實(shí)踐之間的差距其他一些有趣的研究方向和應(yīng)用問題陳述:
一代模型
我們的目標(biāo)是從給定的真實(shí)分布樣本中找到θ
GAN概述
鑒別器:訓(xùn)練一個(gè)分類器,用樣本來區(qū)分兩個(gè)分布
生成器:生成傻瓜鑒別器的樣本
極小極大游戲:在訓(xùn)練鑒別器和生成器之間交替
對(duì)應(yīng)JS散度的最小值的納什均衡在實(shí)踐中為了穩(wěn)定訓(xùn)練需要一些技巧GAN有很多變體
概率機(jī)器學(xué)習(xí)中GAN與其他方法有什么聯(lián)系?
隱式模型:生成數(shù)據(jù)的隨機(jī)過程
指定模型:提供關(guān)于觀察概率的知識(shí),并指定一個(gè)條件對(duì)數(shù)似然函數(shù)。
比較學(xué)習(xí):用樣本比較估計(jì)分布和實(shí)際分布
定義聯(lián)合損失函數(shù),并在比較損失和生成損失之間進(jìn)行選擇
如何比較分布?
介紹了以下四種方法,包括:
類概率估計(jì)散度最小化(f-GAN)密度比估計(jì)時(shí)矩匹配如何比較分布?——方法總結(jié)
類別概率估計(jì)
建立一個(gè)分類器來區(qū)分真實(shí)樣本和真實(shí)樣本原始的GAN解決方案密度比匹配
直接將真實(shí)比率與估計(jì)值之間的預(yù)期誤差最小化最小化發(fā)散
最小化真實(shí)密度 p* 和乘積 r(x)q(x) 之間的廣義散度f-GAN方法力矩匹配(力矩匹配)
匹配 p* 和 r(x)q(x) 的時(shí)矩MMD,最優(yōu)傳輸( optimal transport),等如何學(xué)習(xí)發(fā)電機(jī)?
在氮化鎵中,發(fā)電機(jī)是可微分的
生成器loss有以下幾種形式,例如:f-散度 D_f = E_q [f(r)]可以利用再參數(shù)化的技巧摘要:內(nèi)隱生成模型中的學(xué)習(xí)
密度比估計(jì)
但它們不專注于學(xué)習(xí)生成器近似貝葉斯計(jì)算和無似然推理
低維,理論更好理解對(duì)參數(shù)的貝葉斯推斷模擬器通常是不可微分的生成模型和算法
對(duì)于固定模型,比較其推理算法
用最大似然估計(jì)(MLE)訓(xùn)練通過Wasserstein GAN訓(xùn)練生成器比較總結(jié):
Wasserstein距離可以比較模型。通過訓(xùn)練critic可以近似估計(jì)Wasserstein距離。通過WGAN進(jìn)行訓(xùn)練能得到更好的樣本,但對(duì)數(shù)概率顯著更差。通過WGAN訓(xùn)練的Latent code是非高斯的。如何結(jié)合VAE和GAN獲得更好的效果?
模式折疊問題:
“Unrolled GAN”論文中的MoG toy 的例子VAE還有其他問題,但不會(huì)遭到Mode collapse在VAE,將自動(dòng)編碼器加入到遺傳算法中及其與證據(jù)下界的關(guān)系
評(píng)估不同的變體
我們的VAE-甘混合模式可與最先進(jìn)的甘相媲美
總結(jié):脆弱性和適應(yīng)性
VAE:
變分推理:重構(gòu);編碼器網(wǎng)絡(luò)后期的latent與先前的匹配甘:
隱式解碼器可以使用隱式編碼器:用于匹配分布的鑒別器縮小理論和實(shí)踐之間的差距
GAN理論與實(shí)踐的差異
已經(jīng)提出了許多新的GAN變體(例如,瓦瑟斯坦GAN)
由新理論激發(fā)的損失函數(shù)和正則化項(xiàng)理論與實(shí)踐之間的有顯著區(qū)別如何彌合這個(gè)差距?
理論預(yù)測(cè)失敗的綜合數(shù)據(jù)集將新的正規(guī)化項(xiàng)添加到原始non-saturating GAN詹森香農(nóng)散度失效時(shí)合成數(shù)據(jù)集的比較
Gradient penalty能得到更好的表現(xiàn)真實(shí)數(shù)據(jù)集上的結(jié)果
總結(jié):
一些令人驚訝的發(fā)現(xiàn):
梯度懲罰(gradient penalty)也能穩(wěn)定(非Wasserstein的)GAN不僅要考慮理想的損失函數(shù),還要考慮優(yōu)化其他有趣的研究方向:
GAN用于模仿學(xué)習(xí)
使用一個(gè)單獨(dú)的網(wǎng)絡(luò)(鑒別器)來“學(xué)習(xí)”現(xiàn)實(shí)的動(dòng)作對(duì)抗模仿學(xué)習(xí):RL獎(jiǎng)勵(lì)來自鑒別器研究:
利用納什均衡收斂的想法與RL(actor-critic方法)的聯(lián)系控制理論應(yīng)用:
Class-conditional生成文本-圖像生成圖像-圖像轉(zhuǎn)換單圖像超分辨率域適應(yīng)總結(jié):
穩(wěn)定GAN訓(xùn)練的方法
結(jié)合自動(dòng)編碼器梯度懲罰GAN文獻(xiàn)中的一些有用工具:
密度比(density ratio)的技巧在其他領(lǐng)域也很有用(例如信息傳遞)隱式變分逼近學(xué)習(xí)一個(gè)現(xiàn)實(shí)的損失函數(shù)如何處理不可微分的模擬器?——使用可微分近似進(jìn)行搜索?1.《59gan DeepMind高級(jí)研究員:重新理解GAN,最新算法、技巧及應(yīng)用(59頁P(yáng)PT)》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡(luò)信息知識(shí),僅代表作者本人觀點(diǎn),與本網(wǎng)站無關(guān),侵刪請(qǐng)聯(lián)系頁腳下方聯(lián)系方式。
2.《59gan DeepMind高級(jí)研究員:重新理解GAN,最新算法、技巧及應(yīng)用(59頁P(yáng)PT)》僅供讀者參考,本網(wǎng)站未對(duì)該內(nèi)容進(jìn)行證實(shí),對(duì)其原創(chuàng)性、真實(shí)性、完整性、及時(shí)性不作任何保證。
3.文章轉(zhuǎn)載時(shí)請(qǐng)保留本站內(nèi)容來源地址,http://f99ss.com/tiyu/1587206.html