干貨|GAN IN ACTION-第1部分 GAN和生成模型的簡介
?? 翻譯:陳 ?? 揚(yáng)? ? ? ? ? ?
??編輯:陳人和
? ? ? ??
正如我先前說的那樣,我決定翻譯這本在 GAN 領(lǐng)域出版的第一本系統(tǒng)性概括其發(fā)展的書籍,給大家深入學(xué)習(xí)生成對抗網(wǎng)絡(luò)提供幫助,在第一版的翻譯中我將統(tǒng)一使用 pytorch 代碼代替作者原有的代碼(原有代碼版本混亂且框架不止一個(gè),而且譯者個(gè)人喜歡 pytorch).
GAN IN ACTION-第1部分 GAN和生成模型的簡介
????第1章:GAN的簡介
1.1. 生成式對抗網(wǎng)絡(luò)是什么?
1.2. GANS如何運(yùn)作?
1.3. ?GANS IN ACTION
????????????1.3.1. GAN訓(xùn)練
???????????????GAN訓(xùn)練的可視化
訓(xùn)練判別器
訓(xùn)練生成器
???????????????????1.3.2. 達(dá)到平衡
1.4. 為什么要研究GANS?
? ? ? ? 小結(jié)
第1部分介紹了生成對抗網(wǎng)絡(luò)(GAN),并逐步介紹了最經(jīng)典的GAN變體的實(shí)現(xiàn):
在第1章中,您將學(xué)習(xí)GAN的基礎(chǔ)知識,并對它們的工作方式有一個(gè)直觀的了解。
在第2章中,我們將稍作切換,并介紹自動編碼器,以便您可以更全面地了解生成模型。自編碼機(jī)(autoencoders)是GAN最重要的理論和實(shí)踐先驅(qū),至今仍在廣泛使用。
第3章從第1章開始,我們開始更深入地探討GAN和對抗性學(xué)習(xí)的基礎(chǔ)理論。在本章中,您還將實(shí)現(xiàn)和培訓(xùn)您的第一個(gè)功能齊全的GAN。
第4章通過探索深度卷積GAN(DCGAN)繼續(xù)您的學(xué)習(xí)旅程。在原始GAN之上的這項(xiàng)創(chuàng)新性地使用了卷積神經(jīng)網(wǎng)絡(luò)來提高生成圖像的質(zhì)量。
01
GAN的簡介
本章節(jié)包括:
生成對抗網(wǎng)絡(luò)概述
是什么讓這類機(jī)器學(xué)習(xí)算法如此與眾不同?
一些有趣的GAN應(yīng)用程序
"機(jī)器是否可以思考這個(gè)想法比計(jì)算機(jī)本身更古老。" 在1950年,著名的數(shù)學(xué)家,邏輯學(xué)家和計(jì)算機(jī)科學(xué)家艾倫·圖靈(Alan Turing)以在解碼納粹戰(zhàn)時(shí)加密機(jī)Enigma中的作用而聞名,他寫了一篇論文,此書將使他的名字永生不朽:“Computing Machinery and Intelligence.”
在這篇論文中,圖靈提出了一個(gè)他稱為"模仿游戲"的測試,如今更名為圖靈測試。在這種假設(shè)的情況下,一個(gè)不知情的觀察者在門后與兩個(gè)人交談:其中一個(gè)是同伴,另一個(gè)是計(jì)算機(jī)。圖靈解釋說,如果觀察者無法分辨出哪個(gè)人是哪個(gè)機(jī)器,那臺計(jì)算機(jī)就通過了測試并且必須被認(rèn)為是智能的。
任何嘗試與自動聊天機(jī)器人或語音驅(qū)動的智能助手進(jìn)行對話的人都知道,計(jì)算機(jī)要通過這種看似簡單的測試還有很長的路要走。但是,在其他任務(wù)中,計(jì)算機(jī)不僅與人類的表現(xiàn)相匹配,而且甚至超過了人類的表現(xiàn),甚至在直到最近才考慮到的領(lǐng)域,即使是最智能的算法也無法實(shí)現(xiàn),例如超精確的人臉識別或精通游泳的 GO。【1】
機(jī)器學(xué)習(xí)算法非常擅長識別現(xiàn)有數(shù)據(jù)中的模式,并將這種洞察力用于諸如分類(為示例分配正確的類別)和回歸(根據(jù)各種輸入估算數(shù)值)等任務(wù)。但是,當(dāng)要求生成新數(shù)據(jù)時(shí),計(jì)算機(jī)還仍需要努力。也行一種算法可以打敗國際象棋大師,估算股票價(jià)格走勢,并對信用卡交易是否可能是欺詐進(jìn)行分類。相反,任何嘗試在與亞馬遜的Alexa或蘋果的Siri閑聊都注定了。確實(shí),人類最基本和最基本的能力(包括歡樂的交談或原創(chuàng)作品的手工制作)甚至可以使最復(fù)雜的超級計(jì)算機(jī)陷入數(shù)字痙攣。
2014年,當(dāng)時(shí)蒙特利爾大學(xué)的博士生Ian Goodfellow發(fā)明了Generative Adversarial Networks(GAN),這一切都改變了。這種技術(shù)使計(jì)算機(jī)能夠使用一個(gè)或兩個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò)來生成現(xiàn)實(shí)數(shù)據(jù)。GAN并不是用于生成數(shù)據(jù)的第一個(gè)計(jì)算機(jī)程序,但是GAN的結(jié)果和多功能性使其與所有其他計(jì)算機(jī)區(qū)分開。GAN已取得了卓越的結(jié)果,長期以來人們一直認(rèn)為對于人工系統(tǒng)來說這幾乎是不可能的,例如能夠生成具有真實(shí)世界般質(zhì)量的偽圖像,將涂鴉轉(zhuǎn)換為照片圖像或?qū)ⅠR的視頻片段轉(zhuǎn)換為視頻的能力。一匹正在奔跑的斑馬線-無需大量苦心經(jīng)營的帶有標(biāo)簽的訓(xùn)練數(shù)據(jù)。

圖1.1說明了人臉的合成,這是通過GAN可以將機(jī)器數(shù)據(jù)生成推進(jìn)多遠(yuǎn)的一個(gè)示例。直到2014年,當(dāng)GAN發(fā)明時(shí),機(jī)器所能產(chǎn)生的最佳效果是模棱兩可的,甚至被譽(yù)為開創(chuàng)性的成功。短短三年后的2017年,GAN的發(fā)展使計(jì)算機(jī)能夠合成偽造高分辨率的面孔,其質(zhì)量可與高分辨率的人像照片相媲美。在本書中,我們將深入探討使如何使這些成為可能的算法。
02
生成對抗網(wǎng)絡(luò)是什么
生成對抗網(wǎng)絡(luò)(GANs)是一類機(jī)器學(xué)習(xí)技術(shù),由兩個(gè)同時(shí)訓(xùn)練的模型組成:一個(gè)訓(xùn)練模型(生成器)以生成假數(shù)據(jù),另一個(gè)訓(xùn)練模型(判別器)以判別數(shù)據(jù)的真假。
一言概括模型的目的:創(chuàng)建新數(shù)據(jù)。由GAN生成的數(shù)據(jù)取決于訓(xùn)練集的選擇。例如,如果我們要讓GAN合成達(dá)芬奇的圖像,可以使用達(dá)芬奇藝術(shù)品(da Vinci’s artwork)的數(shù)據(jù)集訓(xùn)練.
"對抗"一詞指的是構(gòu)成GAN框架的兩種模型(生成器和判別器)之間的博弈式動態(tài)競爭。生成器的目標(biāo)是創(chuàng)建與訓(xùn)練集中的真實(shí)數(shù)據(jù)一樣的示例(example)。在我們剛剛舉出的例子中,這意味著制作出看起來像達(dá)芬奇的畫。判別器的目的是將生成器生成的虛假示例(fake example)與訓(xùn)練數(shù)據(jù)集中的真實(shí)示例(ground truth)區(qū)分開。在我們的例子中,判別器扮演著一個(gè)"藝術(shù)專家"的角色,負(fù)責(zé)評估輸入圖片被認(rèn)為是達(dá)芬奇作品的真實(shí)性。這兩個(gè)網(wǎng)絡(luò)一直在相互競爭:生成器在創(chuàng)建令人信服的數(shù)據(jù)方面越出色,判別器在區(qū)分真實(shí)實(shí)例與虛假實(shí)例方面就需要越出色。
最后,“網(wǎng)絡(luò)”一詞表示最常用于表示生成器和判別器的機(jī)器學(xué)習(xí)模型的類別:神經(jīng)網(wǎng)絡(luò)。根據(jù)GAN實(shí)現(xiàn)的復(fù)雜性,這些范圍可以從簡單的前饋神經(jīng)網(wǎng)絡(luò)(如您將在第3章中看到)到卷積神經(jīng)網(wǎng)絡(luò)(如您將在第4章中看到),甚至可以是更復(fù)雜的變體,例如作為U-Net(您將在第9章中看到)。
03
GANS如何運(yùn)作
GAN的數(shù)學(xué)基礎(chǔ)很復(fù)雜(您將在后面的章節(jié)中,特別是第3和5章中進(jìn)行探討);幸運(yùn)的是,許多現(xiàn)實(shí)世界的類比都可以使GAN更易于理解。之前,我們討論了一個(gè)藝術(shù)偽造者(生成器)試圖欺騙藝術(shù)專家(判別器)的例子。偽造者制作的假畫越以假亂真,藝術(shù)專家必須越能確定其真實(shí)性。在相反的情況下也是如此:藝術(shù)專家越能分辨一幅特定的繪畫是否真實(shí),偽造者就必須改善得越多,以免被人抓到。
經(jīng)常用來形容GAN的另一個(gè)比喻是Ian Goodfellow自己喜歡使用的一個(gè)隱喻,是犯罪分子(Generator)偽造金錢,而偵探(Discriminator)試圖抓住他。假鈔的外觀越真實(shí),偵探就必須更好地識別它們,反之亦然。
用更多的技術(shù)術(shù)語來說,生成器的目標(biāo)是制作一些示例來捕獲訓(xùn)練數(shù)據(jù)集的特征,以至于它生成的樣本看起來與訓(xùn)練數(shù)據(jù)沒有區(qū)別。相反,可以將生成器視為對象識別模型。對象識別算法學(xué)習(xí)圖像中的圖案以識別圖像的內(nèi)容。生成器不是識別模式,而是學(xué)習(xí)從頭開始創(chuàng)建它們。實(shí)際上,生成器的輸入通常只不過是一個(gè)隨機(jī)數(shù)向量(noise)。
生成器通過從判別器分類中獲得的反饋來學(xué)習(xí)。判別器的目標(biāo)是確定特定示例是真實(shí)的(來自訓(xùn)練數(shù)據(jù)集)還是偽造的(由生成器創(chuàng)建)。因此,每當(dāng)判別器被欺騙以將假圖像分類為真實(shí)圖像時(shí),生成器就知道它做得很好。相反,每次判別器正確拒絕生成器生成的圖像為偽造圖像時(shí),生成器都會收到需要改進(jìn)的反饋。
判別器也在繼續(xù)改進(jìn)。像任何分類器一樣,它可以從預(yù)測值到真實(shí)標(biāo)簽(真實(shí)標(biāo)簽或假標(biāo)簽)的距離中學(xué)習(xí)。因此,隨著生成器在生成逼真的數(shù)據(jù)方面變得更加出色,判別器在從真實(shí)數(shù)據(jù)中辨別出虛假數(shù)據(jù)方面也變得更加出色,并且兩個(gè)網(wǎng)絡(luò)都在同時(shí)不斷改進(jìn)。
表1.1總結(jié)了有關(guān)這兩個(gè)GAN子網(wǎng)的主要內(nèi)容。

04
GANS IN?ACTION
現(xiàn)在,您已經(jīng)對GAN及其組成網(wǎng)絡(luò)有較高的了解,下面讓我們詳細(xì)了解一下正在運(yùn)行的系統(tǒng)。想象一下,我們的目標(biāo)是教GAN生成看起來逼真的手寫數(shù)字(MNIST)。(您將在第3章中學(xué)習(xí)實(shí)現(xiàn)這種模型,并在第4章中對其進(jìn)行擴(kuò)展。)

圖1.2說明了GAN的核心架構(gòu)。
讓我們來看一下圖表的詳細(xì)信息:
訓(xùn)練數(shù)據(jù)集(Training dataset)--我們希望生成器學(xué)習(xí)以接近完美的質(zhì)量進(jìn)行模擬的真實(shí)示例的數(shù)據(jù)集。在這種情況下,數(shù)據(jù)集由手寫數(shù)字圖像(MNIST)組成。該數(shù)據(jù)集用作判別器網(wǎng)絡(luò)的輸入x。
隨機(jī)噪聲向量(Random noise vector)--生成網(wǎng)絡(luò)的原始輸入z。此輸入是隨機(jī)數(shù)向量,發(fā)生器將其用作合成假示例的起點(diǎn)。
生成器網(wǎng)絡(luò)(Generator network)--生成器接收隨機(jī)噪聲向量z,作為輸入,并輸出偽造的示例x*。它的目標(biāo)是使生成的虛假示例與訓(xùn)練數(shù)據(jù)集中的真實(shí)示例無法區(qū)分。
判別器網(wǎng)絡(luò)(Discriminator network)--判別器將來自訓(xùn)練集的真實(shí)示例x,或生成器生成的虛假示例x*,作為輸入。對于每個(gè)示例,判別器確定并輸出該示例是否真實(shí)的概率。
迭代訓(xùn)練/調(diào)整(Iterative training/tuning)--對于判別器的每個(gè)預(yù)測,我們確定其效果(與常規(guī)分類器一樣),并使用結(jié)果通過反向傳播迭代地調(diào)整判別器和生成器網(wǎng)絡(luò):
判別器的權(quán)重和偏差會更新,以最大程度地提高分類準(zhǔn)確度(最大程度地提高正確預(yù)測的概率:x為真值,x*為假值。
生成器的權(quán)重和偏差會更新,以使判別器將錯(cuò)誤分類為實(shí)數(shù)的可能性最大化。
GAN訓(xùn)練
為了了解GAN的各個(gè)組成部分。這就是本節(jié)的全部內(nèi)容。首先,我們提出GAN訓(xùn)練算法;然后,我們說明了訓(xùn)練過程,以便您可以看到實(shí)際的架構(gòu)圖。
GAN training algorithmFor each training iteration doTrain the Discriminator:Take a random real example x from the training dataset.Get a new random noise vector z and, using the Generator network, synthesize a fake exampleUse the Discriminator network to classify andCompute the classification errors and backpropagate the total error to update the Discriminator’s trainable parameters, seeking to minimize the classification errors.Train the Generator:Get a new random noise vector z and, using the Generator network, synthesize a fake example .Use the Discriminator network to classifyCompute the classification error and backpropagate the error to update the Generator’s trainable parameters, seeking to maximize the Discriminator’s error.End for
GAN訓(xùn)練的可視化
圖1.3 說明了GAN訓(xùn)練算法。圖中的字母表示GAN訓(xùn)練算法中的步驟列表。

圖1.3. GAN訓(xùn)練算法有兩個(gè)主要部分。判別器訓(xùn)練和生成器訓(xùn)練這兩個(gè)部分在訓(xùn)練過程的相應(yīng)階段中的不同時(shí)間快照處描繪了相同的GAN網(wǎng)絡(luò)。
訓(xùn)練判別器

從訓(xùn)練數(shù)據(jù)集中獲得一個(gè)隨機(jī)的真實(shí)示例x。
獲得一個(gè)新的隨機(jī)噪聲向量z,并使用生成器網(wǎng)絡(luò)合成一個(gè)虛假示例x*。
使用判別器網(wǎng)絡(luò)對x和x*進(jìn)行分類。
計(jì)算分類誤差并反向傳播總誤差,以更新判別器的權(quán)重和偏差,力求最大程度地減少分類誤差。
訓(xùn)練生成器
獲得一個(gè)新的隨機(jī)噪聲矢量z,并使用Generator網(wǎng)絡(luò)合成一個(gè)偽示例x*。
使用判別器網(wǎng)絡(luò)對x*進(jìn)行分類。
計(jì)算分類誤差,然后反向傳播該誤差,以更新生成器權(quán)重和偏差,以求使判別器誤差最大化。
(譯者也不知道作者這兩段在扯啥,我簡要的說一下就是,訓(xùn)練判別器的時(shí)候,把虛假標(biāo)簽當(dāng)成 0,真實(shí)標(biāo)簽當(dāng)成1,在訓(xùn)練生成器的時(shí)候把虛假標(biāo)簽當(dāng)成 1)
達(dá)到平衡
您可能想知道GAN訓(xùn)練循環(huán)何時(shí)停止。更準(zhǔn)確地說,如何知道GAN何時(shí)經(jīng)過全面訓(xùn)練,以便我們可以確定適當(dāng)?shù)挠?xùn)練迭代次數(shù)?使用常規(guī)的神經(jīng)網(wǎng)絡(luò),我們通常有一個(gè)明確的目標(biāo)可以實(shí)現(xiàn)和衡量。例如,在訓(xùn)練分類器時(shí),我們在訓(xùn)練和驗(yàn)證集上測量分類誤差,并在驗(yàn)證誤差開始惡化時(shí)停止處理(以避免過度擬合)。在GAN中,兩個(gè)網(wǎng)絡(luò)具有相互競爭的目標(biāo):當(dāng)一個(gè)網(wǎng)絡(luò)變得更好時(shí),另一個(gè)網(wǎng)絡(luò)變得更糟。我們?nèi)绾未_定何時(shí)停止?
那些熟悉博弈論的人可能會將此設(shè)置視為零和博弈的一種情況,其中一個(gè)玩家的收益等于另一個(gè)玩家的損失。當(dāng)一個(gè)玩家提高一定程度時(shí),另一位玩家惡化同樣程度。所有零和游戲都具有納什均衡,在這一點(diǎn)上,任何玩家都無法通過改變其行為來改善其處境或收益。
滿足以下條件時(shí),GAN達(dá)到Nash平衡:
"生成器生成的虛假示例與訓(xùn)練數(shù)據(jù)集中的真實(shí)數(shù)據(jù)無法區(qū)分。"
判別器最多可以隨機(jī)猜測一個(gè)特定示例是真實(shí)的還是假的(即,以50/50的比例猜測一個(gè)示例是真實(shí)的)。
Note
?納什均衡是以美國經(jīng)濟(jì)學(xué)家和數(shù)學(xué)家約翰·福布斯·納什(John Forbes Nash Jr.)的名字命名的,他的生平和職業(yè)生涯被傳記《美麗的心靈》所記錄,并啟發(fā)了同名電影。
讓我們說服您為什么會這樣。當(dāng)每個(gè)虛假示例(x*)與來自訓(xùn)練數(shù)據(jù)集的真實(shí)示例(x)確實(shí)沒有區(qū)別時(shí),判別器無法使用它們來區(qū)分它們。由于接收到的示例中有一半是真實(shí)的,而一半是偽造的,因此判別器可以做的最好的事情是擲硬幣并將每個(gè)示例分類為真實(shí)或偽造的概率為50%。
同樣,生成器處于無法從進(jìn)一步調(diào)整中獲益的地步。因?yàn)樗a(chǎn)生的示例已經(jīng)與真實(shí)示例無法區(qū)分,所以即使將其用于將隨機(jī)噪聲矢量(z)轉(zhuǎn)換為偽示例(x*)的過程進(jìn)行微小的更改,也可能為判別器提供一個(gè)辨別方法的線索。真實(shí)數(shù)據(jù)中的虛假示例,可能使生成器變得更糟。
達(dá)到平衡后,很難說明GAN已經(jīng)收斂。在實(shí)踐中,幾乎不可能找到GAN的Nash平衡,因?yàn)檫_(dá)到目標(biāo)需要極大的復(fù)雜性非凸類游戲中的趨同性(在后面的章節(jié)中,尤其是在第5章中,會更多地討論趨同性)確實(shí),GAN收斂仍然是GAN研究中最重要的開放性問題之一。
幸運(yùn)的是,這并不妨礙GAN研究或生成對抗性學(xué)習(xí)的許多創(chuàng)新應(yīng)用。即使在沒有嚴(yán)格的數(shù)學(xué)保證的情況下,GAN也取得了卓越的經(jīng)驗(yàn)結(jié)果。本書涵蓋了一些最具影響力的內(nèi)容,以下部分將對其中一些內(nèi)容進(jìn)行預(yù)覽。
05
為什么要研究GANs
自從GAN發(fā)明以來,GAN一直被學(xué)者和行業(yè)專家譽(yù)為深度學(xué)習(xí)中最重要的創(chuàng)新之一。Facebook的AI研究總監(jiān)Yann LeCun甚至說GAN及其變化是“過去20年來深度學(xué)習(xí)中最酷的想法【2】。
興奮是有道理的。與機(jī)器學(xué)習(xí)的其他進(jìn)步不同,GAN吸引了研究人員和廣大公眾的想像力,而機(jī)器學(xué)習(xí)的其他進(jìn)步可能是研究人員中的家喻戶曉,但只會引起其他人的質(zhì)疑。《紐約時(shí)報(bào)》,BBC,《科學(xué)美國人》和許多其他知名媒體都對它們進(jìn)行了報(bào)道。確實(shí),這是GAN令人振奮的結(jié)果之一,很可能使您首先買了這本書。(譯者:作者的軟廣?)
也許最值得注意的是GAN創(chuàng)建超真實(shí)感圖像的能力。圖1.4中的面孔都不是真實(shí)的人。它們都是偽造的,展示了GAN具有以逼真的質(zhì)量合成圖像的能力。這些面孔是使用漸進(jìn)式GAN(progressive growing GAN)(第6章介紹的技術(shù))制作的。

圖1.4. 這些照片般逼真的偽造人臉是由經(jīng)過訓(xùn)練的 pg GAN 合成的,這些人接受了名人的高分辨率肖像照片的訓(xùn)練。
GAN的另一個(gè)杰出成就是圖像到圖像的翻譯。類似于將句子從中文翻譯為西班牙語的方式,GAN可以將圖像從一個(gè)域轉(zhuǎn)換為另一個(gè)域。如圖1.5 所示,GAN可以將馬的圖像轉(zhuǎn)換為斑馬的圖像(也可以反過來!),并將照片轉(zhuǎn)換為類似莫奈的畫作-幾乎沒有監(jiān)督,也沒有標(biāo)簽。使之成為可能的GAN變體稱為CycleGAN;您將在第9章中了解所有內(nèi)容。

圖1.5。通過使用被稱為CycleGAN的GAN變體,我們可以將莫奈的繪畫變成照片,或者將斑馬的圖像變成對馬的描繪,反之亦然。
更加實(shí)用的GAN用例同樣引人入勝。亞馬遜正在嘗試?yán)肎AN提出時(shí)尚方面的建議:通過分析大量的服裝,系統(tǒng)學(xué)會生產(chǎn)與任何給定樣式匹配的新商品【3】。在醫(yī)學(xué)研究中,GAN用于通過合成示例用于擴(kuò)展數(shù)據(jù)集以提高診斷準(zhǔn)確性【4】。在第11章中,您掌握了GAN及其變體的訓(xùn)練的精髓之后,將詳細(xì)探討這兩個(gè)應(yīng)用程序。
GAN也被視為實(shí)現(xiàn)人工智能的重要踏腳石【5】,能夠匹配人類認(rèn)知能力的人工智能系統(tǒng),可以在幾乎任何領(lǐng)域獲得專業(yè)知識,從涉及步行的運(yùn)動技能,語言到創(chuàng)造力所需的創(chuàng)造力組成十四行詩(這個(gè)參考鏈接是譯者加的)【6】。
但是,由于具有生成新數(shù)據(jù)和圖像的能力,GAN也具有危險(xiǎn)的能力。關(guān)于虛假新聞的傳播和危害已經(jīng)進(jìn)行了很多討論,但是GAN創(chuàng)造可信的虛假錄像的潛力令人不安。在標(biāo)題為GAN的2018年標(biāo)題恰當(dāng)?shù)慕Y(jié)尾處,“人工智能如何“貓鼠游戲”生成可信的偽造照片”,《紐約時(shí)報(bào)》記者凱德·梅斯(Cade Metz)和基思·柯林斯(Keith Collins)討論了人們擔(dān)心利用GAN來制造和傳播令人信服的錯(cuò)誤信息的前景,其中包括世界領(lǐng)導(dǎo)人發(fā)表的虛假陳述錄像。麻省理工學(xué)院技術(shù)評論舊金山分社社長馬丁·吉爾斯(Martin Giles)回應(yīng)了他們的擔(dān)憂,并在他2018年的文章“ GAN father:被賦予機(jī)器想象力的人”中提到了另一個(gè)潛在風(fēng)險(xiǎn):在熟練的黑客手中,GAN可以成為用于以前所未有的規(guī)模感知和利用系統(tǒng)漏洞。這些擔(dān)憂促使我們在第12章中討論GAN的道德考慮。
GAN可以為世界帶來很多好處,但是所有技術(shù)創(chuàng)新都可能有濫用。這里的哲學(xué)必須是一種意識:因?yàn)椴豢赡堋叭∠l(fā)明”一種技術(shù),因此確保像您這樣的人意識到這種技術(shù)的迅速興起及其巨大潛力至關(guān)重要。
在這本書中,我們只能從頭開始了解GAN所能提供的一切。但是,我們希望本書能夠?yàn)槟峁┍匾睦碚撝R和實(shí)踐技能,以繼續(xù)探索您認(rèn)為最有趣的領(lǐng)域。
因此,事不宜遲,讓我們開始吧!
06
小結(jié)
GAN是一種深度學(xué)習(xí)技術(shù),它利用兩個(gè)神經(jīng)網(wǎng)絡(luò)之間的競爭動態(tài)來合成真實(shí)的數(shù)據(jù)樣本,例如偽造的真實(shí)圖像。組成GAN的兩個(gè)網(wǎng)絡(luò)如下:
生成器,其目的是通過產(chǎn)生與訓(xùn)練數(shù)據(jù)集無法區(qū)分的數(shù)據(jù)來欺騙判別器,
判別器,其目標(biāo)是正確地區(qū)分來自訓(xùn)練數(shù)據(jù)集的真實(shí)數(shù)據(jù)和生成器生成的假數(shù)據(jù)
GAN在時(shí)尚,醫(yī)學(xué)和網(wǎng)絡(luò)安全等許多不同領(lǐng)域都有廣泛的應(yīng)用。
參考文獻(xiàn):
[1] See “Surpassing Human-Level Face Verification Performance on LFW with GaussianFace,” by Chaochao Lu and Xiaoou Tang, 2014,https://arXiv.org/abs/1404.3840. See also the New York Times article “Google’s AlphaGo Defeats Chinese Go Master in Win for A.I.,” by Paul Mozur, 2017, http://mng.bz/07WJ. ?
[2] See “Google’s Dueling Neural Networks Spar to Get Smarter,” by Cade Metz, Wired, 2017, http://mng.bz/KE1X. ?
[3] See “Amazon Has Developed an AI Fashion Designer,” by Will Knight, MIT Technology Review, 2017, http://mng.bz/9wOj. ?
[4] See “Synthetic Data Augmentation Using GAN for Improved Liver Lesion Classification,” by Maayan Frid-Adar et al., 2018, https://arxiv.org/abs/1801.02385. ?
[5] See “OpenAI Founder: Short-Term AGI Is a Serious Possibility,” by Tony Peng, Synced, 2018, http://mng.bz/j5Oa. See also “A Path to Unsupervised Learning Through Adversarial Networks,” by Soumith Chintala, f Code, 2016, http://mng.bz/WOag. ?
[6] Yi, Xiaoyuan, et al. "MixPoet: Diverse Poetry Generation via Learning Controllable Mixed Latent Space." AAAI. 2020. ?
?
END
往期回顧
機(jī)器學(xué)習(xí)算法工程師
? ??? ? ? ? ? ? ? ? ? ? ? ??????????????????一個(gè)用心的公眾號
?

