日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

GAN学习总结一 GAN基本概念理解

發布時間:2024/3/12 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 GAN学习总结一 GAN基本概念理解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

GAN學習總結一GAN基本概念理解

? GAN(Generative Adversarial Network)生成式對抗網絡,由Ian Goodfellow 首先提出,是近兩年來最熱門的東西,仿佛什么都可以利用GAN來產生,最近在進行圖像超解像相關工作,也看到了利用GAN進行超解析相關工作,看了一些資料和李弘毅老師的視頻,做一些學習筆記,后續能溫故而知新。

1.什么是GAN?

? GAN啟發自博弈論中的二人零和博弈(two-player game),GAN 模型中的兩位博弈方分別由生成式模型(generative model)和判別式模型(discriminative model)充當。生成模型 G 捕捉樣本數據的分布,用服從某一分布(均勻分布,高斯分布等)的噪聲 z 生成一個類似真實訓練數據的樣本,追求效果是越像真實樣本越好;判別模型 D 是一個二分類器,估計一個樣本來自于訓練數據(而非生成數據)的概率,如果樣本來自于真實的訓練數據,D 輸出大概率,否則,D 輸出小概率。

? 如下圖二次元人物生成過程,上圖為Generator,給出一個向量,經過Generator產生出一個圖像,給出不同的向量可以得到不同的圖像,存在一個問題是產生的圖像是否接近真實的圖像,此時需要Discriminator來判定,如下圖,真實的圖像D網絡給出較高的分數,而不真實的圖像給出較低的分數,最終的目的是G網絡產生的圖像D網絡也能給出很高的分數。



2.GAN網絡訓練?

以上面二次元圖像生成為例說明,G(Generator)和D(Discriminator)

  • G作用是接收一個向量Z(隨機噪聲),通過G生成圖像,記做G(Z);
  • D作用是判別一張圖像是否是“真實的”。輸入是X,X表示一張真實圖像,則D(X)表示真實圖像的概率,為1表示100%的真實的圖像,而輸出0,表示不是真實的圖像。

訓練過程中,固定一方,更新另一方的網絡權重,交替迭代,在這個過程中,雙方都極力的優化自己的網絡,從而形成競爭對抗,直到雙方達到一個動態的平衡。理想情況下,最后的結果是G生成的圖像和真實的圖像非常相似,D網絡難以區分真實的圖像和G生成的圖像,此時D(G(Z)) = 0.5。

上述過程表示成如下公式:
min?Gmax?DV(D,G)=Ex~pdata?(x)[log?D(x)]+Ez~pz(z)[log?(1?D(G(z)))]\min _ { G } \max _ { D } V ( D , G ) = \mathbb { E } _ { \boldsymbol { x } \sim p _ { \text { data } } ( \boldsymbol { x } ) } [ \log D ( \boldsymbol { x } ) ] + \mathbb { E } _ { \boldsymbol { z } \sim p _ { \boldsymbol { z } } ( \boldsymbol { z } ) } [ \log ( 1 - D ( G ( \boldsymbol { z } ) ) ) ]Gmin?Dmax?V(D,G)=Exp?data??(x)?[logD(x)]+Ezpz?(z)?[log(1?D(G(z)))]

公式說明:

  • x表示真實的圖像,z表示輸入的G網絡噪聲,G(z)表示G網絡生成的圖像。
  • D(x)表示真實輸入的概率,D(G(z))表示D網絡判斷G生成的圖像是否真實的概率;
  • G的目的:D(G(z))是D網絡判斷G生成的圖片是否真實的概率,G應該希望自己生成的圖片“越接近真實越好”。也就是說,G希望D(G(z))盡可能得大,這時V(D, G)會變小。因此我們看到式子的最前面的記號是min_G。
  • D的目的:D的能力越強,D(x)應該越大,D(G(x))應該越小。這時V(D,G)會變大。因此式子對于D來說是求最大(max_D)。

論文中給出了利用隨機梯度下降法如何訓練網絡D和G,如下圖:

先訓練D,利用梯度上升,使損失函數越大越好,再訓練G,利用梯度下降算法,使損失函數越小越好。

3.Auto-encoder VAE 和GAN

? auto-encoder(自編碼器)

? 結構如下,訓練一個 encoder,把 input 轉換成 code,然后訓練一個 decoder,把 code 轉換成一個 image,然后計算得到的 image 和 input 之間的 MSE(mean square error),訓練完這個 model 之后,取出后半部分 NN Decoder,輸入一個隨機的 code,就能 generate 一個 image。

? 將Auto-encoder的后一部分拿出來,隨機輸入向量,即上述描述的Generator,但輸入向量怎么設定?沒有什么標準。

? 針對上述問題,提出了VAE,如下:

? 上述的兩個生成模型,其實有一個非常嚴重的弊端。比如 VAE,它生成的 image 是希望和 input 越相似越好,但是 model 是如何來衡量這個相似呢?model 會計算一個 loss,采用的大多是 MSE,即每一個像素上的均方差。loss 小真的表示相似嘛?

? 如下圖,上述一行只相差一個像素,得到的MSE最小,但結果并不是我們滿意的。

? 上述兩種生成網絡之所以對產生圖像不能達到滿意效果是由于網絡只關注局部信息而未考慮全局的信息,若需要考慮全局信息需要更深的網絡結構;

GAN網絡的優缺點:

**Generator:**可以產生局部圖像,但不能顧及圖像的不同部分之間的關系;

**Disciminator:**考慮的是全局圖像,但不能產生圖像

4. 參考

http://www.sohu.com/a/121189842_465975

https://github.com/zhangqianhui/AdversarialNetsPapers

https://www.cnblogs.com/baiting/p/8314936.html

https://www.cnblogs.com/bonelee/p/9166084.html

總結

以上是生活随笔為你收集整理的GAN学习总结一 GAN基本概念理解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。