日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DCGAN in Tensorflow生成动漫人物

發布時間:2024/4/17 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DCGAN in Tensorflow生成动漫人物 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

引自:GAN學習指南:從原理入門到制作生成Demo

?

生成式對抗網絡(GAN)是近年來大熱的深度學習模型。最近正好有空看了這方面的一些論文,跑了一個GAN的代碼,于是寫了這篇文章來介紹一下GAN。

本文主要分為三個部分:

  • 介紹原始的GAN的原理?
  • 同樣非常重要的DCGAN的原理?
  • 如何在Tensorflow跑DCGAN的代碼,生成如題圖所示的動漫頭像,附送數據集哦 :-)

GAN原理介紹

說到GAN第一篇要看的paper當然是Ian Goodfellow大牛的Generative Adversarial Networks(arxiv:https://arxiv.org/abs/1406.2661),這篇paper算是這個領域的開山之作。

GAN的基本原理其實非常簡單,這里以生成圖片為例進行說明。假設我們有兩個網絡,G(Generator)和D(Discriminator)。正如它的名字所暗示的那樣,它們的功能分別是:

  • G是一個生成圖片的網絡,它接收一個隨機的噪聲z,通過這個噪聲生成圖片,記做G(z)。
  • D是一個判別網絡,判別一張圖片是不是“真實的”。它的輸入參數是x,x代表一張圖片,輸出D(x)代表x為真實圖片的概率,如果為1,就代表100%是真實的圖片,而輸出為0,就代表不可能是真實的圖片。

在訓練過程中,生成網絡G的目標就是盡量生成真實的圖片去欺騙判別網絡D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D構成了一個動態的“博弈過程”。

最后博弈的結果是什么?在最理想的狀態下,G可以生成足以“以假亂真”的圖片G(z)。對于D來說,它難以判定G生成的圖片究竟是不是真實的,因此D(G(z)) = 0.5。

這樣我們的目的就達成了:我們得到了一個生成式的模型G,它可以用來生成圖片。

以上只是大致說了一下GAN的核心原理,如何用數學語言描述呢?這里直接摘錄論文里的公式:

簡單分析一下這個公式:

  • 整個式子由兩項構成。x表示真實圖片,z表示輸入G網絡的噪聲,而G(z)表示G網絡生成的圖片。
  • D(x)表示D網絡判斷真實圖片是否真實的概率(因為x就是真實的,所以對于D來說,這個值越接近1越好)。而D(G(z))是D網絡判斷G生成的圖片的是否真實的概率。
  • G的目的:上面提到過,D(G(z))是D網絡判斷G生成的圖片是否真實的概率,G應該希望自己生成的圖片“越接近真實越好”。也就是說,G希望D(G(z))盡可能得大,這時V(D, G)會變小。因此我們看到式子的最前面的記號是min_G。
  • D的目的:D的能力越強,D(x)應該越大,D(G(x))應該越小。這時V(D,G)會變大。因此式子對于D來說是求最大(max_D)

下面這幅圖片很好地描述了這個過程:

那么如何用隨機梯度下降法訓練D和G?論文中也給出了算法:

這里紅框圈出的部分是我們要額外注意的。第一步我們訓練D,D是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步訓練G時,V(G, D)越小越好,所以是減去梯度(descending)。整個訓練過程交替進行。

DCGAN原理介紹

我們知道深度學習中對圖像處理應用最好的模型是CNN,那么如何把CNN與GAN結合?DCGAN是這方面最好的嘗試之一(論文地址:[1511.06434] Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks)

DCGAN的原理和GAN是一樣的,這里就不在贅述。它只是把上述的G和D換成了兩個卷積神經網絡(CNN)。但不是直接換就可以了,DCGAN對卷積神經網絡的結構做了一些改變,以提高樣本的質量和收斂的速度,這些改變有:

  • 取消所有pooling層。G網絡中使用轉置卷積(transposed convolutional layer)進行上采樣,D網絡中用加入stride的卷積代替pooling。
  • 在D和G中均使用batch normalization
  • 去掉FC層,使網絡變為全卷積網絡
  • G網絡中使用ReLU作為激活函數,最后一層使用tanh
  • D網絡中使用LeakyReLU作為激活函數

DCGAN中的G網絡示意:

DCGAN in Tensorflow

好了,上面說了一通原理,下面說點有意思的實踐部分的內容。

DCGAN的原作者用DCGAN生成LSUN的臥室圖片,這并不是特別有意思。之前在網上看到一篇文章?Chainerで顔イラストの自動生成 - Qiita?,是用DCGAN生成動漫人物頭像的,效果如下:

這是個很有趣的實踐內容。可惜原文是用Chainer做的,這個框架使用的人不多。下面我們就在Tensorflow中復現這個結果。

原始數據集的搜集

首先我們需要用爬蟲爬取大量的動漫圖片,原文是在這個網站:http://safebooru.donmai.us/中爬取的。我嘗試的時候,發現在我的網絡環境下無法訪問這個網站,于是我就寫了一個簡單的爬蟲爬了另外一個著名的動漫圖庫網站:konachan.net - Konachan.com Anime Wallpapers。

爬蟲代碼如下:

import requests from bs4 import BeautifulSoup import os import tracebackdef download(url, filename):if os.path.exists(filename):print('file exists!')returntry:r = requests.get(url, stream=True, timeout=60)r.raise_for_status()with open(filename, 'wb') as f:for chunk in r.iter_content(chunk_size=1024):if chunk: # filter out keep-alive new chunksf.write(chunk)f.flush()return filenameexcept KeyboardInterrupt:if os.path.exists(filename):os.remove(filename)raise KeyboardInterruptexcept Exception:traceback.print_exc()if os.path.exists(filename):os.remove(filename)if os.path.exists('imgs') is False:os.makedirs('imgs')start = 1 end = 8000 for i in range(start, end + 1):url = 'http://konachan.net/post?page=%d&tags=' % ihtml = requests.get(url).textsoup = BeautifulSoup(html, 'html.parser')for img in soup.find_all('img', class_="preview"):target_url = 'http:' + img['src']filename = os.path.join('imgs', target_url.split('/')[-1])download(target_url, filename)print('%d / %d' % (i, end))

這個爬蟲大概跑了一天,爬下來12萬張圖片,大概是這樣的:

可以看到這里面的圖片大多數比較雜亂,還不能直接作為數據訓練,我們需要用合適的工具,截取人物的頭像進行訓練。

頭像截取

截取頭像和原文一樣,直接使用github上一個基于opencv的工具:nagadomi/lbpcascade_animeface。

簡單包裝下代碼:

作者:何之源 鏈接:https://zhuanlan.zhihu.com/p/24767059 來源:知乎 著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。import cv2 import sys import os.path from glob import globdef detect(filename, cascade_file="lbpcascade_animeface.xml"):if not os.path.isfile(cascade_file):raise RuntimeError("%s: not found" % cascade_file)cascade = cv2.CascadeClassifier(cascade_file)image = cv2.imread(filename)gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)gray = cv2.equalizeHist(gray)faces = cascade.detectMultiScale(gray,# detector optionsscaleFactor=1.1,minNeighbors=5,minSize=(48, 48))for i, (x, y, w, h) in enumerate(faces):face = image[y: y + h, x:x + w, :]face = cv2.resize(face, (96, 96))save_filename = '%s-%d.jpg' % (os.path.basename(filename).split('.')[0], i)cv2.imwrite("faces/" + save_filename, face)if __name__ == '__main__':if os.path.exists('faces') is False:os.makedirs('faces')file_list = glob('imgs/*.jpg')for filename in file_list:detect(filename)

?

截取頭像后的人物數據:

這樣就可以用來訓練了!

如果你不想從頭開始爬圖片,可以直接使用我爬好的頭像數據(275M,約5萬多張圖片):https://pan.baidu.com/s/1eSifHcA?提取碼:g5qa

訓練

DCGAN在Tensorflow中已經有人造好了輪子:carpedm20/DCGAN-tensorflow,我們直接使用這個代碼就可以了。

不過原始代碼中只提供了有限的幾個數據庫,如何訓練自己的數據?在model.py中我們找到讀數據的幾行代碼:

if config.dataset == 'mnist':data_X, data_y = self.load_mnist()else:data = glob(os.path.join("./data", config.dataset, "*.jpg"))

?

這樣讀數據的邏輯就很清楚了,我們在data文件夾中再新建一個anime文件夾,把圖片直接放到這個文件夾里,運行時指定–dataset anime即可。

運行指令(參數含義:指定生成的圖片的尺寸為48x48,我們圖片的大小是96x96,跑300個epoch):

python main.py --image_size 96 --output_size 48 --dataset anime --is_crop True --is_train True --epoch 300

?

結果

第1個epoch跑完(只有一點點輪廓):

第5個epoch之后的結果:

第10個epoch:

200個epoch,仔細看有些圖片確實是足以以假亂真的:

題圖是我從第300個epoch生成的。

總結和后續

簡單介紹了一下GAN和DCGAN的原理。以及如何使用Tensorflow做一個簡單的生成圖片的demo。

  • Ian Goodfellow對GAN一系列工作總結的ppt,確實精彩,推薦:獨家 | GAN之父NIPS 2016演講現場直擊:全方位解讀生成對抗網絡的原理及未來(附PPT)
  • GAN論文匯總,包含code:zhangqianhui/AdversarialNetsPapers

轉載于:https://www.cnblogs.com/Anita9002/p/9109642.html

總結

以上是生活随笔為你收集整理的DCGAN in Tensorflow生成动漫人物的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。