“无中生有”计算机视觉探奇
作者:魏秀參,南京大學(xué)計算機(jī)系機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘所(LAMDA)博士生。曾在國際頂級期刊和會議發(fā)表學(xué)術(shù)論文,其Must Know Tipss in Deep Neural Networks受邀發(fā)布于國際知名數(shù)據(jù)挖掘論壇KDnuggets和Data Science Central。?
本文選自《程序員》,更多精彩文章請訂閱2016年《程序員》。
計算機(jī)視覺(Computer Vision,CV)是一門研究如何使機(jī)器“會看”的科學(xué)。1963年來自MIT的Larry Roberts發(fā)表了該領(lǐng)域第一篇博士論文《Machine Perception of Three-Dimensional Solids》,標(biāo)志著CV作為一門新興人工智能方向研究的開始。在發(fā)展了50多年后的今天,我們就來聊聊最近讓計算機(jī)視覺擁有“無中生有”能力的幾個有趣嘗試:
可以看出,這五個嘗試層層遞進(jìn),難度和趣味程度也逐步提升。由于篇幅有限,本文在此只談視覺問題,不提太過具體的技術(shù)細(xì)節(jié),若大家對某部分感興趣,以后再來單獨(dú)寫文章討論。
超分辨率重建(Image Super-Resolution)
去年夏天,一款名為“waifu 2x”的島國應(yīng)用在動畫和計算機(jī)圖形學(xué)中著實(shí)火了一把。waifu 2x借助深度“卷積神經(jīng)網(wǎng)絡(luò)”(Convolutional Neural Network,CNN)技術(shù),可以將圖像的分辨率提升2倍,同時還能對圖像進(jìn)行降噪。簡單來說,就是讓計算機(jī)“無中生有”地填充一些原圖中并沒有的像素,從而讓漫畫看起來更清晰真切。大家不妨看看圖1、圖2,真想童年時候看的就是如此高清的龍珠啊!
不過需要指出的是,圖像超分辨率的研究始于2009年左右,只是得力于“深度學(xué)習(xí)”的發(fā)展,waifu 2x才可以做出更好的效果。在具體訓(xùn)練CNN時,輸入圖像為原分辨率,而對應(yīng)的超分辨率圖像則作為目標(biāo),以此構(gòu)成訓(xùn)練的“圖像對”(Image Pair),經(jīng)過模型訓(xùn)練便可得到超分辨率重建模型。waifu 2x的深度網(wǎng)絡(luò)原型基于香港中文大學(xué)湯曉歐教授團(tuán)隊的成果(如圖3所示)。有趣的是,這一研究指出可以用傳統(tǒng)方法給予深度模型以定性的解釋。在圖3中,低分辨率圖像通過CNN的卷積(Convolution)和池化(Pooling)操作后可以得到抽象后的特征圖 (Feature Map)。基于低分辨率特征圖,同樣可以利用卷積和池化實(shí)現(xiàn)從低分辨率到高分辨率特征圖的非線性映射(Non-Linear Mapping)。最后的步驟則是利用高分辨率特征圖重建高分辨率圖像。實(shí)際上,這三個步驟與傳統(tǒng)超分辨率重建方法的三個過程是一致的。
圖像著色(Image Colorization)
顧名思義,圖像著色是將原本“沒有”顏色的黑白圖像進(jìn)行彩色填充。圖像著色同樣借助卷積神經(jīng)網(wǎng)絡(luò),輸入為黑白和對應(yīng)彩色圖像的“圖像對”,但僅僅通過對比黑白像素和RGB像素來確定填充的顏色,效果欠佳。因為顏色填充的結(jié)果要符合我們的認(rèn)知習(xí)慣,比如,把一條“汪星人”的毛涂成鮮綠色就會讓人覺得很怪異。于是近期,早稻田大學(xué)發(fā)表在2016年計算機(jī)圖形學(xué)國際頂級會議SIGGRAPH上的一項工作就在原來深度模型的基礎(chǔ)上,加入了“分類網(wǎng)絡(luò)”來預(yù)先確定圖像中物體的類別,以此為“依據(jù)”再做以顏色填充。圖4就分別展示了模型結(jié)構(gòu)圖和顏色恢復(fù)示例,其恢復(fù)效果還是頗為逼真的。另外,此類工作還可用于黑白電影的顏色恢復(fù),操作時只需簡單將視頻中逐幀拿來做著色即可。
看圖說話(Image Caption)
人們常說“圖文并茂”,文字是除圖像之外另一種描述世界的方式。近期,一項名為“Image Caption”的研究逐漸升溫起來,其主要目的是通過計算機(jī)視覺和機(jī)器學(xué)習(xí)的方法實(shí)現(xiàn)對一張圖像自動地生成人類自然語言的描述,即“看圖說話”。一般來講,在Image Caption中,CNN用來獲取圖像的特征,接著將圖像特征作為語言模型LSTM(RNN的一種)的輸入,整體作為一個End-to-End的結(jié)構(gòu)進(jìn)行聯(lián)合訓(xùn)練,最終輸出對圖像的語言描述(如圖5所示)。
人像復(fù)原(Sketch Inversion)
就在六月初,荷蘭科學(xué)家在arXiv上發(fā)布了他們的最新研究成果——通過深度網(wǎng)絡(luò)對人臉輪廓圖進(jìn)行“復(fù)原”。如圖6所示,在模型訓(xùn)練階段,首先對真實(shí)的人臉圖像利用傳統(tǒng)的線下邊緣化方法獲得對應(yīng)人臉的輪廓圖,并以原圖和輪廓圖組成的“圖像對”作為深度網(wǎng)絡(luò)的輸入,進(jìn)行類似超分辨率重建的模型訓(xùn)練。在預(yù)測階段,輸入為人臉輪廓(左二Sketch),經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)的層層抽象和后續(xù)的“還原”操作,可以逐步把相片般的人臉圖像復(fù)原出來(右一),與最左邊的人臉真實(shí)圖像對比,足夠以假亂真。在模型流程圖下還另外展示了一些人像復(fù)原的結(jié)果,左側(cè)一列為真實(shí)人像,中間列為畫家手工描繪的人臉輪廓圖,并以此作為網(wǎng)絡(luò)輸入進(jìn)行人像復(fù)原,最終得到右側(cè)一列的復(fù)原結(jié)果——目測以后刑偵警察再也不用苦練美術(shù)了。
圖像自動生成
回顧剛才的四個工作,其實(shí)它們的共同點(diǎn)是仍然需要依靠一些“素材”方可“無中生有”,例如“人像復(fù)原”還是需要一個輪廓畫才可以恢復(fù)人像。接下來的這個工作則可以做到由任意一條隨機(jī)向量生成一張逼近真實(shí)場景的圖像。
“無監(jiān)督學(xué)習(xí)”可謂是計算機(jī)視覺領(lǐng)域的圣杯。最近該方向的一項開創(chuàng)性工作是由Ian Goodfellow和Yoshua Bengio等提出的“生成對抗網(wǎng)絡(luò)”(Generative Adversarial Nets, GAN)。該工作的靈感來自博弈論中的零和博弈。在二元零和博弈中,兩位博弈方的利益之和為零或一個常數(shù),即一方有所得,另一方必有所失。而GAN中的兩位博弈方分別由一個“判別式網(wǎng)絡(luò)”和一個“生成式網(wǎng)絡(luò)”充當(dāng),如圖7所示。
其中,“判別式網(wǎng)絡(luò)”的輸入為圖像,其作用為判斷一張圖像是真實(shí)的,還是由計算機(jī)生成的像;“生成式網(wǎng)絡(luò)”的輸入為一條隨機(jī)向量,可以通過網(wǎng)絡(luò)“生成”一張合成圖像。這張合成圖像亦可作為“判別式網(wǎng)絡(luò)”的輸入,只是此時,在理想情況下應(yīng)能判斷出它是由計算機(jī)生成的。
接下來,GAN中的零和博弈就發(fā)生在“判別式網(wǎng)絡(luò)”和“生成式網(wǎng)絡(luò)”上:“生成式網(wǎng)絡(luò)”想方設(shè)法的讓自己生成的圖像逼近真實(shí)圖像,從而可以“騙過”“判別式網(wǎng)絡(luò)”;而“判別式網(wǎng)絡(luò)”也時刻提高警惕,防止“生成式網(wǎng)絡(luò)”蒙混過關(guān)……你來我往,如此迭代下去,頗有點(diǎn)“左右互搏”的意味。GAN整個過程的最終目標(biāo)是習(xí)得一個可以逼近真實(shí)數(shù)據(jù)分布的“生成式網(wǎng)絡(luò)”,從而掌握整體真實(shí)數(shù)據(jù)的分布情況,因此取名“生成對抗網(wǎng)絡(luò)”。需要強(qiáng)調(diào)的是,GAN不再像傳統(tǒng)的監(jiān)督式深度學(xué)習(xí)那樣需要海量帶有類別標(biāo)記的圖像,它不需任何圖像標(biāo)記即可訓(xùn)練,也就是進(jìn)行無監(jiān)督條件下的深度學(xué)習(xí)。2016年初,在GAN的基礎(chǔ)上,Indico Research和Facebook AI實(shí)驗室將GAN用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)現(xiàn)(稱作DCGAN,Deep Convolutional GAN),工作發(fā)表在國際表示學(xué)習(xí)重要會議ICLR 2016上,并在無監(jiān)督深度學(xué)習(xí)模型中取得了當(dāng)時最好的效果。圖8展示了一些由DCGAN生成的臥室圖像。
更為有趣的是,DCGAN還可以像word2vec一樣支持圖像“語義”層面的加減(如圖9所示)。
另外,前些天“生成式計算機(jī)視覺”研究領(lǐng)域大牛UCLA的Song-Chun Zhu教授團(tuán)隊發(fā)布了他們基于生成式卷積網(wǎng)絡(luò)的最新工作STGConvNet:它不僅可以自動合成動態(tài)紋理,同時還可以合成聲音,可以說將無監(jiān)督計算機(jī)視覺又向前推進(jìn)了一大步。
結(jié)束語
如今借著“深度學(xué)習(xí)”的東風(fēng),計算機(jī)視覺中絕大多數(shù)任務(wù)的性能表現(xiàn)都被“刷”上了新高,甚至連“人像復(fù)原”,“圖像生成”類似“無中生有”的奇談都可以較高質(zhì)量地實(shí)現(xiàn),著實(shí)讓人激動不已。不過盡管如此,事實(shí)上距離所謂的顛覆人類的AI“奇點(diǎn)”還相當(dāng)遙遠(yuǎn),并且可以預(yù)見,現(xiàn)階段甚至相當(dāng)長的一段時間內(nèi),計算機(jī)視覺或人工智能還不可能做到真正意義上的“無中生有”——即擁有“自我意識”。
但是,也非常慶幸我們可以目睹并且經(jīng)歷這次計算機(jī)視覺乃至是整個人工智能的革命浪潮,相信今后還會有很多“無中生有”的奇跡發(fā)生。站在浪潮之巔,我興奮不已、徹夜難眠。
from:?http://geek.csdn.net/news/detail/102922
總結(jié)
以上是生活随笔為你收集整理的“无中生有”计算机视觉探奇的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Linux五种IO模型性能分析
- 下一篇: 神经网络架构演进史:全面回顾从LeNet