日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

「无中生有」计算机视觉探奇

發布時間:2025/3/21 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 「无中生有」计算机视觉探奇 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

計算機視覺 (Computer Vision, CV) 是一門研究如何使機器“看”的科學。1963年來自MIT的Larry Roberts發表的該領域第一篇博士論文“Machine Perception of Three-Dimensional Solids”,標志著CV作為一門新興人工智能方向研究的開始。在發展了50多年后的今天,我們就來聊聊最近讓計算機視覺擁有「無中生有」能力的幾個有趣嘗試:1)超分辨率重建;2)圖像著色;3)看圖說話;4)人像復原;5)圖像自動生成。可以看出,這五個嘗試層層遞進,難度和趣味程度也逐步提升。(注:本文在此只談視覺問題,不提太過具體的技術細節,若大家對某部分感興趣,以后再來單獨寫文章討論 :)



超分辨率重建 (Image Super-Resolution)

去年夏天,一款名為“waifu 2x”的島國應用在動畫和計算機圖形學中著實火了一把。waifu 2x借助深度「卷積神經網絡」(Convolutional Neural Network, CNN) 可以將圖像的分辨率提升2倍,同時還能對圖像降噪。簡單來說,就是讓計算機「無中生有」的填充一些原圖中并沒有的像素,從而讓漫畫看起來更清晰真切。大家不妨看看下圖,真想童年時候看的就是如此高清的龍珠啊!


不過需要指出的是,圖像超分辨率的研究始于2009年左右,只是得力于「深度學習」的發展,waifu 2x可以做出更好的效果。在具體訓練CNN時,輸入圖像為原分辨率, 而對應的超分辨率圖像則作為目標,以此構成訓練的“圖像對” (image pair),經過模型訓練便可得到超分辨率重建模型。waifu 2x的深度網絡原型基于香港中文大學湯曉歐教授團隊的工作[1]。有趣的是,[1]中指出可以用傳統方法給予深度模型以定性的解釋。如下圖,低分辨率圖像通過CNN的卷積 (convolution) 和池化 (pooling) 操作后可以得到抽象后的特征圖 (feature map)。基于低分辨率特征圖,同樣可以利用卷積和池化實現從低分辨率到高分辨率特征圖的非線性映射 (non-linear mapping)。最后的步驟則是利用高分辨率特征圖重建高分辨率圖像。實際上,所述三個步驟與傳統超分辨率重建方法的三個過程是一致的。


圖像著色 (Image Colorization)

顧名思義,圖像著色是將原本「沒有」顏色的黑白圖像進行彩色填充。圖像著色同樣借助卷積神經網絡,輸入為黑白和對應彩色圖像的image pair,但是僅僅通過對比黑白像素和RGB像素來確定填充的顏色,效果欠佳。因為顏色填充的結果要符合我們的認知習慣,比如,把一條汪星人的毛涂成鮮綠色就會讓人覺得很怪異。于是近期,早稻田大學發表在2016年計算機圖形學國際頂級會議SIGGRAPH上的一項工作[2]就在原來深度模型的基礎上,加入了「分類網絡」來預先確定圖像中物體的類別,以此為“依據”再做以顏色填充。下圖分別是模型結構圖和顏色恢復demo,其恢復效果還是頗為逼真的。另外,此類工作還可用于黑白電影的顏色恢復,操作時只需簡單的將視頻中每一幀拿出來作colorization即可。


"看圖說話" (Image Caption)

常說“圖文并茂”,文字是除圖像外另一種描述世界的方式。 近期,一項名為“image caption”的研究逐漸升溫起來,其主要任務是通過計算機視覺和機器學習的方法實現對一張圖像自動地生成人類自然語言的描述,即“看圖說話”。值得一提的是,在今年的CV國際頂會CVPR上,image caption被列為了一個單獨的session,其熱度可見一斑。一般來講在image caption中,CNN用來獲取圖像特征,接著將圖像特征作為語言模型LSTM(RNN的一種)的輸入,整體作為一個「end-to-end」的結構進行聯合訓練,最終輸出對圖像的語言描述(見下圖)。

目前image caption領域的最好結果[3]來自澳大利亞University of Adelaide的Chunhua Shen教授團隊。與之前image caption工作相比,他們的改進與剛才提到的顏色恢復簡直有異曲同工之妙,同樣是考慮利用圖像中物體的類別作為較精準的“依據”來更好的生成自然語言描述,即下圖中的紅色框框圈起的部分。Image caption的急速發展不僅加速了CV和NLP在AI大領域內的交融,同時也為增強現實應用奠定了更加堅實的技術基礎。另外,我們更樂于看到今后日趨成熟的image caption技術嵌入到穿戴式設備上,那一天盲人便可以間接的“看到光明”。



人像復原 (Sketch Inversion)

就在六月初,荷蘭科學家在arXiv上發布了他們的最新研究成果[4]——通過深度網絡對人臉輪廓圖進行「復原」。如下圖所示, 在模型訓練階段,首先對真實的人臉圖像利用傳統的線下邊緣化方法獲得對應人臉的輪廓圖,并以原圖和輪廓圖組成的“圖像對”作為深度網絡的輸入,進行類似超分辨率重建的模型訓練。在預測階段,輸入為人臉輪廓(左二sketch),經過卷積神經網絡的層層抽象和后續的“還原”可以逐步把相片般的人臉圖像復原出來(右一),與最左邊的人臉真實圖像對比,足夠以假亂真。在模型流程圖下還另外展示了一些人像復原的結果,左側一列為真實人像,中間列為畫家手工描繪的人臉輪廓圖,并以此作為網絡輸入進行人像復原,最終得到右側一列的復原結果——目測以后刑偵警察再也不用苦練美術了

總結

以上是生活随笔為你收集整理的「无中生有」计算机视觉探奇的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。