日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

2020-12-09 深度学习 卷积核/过滤器、特征图(featue map)、卷积层

發(fā)布時(shí)間:2025/3/21 pytorch 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 2020-12-09 深度学习 卷积核/过滤器、特征图(featue map)、卷积层 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

概念學(xué)習(xí):卷積核/過濾器、特征圖(featue map)、卷積層

作為基礎(chǔ)學(xué)習(xí),建議先看一看電子版的:

[美] Michael Nielsen著,Xiaohu Zhu/Freeman Zhang譯:《神經(jīng)?絡(luò)與深度學(xué)習(xí)》(Neural Networks and Deep Learning)

這本書深入淺出,把神經(jīng)網(wǎng)絡(luò)的基本原理講得比較清楚。

?

人們把feature map翻譯成特征圖,把channel翻譯為通道。有時(shí)這二者說的是同一件事;但有時(shí)強(qiáng)調(diào)輸入輸出時(shí)就叫通道,強(qiáng)調(diào)圖片經(jīng)過神經(jīng)網(wǎng)絡(luò)運(yùn)算后發(fā)現(xiàn)的特征就叫特征圖。在下文的說明過程中,我們不做顯著的區(qū)分,同學(xué)們可以理解為上一層輸出的feature maps就是下一層輸入的channels。

?

(1)卷積核/過濾器

卷積核也稱為過濾器(filter)。

每個(gè)卷積核具有長、寬、深三個(gè)維度。

卷積核的長、寬都是人為指定的,長X寬也被稱為卷積核的尺寸,常用的尺寸為3X3,5X5等。

在指定卷積核時(shí),只需指定其長和寬兩個(gè)參數(shù),這是因?yàn)橥ǔ>矸e核的深度(也可以理解為通道數(shù))與當(dāng)前圖像的深度(feather map的個(gè)數(shù),比如:RGB三個(gè)通道就是三個(gè)feature map)相同。

卷積過程中,輸入層有多少個(gè)通道(輸入的feature map個(gè)數(shù)),濾波器就要有多少個(gè)通道(卷積核的深度);但是濾波器的數(shù)量是任意的,濾波器的數(shù)量決定了卷積后輸出的通道數(shù)(即:輸出的feature map 個(gè)數(shù))。

在許多常用的體系結(jié)構(gòu)中,隨著計(jì)算所使用的網(wǎng)絡(luò)越來越深,所使用的過濾器數(shù)量也越來越大(例如,第二個(gè)為64,第三個(gè)為128,依此類推)。

?

(2)feature map

輸入層:在輸入層,如果是灰度圖片,那就只有一個(gè)feature map(一個(gè)通道);如果是彩色圖片,一般就是3個(gè)feature map(紅綠藍(lán)三個(gè)通道)。

其它層:層與層之間會(huì)有若干個(gè)卷積核(kernel)(也稱為過濾器),上一層的feature map(通道)跟每個(gè)卷積核做卷積,都會(huì)產(chǎn)生下一層的一個(gè)feature map;有N個(gè)卷積核,下層就會(huì)產(chǎn)生N個(gè)feather map(即:N個(gè)輸出通道)。

?

(3)卷積層

許多卷積架構(gòu)是從一個(gè)外部卷積單元開始的,它將信道RGB的輸入圖像映射到一系列內(nèi)部過濾器中。在深度學(xué)習(xí)框架中,這個(gè)代碼可能如下所示:

?

out_1=Conv2d(input=image, filter=32, kernel_size=(3,3), strides=(1,1))

relu_out=relu(out_1)

pool_out=MaxPool(relu_out, kernel_size=(2,2), strides=2)

?

對(duì)一個(gè)輸入圖片,這里使用了32個(gè)的過濾器,每個(gè)過濾器尺寸為3X3,步長為1。

下面這張圖,可以用來顯示上述代碼片段中所有的操作:

?

上圖中,32個(gè)過濾器中的每個(gè)過濾器(即:Filter-1、Filter-2……)實(shí)際上包含一組3個(gè)二維內(nèi)核(Wt-R、Wt-G和WT-B,即:深度為3)。這些二維內(nèi)核中的每一個(gè)分別保存為輸入圖片中的紅(R)、綠(G)和藍(lán)(B)信道。

在正向傳播期間,輸入圖片中的R、G和B像素值分別與Wt-R、Wt-G和Wt-B內(nèi)核相乘以產(chǎn)生一個(gè)間歇激活映射(intermittent activation map)(圖中未標(biāo)出)。然后將三個(gè)核的輸出相加,這樣就為每個(gè)過濾器產(chǎn)生一個(gè)激活映射(Activation),一共是32個(gè)。

隨后,這些激活映射中的每一個(gè)都要受到ReLu函數(shù)的支配,最后運(yùn)行到最大池化層(也有不使用最大池化層的),而后者主要負(fù)責(zé)減少輸出激活映射的維度(可以理解為減小了長X寬的大小,注意這里所使用的步長為2)。最后,我們得到的是一組32個(gè)激活映射,其維數(shù)是輸入圖片的一半(即:得到的32個(gè)feature map,每個(gè)feature map的尺寸只有輸入圖片的一半)。

來自卷積層的輸出經(jīng)常用作后續(xù)卷積層的輸入。因此,如果我們的第二個(gè)卷積單元如下:

?

conv_out_2 = Conv2d(input = relu_out,filters = 64)

?

在這個(gè)卷積單元中有64個(gè)過濾器,每個(gè)過濾器使用一組32個(gè)獨(dú)特的內(nèi)核(每個(gè)內(nèi)核對(duì)應(yīng)前面卷積層輸出的一個(gè)feature map的信道,32個(gè)feature map就需要32個(gè)內(nèi)核,即:深度為32)。

參數(shù)比較簡單的Conv2d()卷積函數(shù)的計(jì)算過程可以參考:

https://blog.csdn.net/weixin_41943311/article/details/94570067

?

(4)Batch Normalization

Normalization是數(shù)據(jù)標(biāo)準(zhǔn)化(歸一化,規(guī)范化),Batch 可以理解為批量,加起來就是批量標(biāo)準(zhǔn)化。

總結(jié)

以上是生活随笔為你收集整理的2020-12-09 深度学习 卷积核/过滤器、特征图(featue map)、卷积层的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。