日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

经典网络GoogLeNet介绍

發布時間:2023/11/27 生活经验 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 经典网络GoogLeNet介绍 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

經典網絡GoogLeNet由Christian Szegedy等于2014年提出,論文名為《Going deeper with convolutions》,論文見:https://arxiv.org/pdf/1409.4842v1.pdf

GoogLeNet網絡用到了Inception-v1模塊,關于Inception模塊的介紹可以參考:https://blog.csdn.net/fengbingchun/article/details/113482036

假如輸入圖像大小為n*n,過濾器(filter)為f*f,padding為p,步長(stride)為s,則輸出大小為:計算卷積層大小,如果商不是整數,向下取整,即floor函數;計算池化層大小,如果商不是整數,向上取整,即ceil函數。參考:https://blog.csdn.net/fengbingchun/article/details/80262495 ??

GoogLeNet網絡:

(1).使用了1*1卷積核,減少feature map數。

(2).采用了模塊化的結構(Inception-v1模塊),方便增添和修改。

(3).網絡最后采用全局平均池化(global average pooling)+全連接層+Softmax,而VGG和AlexNet最后使用連續3個全連接層+Softmax。

(4).為避免梯度消失,訓練網絡時額外增加了2個輔助分類器,輔助分類器是將中間某一層的輸出用作分類,并按一個較小的權重加到最終分類結果中。

GoogLeNet測試樣本處理:

(1).對于每個測試樣本,將圖像的短邊縮放到四種尺寸,分別為256、288、320、352;

(2).從每種縮放后的尺寸的測試樣本中,截取圖像的左、中、右方形區域(在肖像圖像中截取上、中、下方形區域);

(3).對于截取后的每個方形區域,從4個角和中心分別截取一個224*224區域,再將此方形區域縮小到224*224;

(4).將每個獲取的224*224圖像進行水平翻轉;

這樣每個原始測試樣本共得到4*3*6*2=144張圖像。

GoogLeNet訓練網絡時架構(有22+5層),論文截圖如下:

Caffe中GoogLeNet網絡相關文件見:https://github.com/BVLC/caffe/tree/master/models/bvlc_googlenet

GoogLeNet推理網絡架構:總共包含有9個Inception-v1模塊,blvc_googlenet中deploy.prototxt,輸入層shape為[10,3,224,224],即batch為10,這里調整為1

(1).輸入層(Input):圖像大小224*224*3。

(2).卷積層1+ReLU:使用64個7*7的filter,stride為2,padding為3,輸出為112*112*64,64個feature maps。

(3).最大池化層1+LRN:filter為3*3,stride為2,padding為0,輸出為56*56*64,64個feature maps。

(4).卷積層2+ReLU:使用64個1*1的filter,stride為1,padding為0,輸出為56*56*64,64個feature maps。

(5).卷積層3+ReLU+LRN:使用192個3*3的filter,stride為1,padding為1,輸出為56*56*192,192個feature maps。

(6).最大池化層2:filter為3*3,stride為2,padding為0,輸出為28*28*192,192個feature maps。

(7).Inception-1:由左往右,最終輸出并拼接為28*28*256,feature maps總數為64+128+32+32=256。

A.卷積+ReLU:使用64個1*1的filter,stride為1,padding為0,輸出為28*28*64。

B.卷積+ReLU:使用96個1*1的filter,stride為1,padding為0,輸出為28*28*96。然后再一次卷積+ReLU:使用128個3*3的filter,stride為1,padding為1,最終輸出為28*28*128。

C. 卷積+ReLU:使用16個1*1的filter,stride為1,padding為0,輸出為28*28*16。然后再一次卷積+ReLU:使用32個5*5的filter,stride為1,padding為2,最終輸出為28*28*32。

D.最大池化:filter為3*3,stride為1,padding為1,輸出為28*28*192。然后再卷積+ReLU:使用32個1*1的filter,stride為1,padding為0,最終輸出為28*28*32。

(8).Inception-2:由左往右,最終輸出并拼接為28*28*480,feature maps總數為128+192+96+64=480。

(9).最大池化層3:filter為3*3,stride為2,padding為0,輸出為14*14*480,480個feature maps。

(10).Inception-3:由左往右,最終輸出并拼接為14*14*512,feature maps總數為192+208+48+64=512。

(11).Inception-4:由左往右,最終輸出并拼接為14*14*512,feature maps總數為160+224+64+64=512。

(12).Inception-5:由左往右,最終輸出并拼接為14*14*512,feature maps總數為128+256+64+64=512。

(13).Inception-6:由左往右,最終輸出并拼接為14*14*528,feature maps總數為112+288+64+64=528。

(14).Inception-7:由左往右,最終輸出并拼接為14*14*832,feature maps總數為256+320+128+128=832。

(15).最大池化層4:filter為3*3,stride為2,padding為0,輸出為7*7*832,832個feature maps。

(16).Inception-8:由左往右,最終輸出并拼接為7*7*832,feature maps總數為256+320+128+128=832。

(17).Inception-9:由左往右,最終輸出并拼接為14*14*1024,feature maps總數為384+384+128+128=1024。

(18).平均池化層5+Dropout:filter為7*7,stride為1,padding為0,輸出為1*1*1024,1024個feature maps。

(19).全連接層:有1000個神經元或1000個feature maps。

(20).輸出層(Softmax):輸出分類結果,看它究竟是1000個可能類別中的哪一個。

可視化結果如下圖所示:

GitHub:https://github.com/fengbingchun/NN_Test

總結

以上是生活随笔為你收集整理的经典网络GoogLeNet介绍的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。