日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文阅读:Network In Network

發(fā)布時間:2025/3/15 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文阅读:Network In Network 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


源碼及論文地址:https://github.com/BVLC/caffe/wiki/Model-Zoo#network-in-network-model


這篇paper改進(jìn)了傳統(tǒng)的CNN網(wǎng)絡(luò),采用了少量的參數(shù)就輕松擊敗了Alexnet網(wǎng)絡(luò),Alexnet網(wǎng)絡(luò)參數(shù)大小是230M,采用這篇paper的算法才29M,減小了將近10倍。另外,這篇paper提出的網(wǎng)絡(luò)結(jié)構(gòu),是對傳統(tǒng)CNN網(wǎng)絡(luò)的一種改進(jìn)。
先看一下摘要,對NIN有個簡單的了解:

文章中的兩個創(chuàng)新點(diǎn):
1. MlpConv卷積層
傳統(tǒng)卷積層時下圖左側(cè)方式的,可以理解為是一個簡單的單層網(wǎng)絡(luò),而MlpConv可以看成是每個卷積的局部感受野中還包含了一個微型的多層網(wǎng)絡(luò),用來提高非線性。利用多層Mlp的微型網(wǎng)絡(luò),對每個局部感受野的神經(jīng)元進(jìn)行更加復(fù)雜的運(yùn)算,而以前的卷積層,局部感受野的運(yùn)算僅僅只是一個單層的神經(jīng)網(wǎng)絡(luò)罷了。

一個MlpConv的網(wǎng)絡(luò)結(jié)構(gòu)如下:

layers {name: "conv1"type: CONVOLUTIONbottom: "data"top: "conv1"blobs_lr: 1blobs_lr: 2weight_decay: 1weight_decay: 0convolution_param {num_output: 192pad: 2kernel_size: 5weight_filler {type: "gaussian"std: 0.05}bias_filler {type: "constant"}} } layers {name: "relu1"type: RELUbottom: "conv1"top: "conv1" } layers {name: "cccp1"type: CONVOLUTIONbottom: "conv1"top: "cccp1"blobs_lr: 1blobs_lr: 2weight_decay: 1weight_decay: 0convolution_param {num_output: 160group: 1kernel_size: 1weight_filler {type: "gaussian"std: 0.05}bias_filler {type: "constant"value: 0}} } layers {name: "relu_cccp1"type: RELUbottom: "cccp1"top: "cccp1" } layers {name: "cccp2"type: CONVOLUTIONbottom: "cccp1"top: "cccp2"blobs_lr: 1blobs_lr: 2weight_decay: 1weight_decay: 0convolution_param {num_output: 96group: 1kernel_size: 1weight_filler {type: "gaussian"std: 0.05}bias_filler {type: "constant"value: 0}} } layers {name: "relu_cccp2"type: RELUbottom: "cccp2"top: "cccp2" }

其實(shí)結(jié)構(gòu)很簡單,就是三個卷積層的堆疊,我們用Netscope可視化后可以看到一個MlpConv層的結(jié)構(gòu)如下圖:

2. 全局平均池化(Global Average Pooling)
傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)卷積運(yùn)算一般是出現(xiàn)在低層網(wǎng)絡(luò)。對于分類問題,最后一個卷積層的特征圖通過量化然后與全連接層連接,最后在接一個softmax邏輯回歸分類層。這種網(wǎng)絡(luò)結(jié)構(gòu),使得卷積層和傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)層連接在一起。我們可以把卷積層看做是特征提取器,然后得到的特征再用傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。

然而,全連接層因為參數(shù)個數(shù)太多,往往容易出現(xiàn)過擬合的現(xiàn)象,導(dǎo)致網(wǎng)絡(luò)的泛化能力不盡人意。于是Hinton采用了Dropout的方法,來提高網(wǎng)絡(luò)的泛化能力。

本文提出采用全局均值池化的方法,替代傳統(tǒng)CNN中的全連接層。與傳統(tǒng)的全連接層不同,我們對每個特征圖一整張圖片進(jìn)行全局均值池化,這樣每張?zhí)卣鲌D都可以得到一個輸出。這樣采用均值池化,連參數(shù)都省了,可以大大減小網(wǎng)絡(luò),避免過擬合,另一方面它有一個特點(diǎn),每張?zhí)卣鲌D相當(dāng)于一個輸出特征,然后這個特征就表示了我們輸出類的特征。這樣如果我們在做1000個分類任務(wù)的時候,我們網(wǎng)絡(luò)在設(shè)計的時候,最后一層的特征圖個數(shù)就要選擇1000。

論文中提到的全局平均池化的優(yōu)點(diǎn):
1. 相比于用全連接操作,feature map和類別之間用池化操作更自然些;
2. 參數(shù)量少了很多;
3. 全局平均池化考慮了圖像的空間特性,因此對輸入的空間變換有很好的魯棒性。
在實(shí)驗部分,作者在CIFAR-10數(shù)據(jù)庫上給出了驗證:

第一行是MlpConv結(jié)構(gòu)+全連接,由于存在過擬合,因此結(jié)果不是很好;第二行加入了dropout,結(jié)果提升了一些。第三行采用全局池化,結(jié)果是最優(yōu)的。

最后,NIN采用的網(wǎng)絡(luò)結(jié)構(gòu)是:

與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖

總結(jié)

以上是生活随笔為你收集整理的论文阅读:Network In Network的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。