日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文Very Deep Convolutional Networks for Large-Scale Image Recognition

發布時間:2025/3/21 编程问答 54 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文Very Deep Convolutional Networks for Large-Scale Image Recognition 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Very Deep Convolutional Networks for Large-Scale Image Recognition

轉載請注明:http://blog.csdn.net/stdcoutzyx/article/details/39736509

這篇論文是今年9月份的論文[1],比較新,其中的觀點感覺對卷積神經網絡的參數調整大有指導作用,特總結之。關于卷積神經網絡(Convolutional Neural Network, CNN),筆者后會作文闡述之,讀者若心急則或可用谷歌百度一下。

本文以下內容即是論文的筆記,筆者初次嘗試對一篇論文提取重點做筆記,若有不足之處請閱讀原文者指出。

1. Main Contribution

  • 考察在參數總數基本不變的情況下,CNN隨著層數的增加,其效果的變化。
  • 論文中的方法在ILSVRC-2014比賽中獲得第二名。
    • ILSVRC——ImageNet Large-Scale Visual Recongnition Challenge

2. CNN improvement

在論文[2]出現以后,有很多對其提出的CNN結構進行改進的方法。例如:

  • Use smaller receptive window size and smaller stride of the first convolutional layer.
  • Training and testing the networks densely over the whole image and over multiple scales.

3. CNN Configuration Principals

  • CNN的輸入都是224×224×3的圖片。
  • 輸入前唯一的預處理是減去均值。
  • 1×1的核可以被看成是輸入通道的線性變換。
  • 使用較多的卷積核大小為3×3。
  • Max-Pooling 一般在2×2的像素窗口上做,with stride 2。
  • 除了最后一層全連接的分類層外,其他層都需要使用rectification non-linearity(RELU)。
  • 不需要添加Local Response Normalization(LRN),因為它不提升效果反而會帶來計算花費和內存花費,增加計算時間。

4. CNN Configuration

  • 卷積層的通道數目(寬度)從64,每過一個max-pooling層翻倍,到512為止。
  • Use filters with 3×3 size throughout the whole net, because a stack of two 3×3 conv layers (without spatial pooling in between) has an effective receptive of 5×5, and three a stack of 3×3 conv layers has a receptive of 7×7, and so on.
  • 為甚么使用三層3×3代替一層7×7?
    • 第一,三層比一層更具有判別性;
    • 第二,假設同樣的通道數C,那么三層3×3的參數數目為3×(3×3)C×C=27C×C,一層7×7參數數目為7×7×C×C=49C×C。大大減少了參數數目。
  • 使用1*1的卷積核可以在不影響視野域的情況下增加判別函數的非線性。該核可以用于“Network in Network”網絡結構,可以參考論文的參考文獻12。

  • 圖1是論文中實驗使用的神經網絡結構,可以看到,CNN的層數從11層到19層,結構符合上面的總結的點。圖2則是各個CNN的參數總數,可以看到,雖然深度變化了,但是參數數目變化不大。

Figure1 Convnet Configuration

Figure2 Parameter Num

5. Training

  • 除了使用multiple scale之外,論文[1]實驗基本都follow論文[2]的設置。batch size是256,momentum是0.9,正則化系數是5×10e-4,前兩層全連接的dropout參數設置為0.5,學習步長初始化為10e-2,且當驗證集結果不再上升時步長除以10,除三次為止。學習了370K迭代(74 epochs)時停止。
  • 論文推測,本文的網絡比原來的網絡要更容易收斂,原因有二:
    • Implicit regularization imposed by greater depth and smaller conv filter sizes
    • Pre-initialisation of certain layers. 先訓練淺層網絡,如圖中的A網絡,得到參數后,當訓練更深的網如E時,使用A中得到的參數初始化對應的層,新層的參數則隨機初始化。需要注意的是,使用這樣的方式進行初始化,不改變步長。
  • 224×224輸入的獲得,將原始圖片等比例縮放,保證短邊大于224,然后隨機選擇224×224的窗口,為了進一步data augment,還要考慮隨機的水平仿射和RGB通道切換。
  • Multi-scale Training, 多尺度的意義在于圖片中的物體的尺度有變化,多尺度可以更好的識別物體。有兩種方法進行多尺度訓練。
    • 在不同的尺度下,訓練多個分類器,參數為S,參數的意義就是在做原始圖片上的縮放時的短邊長度。論文中訓練了S=256和S=384兩個分類器,其中S=384的分類器的參數使用S=256的參數進行初始化,且將步長調為10e-3。
    • 另一種方法是直接訓練一個分類器,每次數據輸入時,每張圖片被重新縮放,縮放的短邊S隨機從[min, max]中選擇,本文中使用區間[256,384],網絡參數初始化時使用S=384時的參數。

6. Testing

測試使用如下步驟:

  • 首先進行等比例縮放,短邊長度Q大于224,Q的意義與S相同,不過S是訓練集中的,Q是測試集中的參數。Q不必等于S,相反的,對于一個S,使用多個Q值進行測試,然后去平均會使效果變好。
  • 然后,按照本文參考文獻16的方式對測試數據進行測試。
    • 將全連接層轉換為卷積層,第一個全連接轉換為7×7的卷積,第二個轉換為1×1的卷積。
    • Resulting net is applied to the whole image by convolving the filters in each layer with the full-size input. The resulting output feature map is a class score map with the number channels equal to the number of classes, and the variable spatial resolution, dependent on the input image size.
    • Finally, class score map is spatially averaged(sum-pooled) to obtain a fixed-size vector of class scores of the image.

7. Implementation

  • 使用C++ Caffe toolbox實現
    • 支持單系統多GPU
    • 多GPU把batch分為多個GPU-batch,在每個GPU上進行計算,得到子batch的梯度后,以平均值作為整個batch的梯度。
    • 論文的參考文獻[9]中提出了很多加速訓練的方法。論文實驗表明,在4-GPU的系統上,可以加速3.75倍。

8. Experiments

共進行三組實驗:

8.1 Configuration Comparison

使用圖1中的CNN結構進行實驗,在C/D/E網絡結構上進行多尺度的訓練,注意的是,該組實驗的測試集只有一個尺度。如下圖所示:

Figure3 Performance at a single test scale

8.2 Multi-Scale Comparison

測試集多尺度,且考慮到尺度差異過大會導致性能的下降,所以測試集的尺度Q在S的上下32內浮動。對于訓練集是區間尺度的,測試集尺度為區間的最小值、最大值、中值。

Figure4 Convnet performance at multiple test scales

8.3 Convnet Fusion

模型融合,方法是取其后驗概率估計的均值。

融合圖3和圖4中兩個最好的model可以達到更好的值,融合七個model會變差。

Figure5 Convnet Fusion

9. Reference

[1]. Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. arXiv preprint arXiv:1409.1556, 2014.

[2]. Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Advances in neural information processing systems. 2012: 1097-1105.

總結

以上是生活随笔為你收集整理的论文Very Deep Convolutional Networks for Large-Scale Image Recognition的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国语久久 | 韩日精品视频 | 俺也去婷婷 | av永久免费观看 | 国产精品中文字幕在线观看 | 国产精品厕所 | 五月的婷婷 | 男女69视频 | av网站在线观看不卡 | 亚洲av乱码一区二区 | 久久国产精品一区二区 | 殴美一级黄色片 | 日韩在线中文字幕视频 | 美女又爽又黄 | 欧洲中文字幕日韩精品成人 | 免费无遮挡在线观看视频网站 | 中文字幕人妻色偷偷久久 | 激情福利网 | av影院在线 | 成人黄色在线观看 | 国产全是老熟女太爽了 | 九九热在线观看视频 | 国产精品电影在线观看 | 午夜男人av | 人妖videosex高潮另类 | аⅴ资源新版在线天堂 | 亚欧洲精品视频在线观看 | 亚洲a网站| 久久精品国产露脸对白 | 一级少妇女片 | 国产欧美一区在线观看 | 欧美成人片在线观看 | 北岛玲av| 久久久久久久久久久久久久久久久 | 欧美日韩一本 | 老版水浒传83版免费播放 | 国产精品免费在线 | 亚洲激情欧美 | 久久精品国产亚洲AV无码男同 | 日韩女同强女同hd | 欧美黑人添添高潮a片www | 性感美女被草 | 综合久久婷婷 | 九九色播 | 青青草视频免费 | 中国国产黄色片 | 国产精品suv一区二区88 | 四虎黄色影视 | 自拍偷拍专区 | 国产一区日韩 | 伊人天堂在线 | 欧美图片一区二区三区 | 少妇熟女一区二区三区 | 69久人妻无码精品一区 | 亚洲网址| 国产精品久久久久久久免费 | 污视频网站在线观看 | 国产视频在线免费观看 | 俄罗斯嫩小性bbwbbw | 日韩中文字幕在线播放 | 射网站 | 日日操操| 中文字幕一区二区三区在线视频 | 美女脱了内裤喂我喝尿视频 | 嫩草影院永久入口 | 原来神马电影免费高清完整版动漫 | 麻豆久久久久久久久久 | 国产精品无码一区二区三区在线看 | 亚洲男女av | 久久免费视频2 | 亚洲h视频 | 日韩精选在线观看 | 亚洲成a人片777777久久 | 日本电影一区二区三区 | 国产精品五月天 | 欧洲在线一区 | 黄色小网站在线观看 | 国产综合精品久久久久成人影 | 99re这里只有精品在线 | 国产精品久久久久久一区二区 | 黄网视频在线观看 | 麻豆91在线观看 | 草草影院第一页 | 国产香蕉视频在线观看 | 一区二区三区国产视频 | 水蜜桃久久| 欧美激情一区二区三区四区 | 午夜激情在线视频 | 香蕉视频网址 | 99久久国产宗和精品1上映 | 免费毛片在线 | 精品人妻在线播放 | 亚洲一区二区三区在线观看视频 | 又大又硬又爽免费视频 | 九七av| 网址在线观看你懂的 | 亚洲欧美激情图片 | 成人免费视频大全 | 你懂的网站在线 |