日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

#论文 《ImageNet Classification with Deep Convolutional Neural Networks》

發(fā)布時(shí)間:2025/4/5 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 #论文 《ImageNet Classification with Deep Convolutional Neural Networks》 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

這個(gè)Alex是第一作者,NN名字叫AlexNet,Hinton是第三作者。是第一個(gè)提出CNN的,還有dropout等方法。

?

1 Intro

?

CNN與之前的標(biāo)準(zhǔn)前饋神經(jīng)網(wǎng)絡(luò)對(duì)比:連接和參數(shù)更少,因此更容易訓(xùn)練;而且它的理論最佳只是比之前的稍差。

?

GPU讓訓(xùn)練CNN成為可能。而且,ImageNet也足夠大,這樣不怕過擬合。

?

本文貢獻(xiàn):

訓(xùn)練了最佳的CNN;

有trick來提升性能,降低訓(xùn)練時(shí)間,見Section 3;

防止過擬合的技術(shù),見Section 4;

減少任意一個(gè)卷積層都會(huì)降低效果。

?

本文訓(xùn)練的時(shí)候,限制主要是GPU的內(nèi)存和訓(xùn)練時(shí)間,如果可以增加計(jì)算資源的話,應(yīng)該可以提升效果。

?

?

2 數(shù)據(jù)

就是ImageNet,數(shù)據(jù)量足夠大,不太怕過擬合。

?

3 架構(gòu)

NN的架構(gòu)見Fig 2。

總共8層。前5層是卷積層,后3層是全連接層。

Section 3.1~3.4逐個(gè)介紹,按照重要性排序。

?

3.1 ReLU非線性

ReLU比tanh和sigmod好。比tanh快好幾倍。

沒有ReLU,可能實(shí)驗(yàn)沒法完成。

?

3.2 并行GPU

一個(gè)GPU內(nèi)存是3G,不夠訓(xùn)練1.2million的數(shù)據(jù),所以用了2塊GPU并行。

trick:

相鄰層在一個(gè)GPU內(nèi),加快速度。

用了某個(gè)相似的框架,降低了error 1.5~1.7個(gè)百分點(diǎn)。

2個(gè)GPU比一個(gè)GPU快了一點(diǎn)點(diǎn)。

?

3.3 Local Response Normalization

這個(gè)正則化框架提升了泛化能力。

降低了誤差1.2~1.4個(gè)百分點(diǎn)。

?

3.4 overlapping Pooling 池化

Pooling層是對(duì)前面層中,相鄰group的輸出做一個(gè)抽象的總結(jié)?!救?#xff0c;找max的,或者avg的等等?!?/p>

降低誤差0.3~0.4個(gè)百分點(diǎn)。

還稍微有防止過擬合的貢獻(xiàn)。

?

3.5 架構(gòu)

5層卷積+3層全連接。

輸出是1000個(gè)分類的softmax。

?

其中,提到了,最大化multinomial logistic regression等價(jià)于最大化the average across training cases of the log-probability of the correct label under the prediction distribution.

?

介紹了一下連接結(jié)構(gòu),用來提升計(jì)算速度等。

?

4 降低過擬合

參數(shù)太多,有60 million。

提出了兩種防止過擬合的技術(shù)。

?

4.1 增加數(shù)據(jù)

通過做轉(zhuǎn)換,來增加數(shù)據(jù)。

有兩種方法來實(shí)現(xiàn)。一是random抽取固定大小的patch,二是轉(zhuǎn)換成RGB 。這倆方法計(jì)算量小,可以放到CPU中,與GPU并行執(zhí)行,相當(dāng)于沒有多耗費(fèi)時(shí)間。

?

4.2 dropout

這個(gè)dropout被視為一種有效的model combination方法。

dropout概率為0.5,用在了三個(gè)全連接層中的前兩個(gè)中(而不是所有的都用!),可以強(qiáng)烈的防止過擬合,但是double了訓(xùn)練的iteration。

?

5 學(xué)習(xí)細(xì)節(jié)

初始化:

每層參數(shù)初始化:N(0,0.01);

bias:有的層是1,有的層是0.【不知道為什么要區(qū)分開】

?

訓(xùn)練:

SGD;

batch size:128;

momentum:0.9;

decay:0.0005;

learning rate: 初始0.01。當(dāng)validation error rate不動(dòng)的時(shí)候,將learning rate除以10。訓(xùn)練中,除了3次。

訓(xùn)練用了5~6天,用了2個(gè)3GB的GPU。

?

6 結(jié)果

當(dāng)然是好了,提升很高,比第二名超出很多。

?

7 討論

如果減少一個(gè)層,就會(huì)降低效果2%左右。所以,深度很重要。

為了降低復(fù)雜度,沒有做預(yù)處理。但如果能有更大的計(jì)算資源,用更深更大的網(wǎng)絡(luò)和更長(zhǎng)的訓(xùn)練時(shí)間,可能效果會(huì)更好。

最終想要用在視頻序列上。

總結(jié)

以上是生活随笔為你收集整理的#论文 《ImageNet Classification with Deep Convolutional Neural Networks》的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。