日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ReLU上的花样

發(fā)布時間:2023/12/20 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ReLU上的花样 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

ReLU上的花樣

CNN出現(xiàn)以來,感覺在各個地方,即便是非常小的地方都有點可以挖掘。比如ReLU。

ReLU的有效性體現(xiàn)在兩個方面:

  • 克服梯度消失的問題
  • 加快訓練速度

而這兩個方面是相輔相成的,因為克服了梯度消失問題,所以訓練才會快。

ReLU的起源,在這片博文里,對ReLU的起源的介紹已經(jīng)很詳細了,包括如何從生物神經(jīng)衍生出來,如何與稀疏性進行關(guān)聯(lián)等等。

其中有一段特別精彩的話我引用在下面:

幾十年的機器學習發(fā)展中,我們形成了這樣一個概念:非線性激活函數(shù)要比線性激活函數(shù)更加先進。

尤其是在布滿Sigmoid函數(shù)的BP神經(jīng)網(wǎng)絡,布滿徑向基函數(shù)的SVM神經(jīng)網(wǎng)絡中,往往有這樣的幻覺,非線性函數(shù)對非線性網(wǎng)絡貢獻巨大。

該幻覺在SVM中更加嚴重。核函數(shù)的形式并非完全是SVM能夠處理非線性數(shù)據(jù)的主力功臣(支持向量充當著隱層角色)。

那么在深度網(wǎng)絡中,對非線性的依賴程度就可以縮一縮。另外,在上一部分提到,稀疏特征并不需要網(wǎng)絡具有很強的處理線性不可分機制。

綜合以上兩點,在深度學習模型中,使用簡單、速度快的線性激活函數(shù)可能更為合適。

而本文要講的,則是ReLU上的改進,所謂麻雀雖小,五臟俱全,ReLU雖小,但也是可以改進的。

ReLU的種類

ReLU的區(qū)分主要在負數(shù)端,根據(jù)負數(shù)端斜率的不同來進行區(qū)分,大致如下圖所示。

普通的ReLU負數(shù)端斜率是0,Leaky ReLU則是負數(shù)端有一個比較小的斜率,而PReLU則是在后向傳播中學習到斜率。而Randomized Leaky ReLU則是使用一個均勻分布在訓練的時候隨機生成斜率,在測試的時候使用均值斜率來計算。

效果

其中,NDSB數(shù)據(jù)集是Kaggle的比賽,而RReLU正是在這次比賽中嶄露頭角的。

通過上述結(jié)果,可以看到四點:

  • 對于leaky ReLU來說,如果斜率很小,那么與ReLU并沒有大的不同,當斜率大一些時,效果就好很多。
  • 在訓練集上,PReLU往往能達到最小的錯誤率,說明PReLU容易過擬合。
  • 在NSDB數(shù)據(jù)集上RReLU的提升比cifar10和cifar100上的提升更加明顯,而NSDB數(shù)據(jù)集比較小,從而可以說明,RReLU在與過擬合的對抗中更加有效
  • 對于RReLU來說,還需要研究一下隨機化得斜率是怎樣影響訓練和測試過程的。

參考文獻

[1]. Xu B, Wang N, Chen T, et al. Empirical evaluation of rectified activations in convolutional network[J]. arXiv preprint arXiv:1505.00853, 2015.

總結(jié)

以上是生活随笔為你收集整理的ReLU上的花样的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。