日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

训练深度神经网络的时候需要注意的一些小技巧

發(fā)布時間:2025/3/21 编程问答 19 豆豆
生活随笔 收集整理的這篇文章主要介紹了 训练深度神经网络的时候需要注意的一些小技巧 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

翻譯網(wǎng)上的哈,我覺得有很大一部分從沒看到過,所以就翻譯了下,如有不對的地方,歡迎指正:

1、準備數(shù)據(jù):務(wù)必保證有大量、高質(zhì)量并且?guī)в懈蓛魳撕灥臄?shù)據(jù),沒有如此的數(shù)據(jù),學習是不可能的

2、預處理:這個不多說,就是0均值和1方差化

3、minibatch:建議值128,1最好,但是效率不高,但是千萬不要用過大的數(shù)值,否則很容易過擬合

4、梯度歸一化:其實就是計算出來梯度之后,要除以minibatch的數(shù)量。這個不多解釋

5、下面主要集中說下學習率

  • 總的來說是用一個一般的學習率開始,然后逐漸的減小它
  • 一個建議值是0.1,適用于很多NN的問題,一般傾向于小一點。
  • 一個對于調(diào)度學習率的建議:如果在驗證集上性能不再增加就讓學習率除以2或者5,然后繼續(xù),學習率會一直變得很小,到最后就可以停止訓練了。
  • 很多人用的一個設(shè)計學習率的原則就是監(jiān)測一個比率(每次更新梯度的norm除以當前weight的norm),如果這個比率在10-3附近,如果小于這個值,學習會很慢,如果大于這個值,那么學習很不穩(wěn)定,由此會帶來失敗。

6、使用驗證集,可以知道什么時候開始降低學習率,和什么時候停止訓練。

7、關(guān)于對weight初始化的選擇的一些建議:

  • 如果你很懶,直接用0.02*randn(num_params)來初始化,當然別的值你也可以去嘗試
  • 如果上面那個不太好使,那么久依次初始化每一個weight矩陣用init_scale / sqrt(layer_width) * randn,init_scale可以被設(shè)置為0.1或者1
  • 初始化參數(shù)對結(jié)果的影響至關(guān)重要,要引起重視。
  • 在深度網(wǎng)絡(luò)中,隨機初始化權(quán)重,使用SGD的話一般處理的都不好,這是因為初始化的權(quán)重太小了。這種情況下對于淺層網(wǎng)絡(luò)有效,但是當足夠深的時候就不行了,因為weight更新的時候,是靠很多weight相乘的,越乘越小,有點類似梯度消失的意思(這句話是我加的)

8、如果訓練RNN或者LSTM,務(wù)必保證gradient的norm被約束在15或者5(前提還是要先歸一化gradient),這一點在RNN和LSTM中很重要。

9、檢查下梯度,如果是你自己計算的梯度。

10、如果使用LSTM來解決長時依賴的問題,記得初始化bias的時候要大一點

12、盡可能想辦法多的擴增訓練數(shù)據(jù),如果使用的是圖像數(shù)據(jù),不妨對圖像做一點扭轉(zhuǎn)啊之類的,來擴充數(shù)據(jù)訓練集合。

13、使用dropout

14、評價最終結(jié)果的時候,多做幾次,然后平均一下他們的結(jié)果。

總結(jié)

以上是生活随笔為你收集整理的训练深度神经网络的时候需要注意的一些小技巧的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。