日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

卷积神经网络调参技巧(2)--过拟合(Dropout)

發布時間:2023/12/20 卷积神经网络 95 豆豆
生活随笔 收集整理的這篇文章主要介紹了 卷积神经网络调参技巧(2)--过拟合(Dropout) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Dropout(丟棄)

首先需要講一下過擬合,訓練一個大型網絡時,因為訓練數據有限,很容易出現過擬合。過擬合是指模型的泛化能力差,網絡對訓練數據集的擬合能力很好,但是換了其他的數據集,擬合能力就變差了。

在訓練深層網絡模型時,按照一定的概率,暫時將神經元丟棄,得到一個更加簡單的網絡模型,即每一個batch訓練的網絡模型都是不一樣的,都是原始網絡的子集,這些子網絡共享權值,與原始網絡的層數、參數數目相等。這樣,每一個神經元在網絡中出現都是獨立的,不會依賴其他神經元。不同的batch訓練得到更多的子網絡,提高了網絡模型的泛化能力,可以防止過擬合。


由上圖可以看出,(a)是原始神經網絡,(b)是dropout之后的網絡。

原始網絡中第層第個神經元的輸出是:

采用dropout之后的網絡中第層第個神經元的輸出是:

其中,是第層第個神經元的輸出,是第層第個神經元的權重(卷積核),

是第層第個神經元的偏置。由伯努利函數以概率隨機的產生0、1向量,來決定網絡中第層第個神經元被丟棄還是保留,0表示該神經元被dropout,就是使該神經元的激活被置零;1則表示該神經元被保留用于構成子網絡。

在測試階段:

我們前面說過,其實Dropout是類似于平均網絡模型。我們可以這么理解,我們在訓練階段訓練了1000個網絡,每個網絡生成的概率為Pi,然后我們在測試階段的時候,我們肯定要把這1000個網絡的輸出結果都計算一遍,然后用這1000個輸出,乘以各自網絡的概率Pi,求得的期望值就是我們最終訓練得到原始網絡的精確度。?

M是Dropout中所有的子網絡的集合,所以當我們在測試階段的時候,我們就是對M中所有的子網絡,以其出現的概率進行加權平均,得到期望值,就是原始網絡的精確度。

注:經過交叉驗證,dropout率等于0.5的時候效果最好,原因是0.5的時候dropout隨機生成的網絡結構最多。

缺點是模型收斂速度會減慢。

?

總結

以上是生活随笔為你收集整理的卷积神经网络调参技巧(2)--过拟合(Dropout)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。