日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

神经网络原理简介

發布時間:2023/11/27 生活经验 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络原理简介 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1,類比生物神經元
2,層次結構

輸入層,隱藏層(1,2),輸出層;線可以理解為權重參數w。在神經網絡中需要指定w的大小(矩陣的大小)

神經網絡的流程:輸入數據;前向傳播計算損失值;反向傳播計算梯度;使用梯度更新參數

3,非線性結構(激活函數)


激活函數作用于前一層權重參數后:

4,激活函數


4.1 Sigmoid激活函數

反向傳播中的求導操作:


當x的絕對值較大時,則導數接近為0,則在鏈式法則中易出現梯度消失,使得權重參數無法進一步更新,神經網絡也無法收斂,因此后來的神經網絡大多不采用此函數作為激活函數。

4.2 ReLU激活函數


ReLU激活函數一方面可以解決梯度消失的問題,另一方面求導方便,因此后來的神經網絡中通常使用該函數作為激活函數。

5,正則化項在神經網絡中的重要作用


由于一些異常點,神經網絡較易出現過擬合現象,正則化懲罰項可以有效抑制過擬合現象,增強神經網絡的泛化能力。

越多的神經元(相當于權重參數),就越能夠表達能復雜的模型,但過擬合的風險越大

6,數據預處理


以0為中心化(都減去均值),然后歸一化處理(除以標準差來消除x,y軸浮動不同)。

7,權重w和偏置項b的初始化

權重不能以相同值來初始化,否則反向傳播后都是朝一個方向更新,相當于神經網絡迭代太慢。通常采用高斯初始化或隨機初始化

b可以用常值(0或1)來初始化。

8,Drop-out

全連接:對n-1層和n層而言,n-1層的任意一個節點,都和第n層所有節點有連接。即第n層的每個節點在進行計算的時候,激活函數的輸入是n-1層所有節點的加權。

全連接是一種不錯的模式,但是網絡很大的時候,訓練速度會很慢,并且易出現過擬合的現象。

為了解決上述問題在每次訓練時隨機不考慮部分神經元(對一些權重參數不進行更新),即Drop-out操作如下圖:

雖然參與訓練的參數減少,但是我們可以加大迭代步數來彌補這一缺陷。

總結

以上是生活随笔為你收集整理的神经网络原理简介的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。