日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络:激活函数

發布時間:2023/12/20 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络:激活函数 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

      • 為什么用激活函數?
      • 選擇激活函數需要考慮什么因素?
      • 梯度消失和梯度爆炸
      • 部分激活函數介紹
        • sigmoid函數
        • tanh函數
        • relu函數
      • 個人總結實踐
      • 關于批量歸一化

參考:https://blog.csdn.net/tyhj_sf/article/details/79932893
參考:https://zhuanlan.zhihu.com/p/25631496
參考:https://zhuanlan.zhihu.com/p/73214810

為什么用激活函數?

神經網絡的每一層由一個線性函數和非線性函數構成,這樣可以提升每一層的擬合能力,激活函數就是充當非線性層。

選擇激活函數需要考慮什么因素?

激活函數輸入輸出的映射是如何的 將什么區間映射到什么區間,比如sigmoid函數將正負無窮空間映射到0-1空間,而tanh函數將其映射到-1和1之內,relu函數映射到0到正無窮。
激活函數的導數有什么特性 因為激活函數的導數會引出一個梯度消失和梯度爆炸的問題。

梯度消失和梯度爆炸

神經網絡參數更新規則中,要通過鏈式法則計算導數:

可以看出導數的計算包含了每一層的線性函數的W和非線性函數(激活函數)導數,當激活函數的導數一直處于一個小于1接近與0的值的時候,這個導數計算出來就非常接近與0,就導致參數更新緩慢甚至不更新。反之,如果每一層計算導數過大,就會導致神經網絡參數更新幅度多大,網絡訓練不穩定。

部分激活函數介紹

sigmoid函數



tanh函數



relu函數




個人總結實踐

對于使用激活函數,首先考慮自己的場景,要考慮自己的輸入輸出映射區間,同時考慮構建起來的網絡參數的梯度情況。
一下是對于同一個問題三種激活函數訓練出來的損失函數曲線:
sigmoid函數:


tanh函數


relu函數:


leaky_relu函數:

關于批量歸一化

從前面的激活函數可以看出,sigmoid函數和tanh函數對輸入的響應區間都比較狹窄,批量歸一化的操作就是將數據映射到均值為0的附近的區域,利用了正太分布的一點知識。批量歸一化的好處就是將數據映射到響應區間了,但是壞處就是可能改變了數據原始樣貌。







可以看出激活函數對神經網絡擬合能力的影響還是巨大的,但是穩定的激活函數不一定預測效果就好,比如relu不如tanh穩定,但是預測效果更好

創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

總結

以上是生活随笔為你收集整理的神经网络:激活函数的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。