日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > pytorch >内容正文

pytorch

深度学习(25)随机梯度下降三: 激活函数的梯度

發(fā)布時(shí)間:2023/12/15 pytorch 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习(25)随机梯度下降三: 激活函数的梯度 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

深度學(xué)習(xí)(25)隨機(jī)梯度下降三: 激活函數(shù)的梯度

  • 1. Activation Functions
  • 2. Deriative
  • 3. Sigmoid/Logistic
    • (1) Derivative
    • (2) tf.sigmoid
  • 4. Tanh
    • (1) Derivative
    • (2) tf.tanh
  • 5. Rectified Linear Unit(ReLU)
    • (1) Derivative
    • (2) tf.nn.relu

Outline

  • sigmoid
  • tanh
  • relu

1. Activation Functions


2. Deriative


3. Sigmoid/Logistic

f(x)=σ(x)=11+e?xf(x)=σ(x)=\frac{1}{1+e^{-x} }f(x)=σ(x)=1+e?x1?

當(dāng)a<0a<0a<0時(shí),函數(shù)值逼近于0; 當(dāng)a>0a>0a>0時(shí),函數(shù)值逼近于1;
這樣就體現(xiàn)了Sigmoid函數(shù)與神經(jīng)元類(lèi)似的方面,與神經(jīng)元一樣,當(dāng)a過(guò)小或者過(guò)大時(shí),都不會(huì)做出應(yīng)激反應(yīng)

(1) Derivative

(2) tf.sigmoid

(a)y = tf.sigmoid(a): y為經(jīng)過(guò)激活函數(shù)處理后的a;
(b)grads = tape.gradient(y, [a]): 梯度更新;

4. Tanh

f(x)=tanh?(x)=(ex?e?x)(ex+e?x)=2sigmoid(2x)?1f(x)=tanh?(x)\\=\frac{(e^x-e^{-x})}{(e^x+e^{-x})} \\=2sigmoid(2x)-1f(x)=tanh?(x)=(ex+e?x)(ex?e?x)?=2sigmoid(2x)?1

常應(yīng)用于RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò);

(1) Derivative

(2) tf.tanh

5. Rectified Linear Unit(ReLU)

f(x)={0for?x<0xfor?x≥0f(x)=\begin{cases}0 &\text{for}\ x<0\\x&\text{for}\ x\geq0\end{cases}f(x)={0x?for?x<0for?x0?

(1) Derivative

f′(x)={0for?x<01for?x≥0f'(x)=\begin{cases}0 &\text{for}\ x<0\\1 &\text{for}\ x\geq0\end{cases}f(x)={01?for?x<0for?x0?

(2) tf.nn.relu

  • tf.nn.leaky_relu(a):
  • f(x)={kxfor?x<0xfor?x≥0f(x)=\begin{cases}kx &\text{for}\ x<0\\x&\text{for}\ x\geq0\end{cases}f(x)={kxx?for?x<0for?x0?

這里的kkk是一個(gè)很小的值,當(dāng)x<0x<0x<0時(shí),函數(shù)值會(huì)慢慢逼近0。

參考文獻(xiàn):
[1] 龍良曲:《深度學(xué)習(xí)與TensorFlow2入門(mén)實(shí)戰(zhàn)》

總結(jié)

以上是生活随笔為你收集整理的深度学习(25)随机梯度下降三: 激活函数的梯度的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。