日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

tensorflow计算网络占用内存_详细图解神经网络梯度下降法(tensorflow计算梯度)...

發布時間:2024/7/19 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tensorflow计算网络占用内存_详细图解神经网络梯度下降法(tensorflow计算梯度)... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.什么是梯度

各個方向的偏微分組成的向量

?

舉例說明,z對x的偏微分和對y的偏微分如下,則梯度是(-2x,2y)的這樣一個向量

?

在光滑連續函數的每個點上,都可以計算一個梯度,也就是一個向量,用小箭頭表示,那么梯度越大的地方,向量的模值就會越大,箭頭就會越長,如圖所示

?

可以看到,越平坦的地方,箭頭越短,說明梯度越小,所以梯度反映了圖像的變化趨勢

2.通過梯度更新參數,讓目標函數(損失函數)趨于極小值

更新參數的目的是讓目標函數找到一個極小值,這個目標函數就是我們說的損失函數

在函數中的每個變量稱為參數,對圖二中的例子進一步分析,x,y兩個就是參數,如圖,x沿著x正方向,所以△x>0,如果函數是上升的,是在上坡的,則△z>0,這時候參數x應該往回走,即應該減小。如果函數是下降,是下坡的,則△z<0,這時候參數x應該往前走,即應該增大,所以參數和梯度的關系應該是相反的

左邊是更新后的參數,αt是學習率,防止每次改變的幅度過大,一不小心跳過了最小值點

3.通過tensorflow計算梯度

損失函數定義在

with tf.GradientTape() as tape:tape.watch([w])loss = w*x#在這里定義損失函數

計算梯度在

grade = tape.gradient(loss,w)#在這里計算梯度

完整代碼

import tensorflow as tf w = tf.constant(1) x = tf.constant(2.) with tf.GradientTape() as tape:tape.watch([w])loss = w*x#在這里定義損失函數 grade = tape.gradient(loss,w)#在這里計算梯度 with tf.Session() as sess:print(sess.run(grade))

總結

以上是生活随笔為你收集整理的tensorflow计算网络占用内存_详细图解神经网络梯度下降法(tensorflow计算梯度)...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。