日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

4.6 前向和反向传播-深度学习-Stanford吴恩达教授

發布時間:2025/4/5 pytorch 63 豆豆
生活随笔 收集整理的這篇文章主要介紹了 4.6 前向和反向传播-深度学习-Stanford吴恩达教授 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

←上一篇↓↑下一篇→
4.5 搭建深層神經網絡快回到目錄4.7 參數 vs. 超參數

前向和反向傳播 (Forward and Backward Propagation)

之前我們學習了構成深度神經網絡的基本模塊,比如每一層都有前向傳播步驟以及一個相反的反向傳播步驟,這次視頻我們講講如何實現這些步驟。

先講前向傳播,輸入 a[l?1]a^{[l-1]}a[l?1] ,輸出是 a[l]a^{[l]}a[l] ,緩存為 z[l]z^{[l]}z[l] ;從實現的角度來說我們可以緩存下 w[l]w^{[l]}w[l]b[l]b^{[l]}b[l] ,這樣更容易在不同的環節中調用函數。

所以前向傳播的步驟可以寫成: z[l]=W[l]?a[l?1]+b[l]a[l]=g[l](z[l])z^{[l]}=W^{[l]}\cdot a^{[l-1]} + b^{[l]}\quad a^{[l]}=g^{[l]}(z^{[l]})z[l]=W[l]?a[l?1]+b[l]a[l]=g[l](z[l])
?
向量化實現過程可以寫成: Z[l]=W[l]?A[l?1]+b[l]A[l]=g[l](Z[l])Z^{[l]}=W^{[l]}\cdot A^{[l-1]} + b^{[l]}\quad A^{[l]}=g^{[l]}(Z^{[l]})Z[l]=W[l]?A[l?1]+b[l]A[l]=g[l](Z[l])
?
前向傳播需要喂入 A[0]A^{[0]}A[0] 也就是 XXX ,來初始化;初始化的是第一層的輸入值。 a[0]a^{[0]}a[0] 對應于一個訓練樣本的輸入特征,而 A[0]A^{[0]}A[0] 對應于一整 (m)(m)(m) 個訓練樣本的輸入特征,所以這就是這條鏈的第一個前向函數的輸入,重復這個步驟就可以從左到右計算前向傳播。

下面講反向傳播的步驟:

輸入為 da[l]da^{[l]}da[l] ,輸出為 da[l?1]da^{[l-1]}da[l?1]dw[l]dw^{[l]}dw[l] , db[l]db^{[l]}db[l]


所以反向傳播的步驟可以寫成:

(1)dz[l]=da[l]cot?g[l]′(z[l])dz^{[l]}=da^{[l]}\cot g^{[l]^{\prime}}(z^{[l]})dz[l]=da[l]cotg[l](z[l])
(2)dw[l]=dz[l]?a[l?1]dw^{[l]}=dz^{[l]}\cdot a^{[l-1]}dw[l]=dz[l]?a[l?1]
(3)db[l]=dz[l]db^{[l]}=dz^{[l]}db[l]=dz[l]
(4)da[l?1]=w[l]T?dz[l]da^{[l-1]}=w^{[l]T}\cdot dz^{[l]}da[l?1]=w[l]T?dz[l]
(5)dz[l]=w[l+1]Tdz[l+1]?g[l](z[l])dz^{[l]}=w^{[l+1]T}dz^{[l+1]}\cdot g^{[l]}(z^{[l]})dz[l]=w[l+1]Tdz[l+1]?g[l](z[l])

式子(5)由式子(4)帶入式子(1)得到,前四個式子就可實現反向函數。

向量化實現過程可以寫成:

(6)dZ[l]=dA[l]?g[l]′(Z[l])dZ^{[l]}=dA^{[l]}\cdot g^{[l]^{\prime}}(Z^{[l]})dZ[l]=dA[l]?g[l](Z[l])
(7)dW[l]=1mdZ[l]?A[l?1]TdW^{[l]}=\frac1mdZ^{[l]}\cdot A^{[l-1]T}dW[l]=m1?dZ[l]?A[l?1]T
(8)db[l]=1mnp.sum(dz[l],axis=1,keepdims=True)db^{[l]}=\frac1mnp.sum(dz^{[l]}, axis=1, keepdims=True)db[l]=m1?np.sum(dz[l],axis=1,keepdims=True)
(9)dA[l?1]=W[l]T?dZ[l]dA^{[l-1]}=W^{[l]T}*dZ^{[l]}dA[l?1]=W[l]T?dZ[l]

總結一下:

第一層你可能有一個ReLU激活函數,第二層為另一個ReLU激活函數,第三層可能是sigmoid函數(如果你做二分類的話),輸出值為,用來計算損失;這樣你就可以向后迭代進行反向傳播求導來求 dw[3],db[3],dw[2],db[2],dw[1],db[1]dw^{[3]} ,db^{[3]} ,dw^{[2]} ,db^{[2]} ,dw^{[1]} ,db^{[1]}dw[3]db[3]dw[2]db[2]dw[1]db[1] 。在計算的時候,緩存會把 z[1]z[2]z[3]z^{[1]}\ z^{[2]}\ z^{[3]}z[1]?z[2]?z[3] 傳遞過來,然后回傳 da[2],da[1]da^{[2]},da^{[1]}da[2]da[1] ,可以用來計算 da[0]da^{[0]}da[0] ,但我們不會使用它,這里講述了一個三層網絡的前向和反向傳播,還有一個細節沒講就是前向遞歸——用輸入數據來初始化,那么反向遞歸(使用Logistic回歸做二分類)——對 A[l]A^{[l]}A[l] 求導。

忠告:補補微積分和線性代數,多推導,多實踐。

課程PPT





←上一篇↓↑下一篇→
4.5 搭建深層神經網絡快回到目錄4.7 參數 vs. 超參數

《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

總結

以上是生活随笔為你收集整理的4.6 前向和反向传播-深度学习-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 可以免费观看av的网站 | 色网站在线看 | 亚洲综合欧美日韩 | 制服丝袜亚洲 | 天天鲁一鲁摸一摸爽一爽 | 午夜av网站 | 欧美一区二区三区小说 | 久久精品麻豆 | 丝袜美女啪啪 | 国产精品久久久91 | 一区二区三区免费在线观看视频 | 色就操| 免费精品视频一区二区三区 | 男生操女生免费网站 | 在线视频一区二区三区四区 | 精品国产久 | 免费污片软件 | 黄色网址视频 | 性一级视频 | 久久久久久久综合色一本 | 欧美日本在线观看 | 欧美日韩在线免费看 | 精品日韩制服无码久久久久久 | 操你啦在线视频 | 婷婷激情成人 | 中文字av| 少女情窦初开的第4集在线观看 | 亚洲精品成av人片天堂无码 | 美女搞黄视频网站 | 久色精品视频 | 永久免费精品影视网站 | 亚洲激情二区 | 国产乱码精品一区二区三区精东 | 啪啪五月天 | 星空大象mv高清在线观看免费 | 成人av资源站 | 亚洲视频高清 | 亚洲AV无码精品一区二区三区 | av在线www| 国产一区二区不卡视频 | 91性视频| 美女脱裤子打屁股 | 久久精品国产亚洲av蜜臀色欲 | 午夜性剧场 | 色哟哟免费在线观看 | 国产精品视频亚洲 | 欧美成人精品一区二区男人小说 | 国产一区日韩 | 谁有毛片网站 | 色综合天 | 成人综合婷婷国产精品久久 | 进去里在线观看 | 日本高清免费aaaaa大片视频 | 精品爆乳一区二区三区 | 三级国产视频 | 亚洲视频在线看 | 中文字幕乱码一区 | 9999在线视频| 79日本xxxxxxxxx18 婷婷亚洲一区 | 国产成人精品一区二区三区 | 91黄色在线视频 | 免费黄在线 | 国产精品夫妻自拍 | 捆绑最紧bdsm视频 | 性色av一区二区三区在线观看 | 鲁丝一区二区三区 | 波多野结衣视频网站 | 熟女精品一区二区三区 | 视频区小说区 | 黄色片在哪看 | 色精品视频 | 中文字幕成人在线视频 | 欧美三级韩国三级日本三斤 | 久久精品国产电影 | 亚洲最新在线视频 | 欧美激情网 | 大波大乳videos巨大 | 日本黄色一级视频 | 国产精品aaa| 国产精品一区二区无线 | 成人高清免费观看 | 91一级视频 | 久久性av | 久国久产久精永久网页 | 好男人资源| 在线观看av一区 | 精品久久五月天 | 男人插入女人下面视频 | 欧美最猛性xxxx | 亚洲黄色网络 | 日本黄色大片网站 | 亚洲精品无码不卡在线播he | 免费三片60分钟 | 欧美成人精品 | 二级毛片在线观看 | 午夜精品久久久久久久91蜜桃 | 色婷婷综合网 | 色妻影院 | 孕妇爱爱视频 |