日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

1.4 通过时间的反向传播-深度学习第五课《序列模型》-Stanford吴恩达教授

發布時間:2025/4/5 pytorch 62 豆豆
生活随笔 收集整理的這篇文章主要介紹了 1.4 通过时间的反向传播-深度学习第五课《序列模型》-Stanford吴恩达教授 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

←上一篇↓↑下一篇→
1.3 循環神經網絡回到目錄1.5 不同類型的循環神經網絡

通過時間的反向傳播 (Backpropagation through time)

之前我們已經學過了循環神經網絡的基礎結構,在本節視頻中我們將來了解反向傳播是怎樣在循環神經網絡中運行的。和之前一樣,當你在編程框架中實現循環神經網絡時,編程框架通常會自動處理反向傳播。但我認為,在循環神經網絡中,對反向傳播的運行有一個粗略的認識還是非常有用的,讓我們來一探究竟。

在之前你已經見過對于前向傳播(上圖藍色箭頭所指方向)怎樣在神經網絡中從左到右地計算這些激活項,直到輸出所有地預測結果。而對于反向傳播,我想你已經猜到了,反向傳播地計算方向(上圖紅色箭頭所指方向)與前向傳播基本上是相反的。

我們來分析一下前向傳播的計算,現在你有一個輸入序列, x<1>,x<2>,x<3>x^{<1>},x^{<2>},x^{<3>}x<1>x<2>x<3> 一直到 x<Tx>x^{<T_x>}x<Tx?> ,然后用 x<1>x^{<1>}x<1> 還有 a<0>a^{<0>}a<0> 計算出時間步1的激活項,再用 x<2>x^{<2>}x<2>a<1>a^{<1>}a<1> 計算出 a<2>a^{<2>}a<2> ,然后計算 a<3>a^{<3>}a<3> 等等,一直到 a<Tx>a^{<T_x>}a<Tx?>

為了真正計算出 a<1>a^{<1>}a<1> ,你還需要一些參數, WaW_aWa?bab_aba? ,用它們來計算出 a<1>a^{<1>}a<1> 。這些參數在之后的每一個時間步都會被用到,于是繼續用這些參數計算 a<2>,a<3>a^{<2>},a^{<3>}a<2>a<3> 等等,所有的這些激活項都要取決于參數 WaW_aWa?bab_aba? 。有了 a<1>a^{<1>}a<1> ,神經網絡就可以計算第一個預測值 y^<1>\hat{y}^{<1>}y^?<1> ,接著到下一個時間步,繼續計算出 y^<2>,y^<3>\hat{y}^{<2>},\hat{y}^{<3>}y^?<2>y^?<3> ,等等,一直到 y^<Ty>\hat{y}^{<T_y>}y^?<Ty?> 。為了計算出 y^\hat{y}y^? ,需要參數 WyW_yWy?byb_yby? ,它們將被用于所有這些節點。

然后為了計算反向傳播,你還需要一個損失函數。我們先定義一個元素損失函數(上圖編號1所示)

L<t>(y^<t>,y<t>)=?y<t>log?y^<t>?(1?y<t>)log?(1?y^<t>)L^{<t>}(\hat{y}^{<t>},y^{<t>})=-y^{<t>}\log \hat{y}^{<t>}-(1-y^{<t>})\log(1-\hat{y}^{<t>})L<t>(y^?<t>,y<t>)=?y<t>logy^?<t>?(1?y<t>)log(1?y^?<t>)

它對應的是序列中一個具體的詞,如果它是某個人的名字,那么 y<t>y^{<t>}y<t> 的值就是1,然后神經網絡將輸出這個詞是名字的概率值,比如0.1。我將它定義為標準邏輯回歸損失函數,也叫交叉熵損失函數(Cross Entropy Loss),它和之前我們在二分類問題中看到的公式很像。所以這是關于單個位置上或者說某個時間步 ttt 上某個單詞的預測值的損失函數。

現在我們來定義整個序列的損失函數,將 LLL 定義為(上圖編號2所示)

L(y^,y)=∑t=1TxL<t>(y^<t>,y<t>)L(\hat{y},y)=\sum_{t=1}^{T_x}L^{<t>}(\hat{y}^{<t>},y^{<t>})L(y^?,y)=t=1Tx??L<t>(y^?<t>,y<t>)

在這個計算圖中,通過 y^<1>\hat{y}^{<1>}y^?<1> 可以計算對應的損失函數,于是計算出第一個時間步的損失函數(上圖編號3所示),然后計算出第二個時間步的損失函數,然后是第三個時間步,一直到最后一個時間步,最后為了計算出總體損失函數,我們要把它們都加起來,通過下面的等式(上圖編號2所示的等式)計算出最后的 LLL (上圖編號4所示),也就是把每個單獨時間步的損失函數都加起來。

這就是完整的計算圖,在之前的例子中,你已經見過反向傳播,所以你應該能夠想得到反向傳播算法需要在相反的方向上進行計算和傳遞信息,最終你做的就是把前向傳播的箭頭都反過來,在這之后你就可以計算出所有合適的量,然后你就可以通過導數相關的參數,用梯度下降法來更新參數。

在這個反向傳播的過程中,最重要的信息傳遞或者說最重要的遞歸運算就是這個從右到左的運算,這也就是為什么這個算法有一個很別致的名字,叫做“通過(穿越)時間反向傳播(backpropagation through time)”。取這個名字的原因是對于前向傳播,你需要從左到右進行計算,在這個過程中,時刻 ttt 不斷增加。而對于反向傳播,你需要從右到左進行計算,就像時間倒流。“通過時間反向傳播”,就像穿越時光,這種說法聽起來就像是你需要一臺時光機來實現這個算法一樣。

RNN反向傳播示意圖:

希望你大致了解了前向和反向傳播是如何在RNN中工作的,到目前為止,你只見到了RNN中一個主要的例子,其中輸入序列的長度和輸出序列的長度是一樣的。在下節課將展示更多的RNN架構,這將讓你能夠處理一些更廣泛的應用。

課程板書




←上一篇↓↑下一篇→
1.3 循環神經網絡回到目錄1.5 不同類型的循環神經網絡

總結

以上是生活随笔為你收集整理的1.4 通过时间的反向传播-深度学习第五课《序列模型》-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 欧美黄色录像带 | 日本少妇激情视频 | 一道本久在线中文字幕 | 97se视频 | 秋霞精品一区二区三区 | 波多av| 区一区二在线观看 | 五月婷婷六月色 | 精品成人一区 | 亚洲美女色 | 无码人妻精品一区二区三区99不卡 | 欧美三级韩国三级日本三斤 | 久久久新| 欧美一区二区网站 | 自拍视频一区二区 | 亚洲综合一二三 | av丁香| 国产一区二区激情视频 | 毛片2| 老熟女高潮一区二区三区 | 色国产精品 | 国产大奶在线 | 日韩欧美精品 | 69久久精品无码一区二区 | 国产色网| 欧美性日韩 | 黄色三级国产 | 国产毛片久久久 | 久久免费手机视频 | 色羞羞 | 在线观看黄色免费视频 | 日本一区二区三区免费视频 | 三级av免费 | 欧美大尺度视频 | 麻豆亚洲一区 | 伊人国产女 | 久久久久久久久亚洲 | 日本高清不卡在线观看 | 成人人人人人欧美片做爰 | 91免费国产在线 | 在线一区二区三区视频 | 久久视频免费看 | 在线观看免费看片 | 国产精品国产三级国产三级人妇 | 中文字幕人妻精品一区 | 国产日批视频在线观看 | 亚洲丁香色 | 亚洲精品资源 | h网址在线观看 | 祥仔视觉av | 亚洲精选在线 | 国产女人被狂躁到高潮小说 | 动漫av网| 在线aaa | 欧洲成人午夜精品无码区久久 | 19韩国主播青草vip | 精品亚洲aⅴ无码一区二区三区 | 日本一区二区高清不卡 | 欧美不卡视频在线观看 | 啪啪在线视频 | 国产超碰人人爽人人做人人爱 | 亚洲精品喷潮一区二区三区 | 国产破处av | 欧美一区三区三区高中清蜜桃 | 亚洲熟妇av一区二区三区漫画 | 国产精品亚洲一区二区 | 91.xxx.高清在线| 日韩一区二区三区在线播放 | www.jizzjizz.com| 欧洲一二三区 | 草久久| 探花国产 | 超碰在线播放97 | 日本在线网址 | 亚洲欧美成人一区 | 中文精品一区二区三区 | yjizz视频 | 久久青青操 | 精品无码一区二区三区免费 | 久久av资源网 | 久久久久人妻一道无码AV | 美国特色黄a大片 | 久久高清内射无套 | 欧美午夜小视频 | 黄网址在线 | 免费欧美黄色片 | 国产黄色自拍视频 | 欧美亚洲伦理 | 亚洲天堂手机版 | 99黄色 | 99mav| 玖玖在线播放 | 外国黄色网 | 国产免费黄色片 | 美女啪啪免费视频 | 欧美人交a欧美精品 | 丁香伊人网 | 2022精品国偷自产免费观看 | 美女被男生免费视频 |