日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Stanford UFLDL教程 反向传播算法(BP算法)

發(fā)布時(shí)間:2025/3/21 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Stanford UFLDL教程 反向传播算法(BP算法) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

反向傳播算法(BP算法)

假設(shè)我們有一個(gè)固定樣本集?,它包含??個(gè)樣例。我們可以用批量梯度下降法來求解神經(jīng)網(wǎng)絡(luò)。具體來講,對于單個(gè)樣例,其代價(jià)函數(shù)為:

這是一個(gè)(二分之一的)方差代價(jià)函數(shù)。給定一個(gè)包含??個(gè)樣例的數(shù)據(jù)集,我們可以定義整體代價(jià)函數(shù)為:

以上公式中的第一項(xiàng)??是一個(gè)均方差項(xiàng)。第二項(xiàng)是一個(gè)規(guī)則化項(xiàng)(也叫權(quán)重衰減項(xiàng)),其目的是減小權(quán)重的幅度,防止過度擬合。


[注:通常權(quán)重衰減的計(jì)算并不使用偏置項(xiàng)?,比如我們在??的定義中就沒有使用。一般來說,將偏置項(xiàng)包含在權(quán)重衰減項(xiàng)中只會(huì)對最終的神經(jīng)網(wǎng)絡(luò)產(chǎn)生很小的影響。如果你在斯坦福選修過CS229(機(jī)器學(xué)習(xí))課程,或者在YouTube上看過課程視頻,你會(huì)發(fā)現(xiàn)這個(gè)權(quán)重衰減實(shí)際上是課上提到的貝葉斯規(guī)則化方法的變種。在貝葉斯規(guī)則化方法中,我們將高斯先驗(yàn)概率引入到參數(shù)中計(jì)算MAP(極大后驗(yàn))估計(jì)(而不是極大似然估計(jì))。]


權(quán)重衰減參數(shù)??用于控制公式中兩項(xiàng)的相對重要性。在此重申一下這兩個(gè)復(fù)雜函數(shù)的含義:?是針對單個(gè)樣例計(jì)算得到的方差代價(jià)函數(shù);?是整體樣本代價(jià)函數(shù),它包含權(quán)重衰減項(xiàng)。


以上的代價(jià)函數(shù)經(jīng)常被用于分類和回歸問題。在分類問題中,我們用??或?,來代表兩種類型的標(biāo)簽(回想一下,這是因?yàn)?sigmoid激活函數(shù)的值域?yàn)?;如果我們使用雙曲正切型激活函數(shù),那么應(yīng)該選用??和??作為標(biāo)簽)。對于回歸問題,我們首先要變換輸出值域(譯者注:也就是?),以保證其范圍為??(同樣地,如果我們使用雙曲正切型激活函數(shù),要使輸出值域?yàn)?)。


我們的目標(biāo)是針對參數(shù)??和??來求其函數(shù)??的最小值。為了求解神經(jīng)網(wǎng)絡(luò),我們需要將每一個(gè)參數(shù)??和??初始化為一個(gè)很小的、接近零的隨機(jī)值(比如說,使用正態(tài)分布??生成的隨機(jī)值,其中??設(shè)置為??),之后對目標(biāo)函數(shù)使用諸如批量梯度下降法的最優(yōu)化算法。因?yàn)??是一個(gè)非凸函數(shù),梯度下降法很可能會(huì)收斂到局部最優(yōu)解;但是在實(shí)際應(yīng)用中,梯度下降法通常能得到令人滿意的結(jié)果。最后,需要再次強(qiáng)調(diào)的是,要將參數(shù)進(jìn)行隨機(jī)初始化,而不是全部置為?。如果所有參數(shù)都用相同的值作為初始值,那么所有隱藏層單元最終會(huì)得到與輸入值有關(guān)的、相同的函數(shù)(也就是說,對于所有?,都會(huì)取相同的值,那么對于任何輸入??都會(huì)有:?)。隨機(jī)初始化的目的是使對稱失效


梯度下降法中每一次迭代都按照如下公式對參數(shù)??和?進(jìn)行更新:

其中??是學(xué)習(xí)速率。其中關(guān)鍵步驟是計(jì)算偏導(dǎo)數(shù)。我們現(xiàn)在來講一下反向傳播算法,它是計(jì)算偏導(dǎo)數(shù)的一種有效方法。


我們首先來講一下如何使用反向傳播算法來計(jì)算??和?,這兩項(xiàng)是單個(gè)樣例??的代價(jià)函數(shù)??的偏導(dǎo)數(shù)。一旦我們求出該偏導(dǎo)數(shù),就可以推導(dǎo)出整體代價(jià)函數(shù)??的偏導(dǎo)數(shù):


以上兩行公式稍有不同,第一行比第二行多出一項(xiàng),是因?yàn)闄?quán)重衰減是作用于??而不是?。


反向傳播算法的思路如下:給定一個(gè)樣例?,我們首先進(jìn)行“前向傳導(dǎo)”運(yùn)算,計(jì)算出網(wǎng)絡(luò)中所有的激活值,包括??的輸出值。之后,針對第?層的每一個(gè)節(jié)點(diǎn)?,我們計(jì)算出其“殘差”?,該殘差表明了該節(jié)點(diǎn)對最終輸出值的殘差產(chǎn)生了多少影響。對于最終的輸出節(jié)點(diǎn),我們可以直接算出網(wǎng)絡(luò)產(chǎn)生的激活值與實(shí)際值之間的差距,我們將這個(gè)差距定義為??(第??層表示輸出層)。對于隱藏單元我們?nèi)绾翁幚砟?#xff1f;我們將基于節(jié)點(diǎn)(譯者注:第??層節(jié)點(diǎn))殘差的加權(quán)平均值計(jì)算?,這些節(jié)點(diǎn)以??作為輸入。下面將給出反向傳導(dǎo)算法的細(xì)節(jié):


  • 進(jìn)行前饋傳導(dǎo)計(jì)算,利用前向傳導(dǎo)公式,得到??直到輸出層??的激活值。
  • 對于第??層(輸出層)的每個(gè)輸出單元?,我們根據(jù)以下公式計(jì)算殘差:
    [譯者注:
    ]
  • 對??的各個(gè)層,第??層的第??個(gè)節(jié)點(diǎn)的殘差計(jì)算方法如下:
    {譯者注:
    將上式中的與的關(guān)系替換為與的關(guān)系,就可以得到:
    以上逐次從后向前求導(dǎo)的過程即為“反向傳導(dǎo)”的本意所在。 ]
  • 計(jì)算我們需要的偏導(dǎo)數(shù),計(jì)算方法如下:

  • 最后,我們用矩陣-向量表示法重寫以上算法。我們使用“” 表示向量乘積運(yùn)算符(在Matlab或Octave里用“.*”表示,也稱作阿達(dá)馬乘積)。若?,則?。在上一個(gè)教程中我們擴(kuò)展了??的定義,使其包含向量運(yùn)算,這里我們也對偏導(dǎo)數(shù)??也做了同樣的處理(于是又有??)。


    那么,反向傳播算法可表示為以下幾個(gè)步驟:

  • 進(jìn)行前饋傳導(dǎo)計(jì)算,利用前向傳導(dǎo)公式,得到?直到輸出層??的激活值。
  • 對輸出層(第??層),計(jì)算:
  • 對于??的各層,計(jì)算:
  • 計(jì)算最終需要的偏導(dǎo)數(shù)值:

  • 實(shí)現(xiàn)中應(yīng)注意:在以上的第2步和第3步中,我們需要為每一個(gè)??值計(jì)算其?。假設(shè)??是sigmoid函數(shù),并且我們已經(jīng)在前向傳導(dǎo)運(yùn)算中得到了?。那么,使用我們早先推導(dǎo)出的?表達(dá)式,就可以計(jì)算得到?。


    最后,我們將對梯度下降算法做個(gè)全面總結(jié)。在下面的偽代碼中,?是一個(gè)與矩陣??維度相同的矩陣,?是一個(gè)與??維度相同的向量。注意這里“”是一個(gè)矩陣,而不是“?與??相乘”。下面,我們實(shí)現(xiàn)批量梯度下降法中的一次迭代:


  • 對于所有?,令??,??(設(shè)置為全零矩陣或全零向量)
  • 對于??到?,
  • 使用反向傳播算法計(jì)算??和?。
  • 計(jì)算?。
  • 計(jì)算?。
  • 更新權(quán)重參數(shù):
  • 現(xiàn)在,我們可以重復(fù)梯度下降法的迭代步驟來減小代價(jià)函數(shù)??的值,進(jìn)而求解我們的神經(jīng)網(wǎng)絡(luò)。


    中英文對照

    反向傳播算法 Backpropagation Algorithm
    (批量)梯度下降法 (batch) gradient descent
    (整體)代價(jià)函數(shù) (overall) cost function
    方差 squared-error
    均方差 average sum-of-squares error
    規(guī)則化項(xiàng) regularization term
    權(quán)重衰減 weight decay
    偏置項(xiàng) bias terms
    貝葉斯規(guī)則化方法 Bayesian regularization method
    高斯先驗(yàn)概率 Gaussian prior
    極大后驗(yàn)估計(jì) MAP
    極大似然估計(jì) maximum likelihood estimation
    激活函數(shù) activation function
    雙曲正切函數(shù) tanh function
    非凸函數(shù) non-convex function
    隱藏層單元 hidden (layer) units
    對稱失效 symmetry breaking
    學(xué)習(xí)速率 learning rate
    前向傳導(dǎo) forward pass
    假設(shè)值 hypothesis
    殘差 error term
    加權(quán)平均值 weighted average
    前饋傳導(dǎo) feedforward pass
    阿達(dá)馬乘積 Hadamard product
    前向傳播 forward propagation

    總結(jié)

    以上是生活随笔為你收集整理的Stanford UFLDL教程 反向传播算法(BP算法)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 欧美粗又大 | 韩国久久精品 | 美腿丝袜一区二区三区 | 夫の上司に犯波多野结衣853 | 国产中文一区二区三区 | 国产suv一区二区 | av片在线播放 | 精品人妻一区二区色欲产成人 | 一区黄色 | 午夜精品久久久久久久四虎美女版 | 中文字幕一区二区三区日韩精品 | 魔女鞋交玉足榨精调教 | 中文字幕无码精品亚洲资源网久久 | 日本中文视频 | 欧美视频在线观看一区二区 | 久久亚洲免费 | 上海毛片 | 精品久久久蜜桃 | 人人九九精 | 正在播放亚洲 | 99热免费在线 | 久久天天躁狠狠躁夜夜躁2014 | 国产xxxx孕妇| 成人理论视频 | 色欧美色 | 国产真实乱在线更新 | 91色在线观看 | 精品久久久久久久久久久久久久 | av香蕉网 | 天天干干天天 | 色视频2| 免费性爱视频 | 青草视频在线看 | 日韩不卡视频在线 | 伊人艹| 亚洲com| 日韩精品一区二区三区国语自制 | 人妻互换一区二区激情偷拍 | 捆绑最紧bdsm视频 | 免费黄av| 俄罗斯色片 | 天天干天天操心 | 国产色拍 | 国产区一区二区三 | 欧美123| 在线观看国产精品视频 | 就去色av | 少妇高潮av久久久久久 | 国产精品亚洲а∨天堂免在线 | 国产精品精品国产色婷婷 | 中国美女一级看片 | 无码日韩人妻精品久久蜜桃 | 天堂视频免费 | 伊人3 | 无遮挡在线观看 | 免费看黄色一级视频 | 凹凸福利视频 | 五月婷婷爱爱 | 久久艹综合 | 青青草国产 | 四季av一区二区三区免费观看 | 欧美乱强伦 | 看国产毛片 | 风韵少妇性饥渴推油按摩视频 | 国产成人一区二区 | 国产在线97 | 欧美日韩亚洲国产综合 | 91免费看. | 人与性动交zzzzbbbb | 婷婷色视频| 美女视频久久 | 国产高清黄色 | av网天堂 | 精品99在线观看 | 欧美日韩视频免费观看 | 日本视频网 | 色图在线观看 | 色综合中文字幕 | 日韩美女视频网站 | 国产又粗又猛又爽又黄91 | 校园sm主奴调教1v1罚视频 | 成人看片黄a免费看视频 | 黄色一级免费视频 | 福利在线免费观看 | 国产视频精品久久 | 色一情一伦一子一伦一区 | 色视频免费观看 | 青青精品视频 | 二三区视频 | 国产一区2区 | 麻豆传媒网站入口 | 黄色的毛片 | 欧美成人免费一级人片100 | 亚洲欧洲视频在线观看 | 嫩草亚洲 | 成年人深夜福利 | 久久久久亚洲av成人人电影 | 欧美一级性生活视频 | 国产叼嘿视频在线观看 |