日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

深度学习笔记5:Building Deep Networks for Classification

發布時間:2025/4/16 pytorch 73 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习笔记5:Building Deep Networks for Classification 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

由多個稀疏自編碼器的編碼層和一個分類器組成。
直接上代碼:

numLayers=numel(stack); a{1}=data; for i=1:numLayersz{i+1}=stack{i}.w*a{i}+repmat(stack{i}.b,1,M);a{i+1}=sigmoid(z{i+1}); end z{numLayers+2}=softmaxTheta*a{numLayers+1}; p=bsxfun(@rdivide,exp(z{numLayers+2}),sum(exp(z{numLayers+2})));%代價函數,只考慮Softmax回歸模型的代價 cost=-1/M*sum(sum(groundTruth.*log(p)))+lambda/2*sum(sum(softmaxTheta.^2));%Softmax單獨求導 softmaxThetaGrad = -1/M * (groundTruth -p) *a{numLayers+1}' + lambda * softmaxTheta;%BP d = cell(numLayers+1); d{numLayers+1} = -(softmaxTheta' * (groundTruth - p)) .* (a{numLayers+1} .* (1-a{numLayers+1})); for layer = (numLayers:-1:2)d{layer} = (stack{layer}.w' * d{layer+1}) .* (a{layer} .* (1- a{layer})); endfor layer = (numLayers:-1:1)stackgrad{layer}.w = (1/M) * d{layer+1} * a{layer}';stackgrad{layer}.b = (1/M) * sum(d{layer+1}, 2); end

梯度求導,感謝博主小村長的分享,貼下圖:

結合以上推導過程,加上自己理解,寫出推導過程如下:

總結

以上是生活随笔為你收集整理的深度学习笔记5:Building Deep Networks for Classification的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。