日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Pytorch(1)-内置/自己设计的损失函数使用

發布時間:2023/12/13 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Pytorch(1)-内置/自己设计的损失函数使用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

內置/自己設計的損失函數使用對比

  • 1.內置損失函數
  • 2.自己設計損失函數

Pytorch內置了許多常用的損失函數,但是,實際應用中,往往需要依據不同的需求設計不同的損失函數。本篇博文對比總結了使用 內置自己設計損失函數的語法規則流程。

1.內置損失函數

使用內嵌的損失函數:

optimizer_d = torch.optim.Adam(netd.parameters(), opt.lr2, betas=(opt.beta1, 0.999)) #要優化網路netd中的參數,使用Adam優化算法 criterion = t.nn.BCELoss().to(device) #官方損失函數 output = netd(real_img) #網絡輸出 output error_d_real = criterion(output, true_labels) #將網路輸出output傳入損失函數計算真實值,一批次的輸出直接穿傳進去 optimizer_d.zero_grad() #要優化參數梯度歸零 error_d_real.backward() #由損失函數從最后一層開始極端各個參數的梯度 optimizer_d.step() #梯度反向傳播,更新參數

2.自己設計損失函數

optimizer_D = torch.optim.Adam(D.parameters(), lr=LR_D) #要優化網路D中的參數,使用Adam優化算法 prob_artist0 = D(artist_paintings) #網絡輸出prob_artist0 D_loss = - torch.mean(torch.log(prob_artist0) + torch.log(1. - prob_artist1)) #自己設計的損失函數,直接由網絡輸出prob_artist0計算損失 optimizer_D.zero_grad() #要優化參數梯度歸零 D_loss.backward(retain_graph=True) #由損失函數從最后一層開始的各個參數的梯度 optimizer_D.step() #梯度反向傳播,更新參數

核心過程都是一樣的,只不過在實際使用時會因為編程需要調整一些步驟的順序。

總結

以上是生活随笔為你收集整理的Pytorch(1)-内置/自己设计的损失函数使用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。