pytorch入门学习(三) 神经网络
生活随笔
收集整理的這篇文章主要介紹了
pytorch入门学习(三) 神经网络
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
神經(jīng)網(wǎng)絡(luò)可以使用?torch.nn?包構(gòu)建.
autograd?實(shí)現(xiàn)了反向傳播功能, 但是直接用來(lái)寫(xiě)深度學(xué)習(xí)的代碼在很多情況下還是稍顯復(fù)雜,torch.nn?是專(zhuān)門(mén)為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的模塊化接口.?nn?構(gòu)建于?Autograd?之上, 可用來(lái)定義和運(yùn)行神經(jīng)網(wǎng)絡(luò).?nn.Module?是?nn?中最重要的類(lèi), 可把它看成是一個(gè)網(wǎng)絡(luò)的封裝, 包含網(wǎng)絡(luò)各層定義以及?forward?方法, 調(diào)用?forward(input)?方法, 可返回前向傳播的結(jié)果.
一個(gè)典型的神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程如下:
讓我們來(lái)定義一個(gè)網(wǎng)絡(luò):
- 定義具有一些可學(xué)習(xí)參數(shù)(或權(quán)重)的神經(jīng)網(wǎng)絡(luò)
- 迭代輸入數(shù)據(jù)集
- 通過(guò)網(wǎng)絡(luò)處理輸入
- 計(jì)算損失(輸出的預(yù)測(cè)值與實(shí)際值之間的距離)
- 將梯度傳播回網(wǎng)絡(luò)
- 更新網(wǎng)絡(luò)的權(quán)重, 通常使用一個(gè)簡(jiǎn)單的更新規(guī)則:?weight?=?weight?-?learning_rate?*?gradient
?
創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎(jiǎng)勵(lì)來(lái)咯,堅(jiān)持創(chuàng)作打卡瓜分現(xiàn)金大獎(jiǎng)總結(jié)
以上是生活随笔為你收集整理的pytorch入门学习(三) 神经网络的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Windows下如何用C语言清空特定文件
- 下一篇: MachineLearning(12)-