日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python权重初始值设置_pytorch自定义初始化权重的方法

發布時間:2023/12/10 python 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python权重初始值设置_pytorch自定义初始化权重的方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

在常見的pytorch代碼中,我們見到的初始化方式都是調用init類對每層所有參數進行初始化。但是,有時我們有些特殊需求,比如用某一層的權重取優化其它層,或者手動指定某些權重的初始值。

核心思想就是構造和該層權重同一尺寸的矩陣去對該層權重賦值。但是,值得注意的是,pytorch中各層權重的數據類型是nn.Parameter,而不是Tensor或者Variable。

import torch

import torch.nn as nn

import torch.optim as optim

import numpy as np

# 第一一個卷積層,我們可以看到它的權值是隨機初始化的

w=torch.nn.Conv2d(2,2,3,padding=1)

print(w.weight)

# 第一種方法

print("1.使用另一個Conv層的權值")

q=torch.nn.Conv2d(2,2,3,padding=1) # 假設q代表一個訓練好的卷積層

print(q.weight) # 可以看到q的權重和w是不同的

w.weight=q.weight # 把一個Conv層的權重賦值給另一個Conv層

print(w.weight)

# 第二種方法

print("2.使用來自Tensor的權值")

ones=torch.Tensor(np.ones([2,2,3,3])) # 先創建一個自定義權值的Tensor,這里為了方便將所有權值設為1

w.weight=torch.nn.Parameter(ones) # 把Tensor的值作為權值賦值給Conv層,這里需要先轉為torch.nn.Parameter類型,否則將報錯

print(w.weight)

附:Variable和Parameter的區別

Parameter 是torch.autograd.Variable的一個字類,常被用于Module的參數。例如權重和偏置。

Parameters和Modules一起使用的時候會有一些特殊的屬性。parameters賦值給Module的屬性的時候,它會被自動加到Module的參數列表中,即會出現在Parameter()迭代器中。將Varaible賦給Module的時候沒有這樣的屬性。這可以在nn.Module的實現中詳細看一下。這樣做是為了保存模型的時候只保存權重偏置參數,不保存節點值。所以復寫Variable加以區分。

另外一個不同是parameter不能設置volatile,而且require_grad默認設置為true。Varaible默認設置為False.

參數:

parameter.data 得到tensor數據

parameter.requires_grad 默認為True, BP過程中會求導

Parameter一般是在Modules中作為權重和偏置,自動加入參數列表,可以進行保存恢復。和Variable具有相同的運算。

我們可以這樣簡單區分,在計算圖中,數據(包括輸入數據和計算過程中產生的feature map等)時variable類型,該類型不會被保存到模型中。 網絡的權重是parameter類型,在計算過程中會被更新,將會被保存到模型中。

以上這篇pytorch自定義初始化權重的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持谷谷點程序。

總結

以上是生活随笔為你收集整理的python权重初始值设置_pytorch自定义初始化权重的方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。