pytorch基础一:张量
生活随笔
收集整理的這篇文章主要介紹了
pytorch基础一:张量
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
簡單記錄以便查閱
張量
一、創建張量
x = torch.empty(5,3) # 創建未初始化矩陣張量 x = torch.rand(5,3) # 創建初始化隨機矩陣張量 x = torch.zeros(5,3,dtype=torch.long) # 創建0填充矩陣張量 x = torch.tensor([5.5,3]) # 使用現有數據初始化張量 x = x.new_ones(5,3, dtype=torch.double) # 使用new_*來創建對象 x = torch.randn_like(x, dtype=torch.float) # 根據現有張量創建張量torch.arange(start, end, step=1, dtype=torch.int32) torch.full(size, fill_value) # 張量填充 torch.normal(mean, std, out=None) # 正態分布二、張量尺寸
x.size() x.shape三、張量維度
x = torch.squeeze(x) # 去掉大小為1的維度 x = torch.unsqueeze(x,3) # 在第三維增加1個維度 x = torch.transpose(x, 1, 2) # 交換維度1和維度2 x = torch.permute(1,2,3,0) # 交換多個維度/維度重組四、張量操作
x + y / torch.add(x, y) / y.add_(x) # 四則運算 x[:, 1] # 切片操作 x = x.view(-1, 8) # 改變維度(-1維度自動推斷) x = x.reshape(8,-1) # 改變維度 x.item() # 取張量的數值(前提:張量只有一個元素) torch.cat((x,y), dim=0) # 張量拼接(在原有的某一維度上進行連接) torch.stack((x,y), dim=0) # 張量拼接(創建一個新的維度,將原有維度在這個維度上進行順序排列)[詳細](https://blog.csdn.net/TH_NUM/article/details/83088915) torch.chunk(a, chunk_num, dim=0) # 張量拆分(在指定維度上將a變成chunk_num個大小相等的chunk,返回一個tuple。如果最后一個不夠chunk_num,就返回剩下的) torch.split(a, chunk_size, dim=0) # 張量拆分(同上)五、張量類型轉換
1.Torch Tensor與NumPy數組共享底層內存地址 b = a.numpy() # tensor 轉 numpy b = torch.from_numpy(a) # numpy 轉 tensorb = a.long() # torch.int64 c = a.half() # torch.float16 d = a.int() # torch.int32 e = a.double() # torch.float64 f = a.float() # torch.float32 g = a.char() # torch.int8 h = a.byte() # torch.uint8 j = a.short() # torch.int16 c = a.type_as(c) # 轉化 a 的數據格式與 c 相同六、CUDA 張量
# is_available 函數判斷是否有cuda可以使用 # ``torch.device``將張量移動到指定的設備中 if torch.cuda.is_available():device = torch.device("cuda") # a CUDA 設備對象y = torch.ones_like(x, device=device) # 直接從GPU創建張量x = x.to(device) # 或者直接使用``.to("cuda")``將張量移動到cuda中z = x + yprint(z)print(z.to("cpu", torch.double)) # ``.to`` 也會對變量的類型做更改總結
以上是生活随笔為你收集整理的pytorch基础一:张量的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Android官方开发文档Trainin
- 下一篇: 笔记:《幸福的方法》